RabbitMq

  • 1. MQ
    • 1.1 MQ的相关概念
    • 1.2 为什么要用MQ?
      • 1.2.1 流量消峰
      • 1.2.2 应用解耦
      • 1.2.3 异步处理
    • 1.3 MQ分类
    • 1.3.1 ActiveMQ
    • 1.3.2 Kafka
    • 1.3.3 RocketMQ
    • 1.3.4 RabbitMQ
    • 1.4 MQ的选择
  • 2. 什么是RabbitMQ?
    • 2.1 四大核心概念
    • 2.2 核心部分
    • 2.3 环境安装
  • 3. RabbitMq之Hello World
    • 3.1 创建开发环境,添加maven依赖
    • 3.2 流程图
    • 3.3 生产者代码
    • 3.4 消费者代码
    • 3.5 测试用例
  • 4. 工作队列
    • 4.1 什么是工作队列?
    • 4.2 用代码实现工作队列
      • 4.2.1 抽取连接工程工具类
      • 4.2.2 消费者代码
      • 4.2.3 生产者代码
      • 4.2.4 测试,发送消息
    • 4.3 消息应答
      • 4.3.1 什么是消息应答?
      • 4.3.2 自动应答模式
      • 4.3.3 消息应答的方法
      • 4.3.4 消息自动重新入队
      • 4.3.5 消息手动应答
        • 4.3.5.1 生产者代码
        • 4.3.5.2 消费者代码1
        • 4.3.5.3 消费者代码2
        • 4.3.5.4 启动程序
    • 4.4 持久化
      • 4.4.1 什么是持久化?
      • 4.4.2 队列持久化
      • 4.4.3 消息持久化
    • 4.5 不公平分发
    • 4.6 预取值
  • 5. 发布确认
    • 5.1 发布确认原理
    • 5.2 发布确认策略
    • 5.3 单个发布确认
      • 5.3.1 代码实现
      • 5.3.2 运行结果
    • 5.4 批量确认发布
      • 5.4.1 代码实现
      • 5.4.2 运行结果
    • 5.5 异步发布确认
      • 5.5.1 代码实现
      • 5.5.2 运行结果
    • 5.6 三种发布确认速度对比
  • 6. 交换机
    • 6.1 交换机简介
    • 6.2 临时队列
    • 6.3 Bindings
    • 6.4 Fanout:扇出交换机(发布/订阅)
      • 6.5.1 Fanout:扇出交换机(发布/订阅)实战
        • 6.5.1.1 生产者
        • 6.5.1.2 消费者1
        • 6.5.1.3 消费者2
        • 6.5.1.4 运行结果
    • 6.5 Direct:直接交换机(路由模式)
      • 6.5.1 多重绑定
      • 6.5.2 直接交换机实战
        • 6.5.2.1 生产者
        • 6.5.2.2 消费者1
        • 6.5.2.3 消费者2
        • 6.5.2.4 运行结果
    • 6.6 Topics:主题交换机
      • 6.6.1 前2种交换机的问题
      • 6.6.2 Topic的要求
      • 6.6.3 Topic匹配案例
      • 6.6.4 Topic的实战
        • 6.6.4.1 生产者
        • 6.6.4.2 消费者1
        • 6.6.4.3 消费者2
        • 6.6.4.4 运行结果
    • 6.7 死信队列
      • 6.7.1 什么是死信?
      • 6.7.2 死信的来源
      • 6.7.3 代码架构图
      • 6.7.4 消息TTL过期
        • 6.7.4.1 生产者
        • 6.7.4.2 消费者1
        • 6.7.4.3 测试运行
        • 6.7.4.4 我们在写一个消费者2,来消费死信消息
      • 6.7.5 队列达到最大长度
        • 6.7.5.1 注释掉生产者代码中消息过期时间。
        • 6.7.5.2 设置消费者1队列的最大长度。
        • 6.7.5.3 运行代码
      • 6.7.6 消息被拒绝
        • 6.7.6.1 生产者代码无改变
        • 6.7.6.2 消费者01
        • 6.7.6.3 运行代码
    • 6.8 延迟队列
      • 6.8.1 什么是延迟队列?
      • 6.8.2 延迟队列使用场景
      • 6.8.3 整合springboot工程
        • 6.8.3.1 创建一个springboot工程,导入依赖
        • 6.8.3.2 配置application.properties
        • 6.8.3.3 添加SwaggerConfig配置文件
      • 6.8.4 代码架构图
      • 6.8.5 配置文件类代码
      • 6.8.6 生产者代码
      • 6.8.7 消费者代码
      • 6.8.8 启动服务,运行代码
      • 6.8.9 运行结果
    • 6.9 队列优化
      • 6.9.1 存在问题
      • 6.9.2 代码架构图
      • 6.9.3 配置文件类增加QC代码
      • 6.9.3 生产者增加发送指定延长时间代码
      • 6.9.4 运行测试
      • 6.9.5 存在问题

1. MQ

1.1 MQ的相关概念

MQ(message queue),从字面意思上看,本质是个队列,FIFO先入先出,只不过队列中存放的内容是message而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务。使用了MQ之后,消息发送上游只需要依赖MQ,不用依赖其他服务。

1.2 为什么要用MQ?

1.2.1 流量消峰

举个例子,如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好

1.2.2 应用解耦

以电商应用为例,应用中有订单系统、库存系统、支付系统。用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可 ,中单用户感受不到物流系统的故障,提升系统的可用性。

1.2.3 异步处理

有些服务间调用是异步的,例如A调用B,B需要花费很长时间执行,但是A需要知道B什么时候可以执行完,以前一般有两种方式,A过一段时间去调用B的查询api查询。或者A提供一个callback api,B执行完之后调用api通知A服务。这两种方式都不是很优雅,使用消息总线,可以很方便解决这个问题,A调用B服务后,只需要监听B处理完成的消息,当B处理完成后,会发送一条消息给MQ,MQ会将此消息转发给A服务。这样A服务既不用循环调用B的查询api,也不用提供callback api。同样B服务也不用做这些操作。A服务还能及时的得到异步处理成功的消息。

1.3 MQ分类

1.3.1 ActiveMQ

  • 优点:单机吞吐量万级,时效性ms级,可用性高,基于主从架构实现高可用性,消息可靠性较低的概率丢失数据
  • 缺点:维护越来越少,高吞吐量场景较少使用

1.3.2 Kafka

大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开Kafka,这款为大数据而生的消息中间件,以其百万级TPS的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输存储的过程中发挥着举足轻重的作用。目前已经被LinkedIn,Uber,Twitter,Netflix等大公司所采纳。

  • 优点:性能卓越,单机写入TPS约在百万条/秒,最大的优点,就是吞吐量高。时效性ms级可用性非常高,kafka是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用,消费者采用Pull方式获取消息,消息有序,通过控制能够保证所有消息被消费且仅被消费一次;有优秀的第三方Kafka Web管理界面Kafka-Manager;在日志领域比较成熟,被多家公司和多个开源项目使用;功能支持:功能较为简单,主要支持简单的MQ功能,在大数据领域的实时计算以及日志采集被大规模使用

  • 缺点:Kafka单机超过64个队列/分区,Load会发生明显的飙高现象,队列越多,load越高,发送消息响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序,但是一台代理宕机后,就会产生消息乱序,社区更新较慢;

1.3.3 RocketMQ

出自阿里巴巴的开源产品,用Java语言实现,在设计时参考了Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理binglog分发等场
景。

优点:单机吞吐量十万级,可用性非常高,分布式架构,消息可以做到0丢失,MQ功能较为完善,还是分布式的,扩展性好,支持10亿级别的消息堆积,不会因为堆积导致性能下降,源码是java我们可以自己阅读源码,定制自己公司的MQ

缺点:支持的客户端语言不多,目前是java及c++,其中c++不成熟;社区活跃度一般,没有在MQ核心中去实现JMS等接口,有些系统要迁移需要修改大量代码

1.3.4 RabbitMQ

2007年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。

优点:由于erlang语言的高并发特性,性能较好;吞吐量到万级,MQ功能比较完备,健壮、稳定、易用、跨平台、支持多种语言如: Python、Ruby、.NET、 Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持AJAX文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;
更新频率相当高

缺点:商业版需要收费,学习成本较高

1.4 MQ的选择

MQ种类 介绍
Kafka Kafka主要特点是基于Pull的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能,肯定是首选kafka了。
RocketMQ 天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RoketMQ在稳定性上可能更值得信赖,这些业务场景在阿里双11已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择RocketMQ。
RabbitMQ 结合erlang语言本身的并发优势,性能好时效性微秒级,社区活跃度也比较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的RabbitMO

2. 什么是RabbitMQ?

RabbitMQ是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会把你的快递送到收件人那里,按照这种逻辑RabbitMQ是一个快递站,一个快递员帮你传递快件。RabbitMQ.与快递站的主要区别在于,它不处理快件而是接收,存储和转发消息数据。

2.1 四大核心概念

概念 介绍
生产者 产生数据发送消息的程序是生产者
交换机 交换机是RabbitMQ非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推关到多个队列,亦或者是把消息丢弃,这个得有交换机类型决定
队列 队列是RabbitMQ内部使用的一种数据结构,尽管消息流经RabbitMQ和应用程序但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式
消费者 消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者。

2.2 核心部分

部分 功能
Borker 接受和分发消息的应用,RabbitMQ Server就是Message Broker
Virtual host 出于多租户和安全因素设计的,把AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的namespace.概念。当多个不同的用户使用同一个RabbitMQ server提供的服务时,可以划分出多个vhost,每个用户在自己的vhost创建exchange / queue 等
Connection publisher / consumer和broker之间的TCP连接
Channel 如果每一次访问 RabbitMQ 都建立一个Connection,在消息量大的时候建立TCPConnection的开销将是巨大的,效率也较低。Channel是在connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个thread 创建单独的channel进行通讯,AMQP method包含了channel id 帮助客户端和message broker识别 channel,所以channel之间是完全隔离的。Channel作为轻量级的Connection极大减少了操作系统建立TCP connection的开销
Exchange message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发消息到queue 中去。常用的类型有: direct (point-to-point), topic (publish-subscribe) and fanout(multicast)
Queue 消息最终被送到这里等到consumer取走
Binding exchange和queue之间的虚拟连接,binding中可以包含routing key,Binding消息被保存到exchange中的查询表中,用于message的分发依据

2.3 环境安装

略 略 略

3. RabbitMq之Hello World

3.1 创建开发环境,添加maven依赖

pom.xml

    <build><plugins><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><configuration><source>8</source><target>8</target></configuration></plugin></plugins></build><dependencies><dependency><groupId>com.rabbitmq</groupId><artifactId>amqp-client</artifactId><version>5.8.0</version></dependency><dependency><groupId>commons-io</groupId><artifactId>commons-io</artifactId><version>2.6</version></dependency></dependencies>

3.2 流程图

3.3 生产者代码

Consumer.java

/*** @author LongXi* @create 2021-09-27 20:51*/
public class Consumer {//队列名称public static final String QUEUE_NAME = "hello";public static void main(String[] args) throws IOException, TimeoutException {//创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();//工程IP,连接Mq队列factory.setHost("127.0.0.1");//设置用户名factory.setUsername("guest");//设置密码factory.setPassword("guest");//创建连接Connection connection = factory.newConnection();// 获取信道Channel channel = connection.createChannel();// 声明 接受消息DeliverCallback deliverCallback = (consumerTag, message)->{System.out.println("获得的消息是:" + new String(message.getBody()));};// 声明 取消消息CancelCallback cancelCallback = (consumerTag) ->{System.out.println("消息消费被中断");};/** 消费者接收消息* 参数1:表示消费哪个UI列* 参数2:消费成功之后,是否需要自动应答,true表示自动应答,false表示手动应答* 参数3:消费者成功消费的回调* 参数4:消费者取消消费的回调*/channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);}
}

3.4 消费者代码


/*** @author LongXi* @create 2021-09-27 20:37*/
public class Producer {//队列名称public static final String QUEUE_NAME = "hello";//发消息public static void main(String[] args) throws IOException, TimeoutException {//创建一个连接工厂ConnectionFactory  factory = new ConnectionFactory();//工程IP,连接Mq队列factory.setHost("127.0.0.1");//设置用户名factory.setUsername("guest");//设置密码factory.setPassword("guest");//创建连接Connection connection = factory.newConnection();// 获取信道Channel channel = connection.createChannel();/** 生成一个队列* 参数1:队列名称* 参数2:队列里面的消息是否持久化,默认情况下,消息存储在内存中* 参数3:该队列是否只供一个消费者进行消费,是否进行消费共享,*        true:可以多个消费者消费*        false:只能一个消费者消费* 参数4:是否自动删除:最后一个消费者断开连接之后,该队列是否自动删除,true则自动删除,*        false不自动删除* 参数5:其他参数* */channel.queueDeclare(QUEUE_NAME,true,false,false,null);//发消息String message ="hello,world";/** 发送一个消息* 参数1:发送到哪个交换机* 参数2:路由的key值是那个,本次是队列的名称* 参数3:其他参数信息* 参数4:发送消息的消息体* */channel.basicPublish("",QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));System.out.println("消息发送完毕");}
}

3.5 测试用例

生产者

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
消息发送完毕

消费者

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
获得的消息是:hello,world

4. 工作队列

4.1 什么是工作队列?

工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。
相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。
在后台运行的工作进程将弹出任务并最终执行作业。
当有多个工作线程时,这些工作线程将一起处理这些任务。

4.2 用代码实现工作队列

4.2.1 抽取连接工程工具类

/*** @author LongXi* @create 2021-09-28 21:09*/
/** 此类为连接工厂创建信道的工具类* */
public class RabbitMqUtils {// 得到一个连接的channelpublic static Channel getChannel() throws IOException, TimeoutException {// 创建一个连接工厂ConnectionFactory factory = new ConnectionFactory();factory.setHost("127.0.0.1");//设置用户名factory.setUsername("guest");//设置密码factory.setPassword("guest");Connection connection = factory.newConnection();com.rabbitmq.client.Channel channel = connection.createChannel();return channel;}
}

4.2.2 消费者代码

/*** @author LongXi* @create 2021-09-28 21:10* 这是一个工作线程,相当于消费者*/
public class Work01 {// 队列名称public static final String QUEUE_NAME = "hello";// 接受消息public static void main(String[] args) throws IOException, TimeoutException {Channel channel = RabbitMqUtils.getChannel();/** 消费者接收消息* 参数1:表示消费哪个UI列* 参数2:消费成功之后,是否需要自动应答,true表示自动应答,false表示手动应答* 参数3:消费者成功消费的回调* 参数4:消费者取消消费的回调*/// 接受消息参数DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println("接受到的消息:"+new String(message.getBody()));};// 取消消费参数CancelCallback cancelCallback = consumerTag -> {System.out.println(consumerTag+"消费者取消消费借口回调逻辑");};// 消息的接受System.out.println("线程1等待接收消息。。。。。。。。。。");channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);}
}

启动消费者线程1代码

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
线程1等待接收消息。。。。。。。。。。

开启第2个工作线程前需要修改一下配置


这样就同一个程序,启动多次了。我们改一下输出信息再启动线程2

启动消费者线程2代码

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
线程2等待接收消息。。。。。。。。。。

4.2.3 生产者代码

/*** @author LongXi* @create 2021-09-28 21:29*/
public class Task01 {// 队列名称public static final String QUEUE_NAME = "hello";// 发送大量消息public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();// 队列的声明channel.queueDeclare(QUEUE_NAME,true,false,false,null);// 从控制台中输入消息Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.next();channel.basicPublish("",QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));System.out.println("发送消息完成:"+ message);}}
}

4.2.4 测试,发送消息




这样就完成了轮询消费消息。

4.3 消息应答

4.3.1 什么是消息应答?

  1. 消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况?RabbitMQ一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费者的消息,因为它无法接收到。
  2. 为了保证消息在发送过程中不丢失,RabbitMQ引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉RabbitMQ它已经处理了,RabbitMQ可以把该消息删除了。

4.3.2 自动应答模式

消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者channel关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制,当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。

4.3.3 消息应答的方法

  1. Channel.basicAck(用于肯定确认)

    RabbitMQ已知道该消息并且成功处理,可以将其丢弃

  2. Channel.basicNack(用于否定确认)

  3. Channel.basicReject(用于否定确认),与Channel.basicNack相比少了一个参数,不处理该消息了,直接拒绝,可以将其丢弃了。

Multiple的解释

手动应答的好处是可以批量应答并且减少网络拥堵

multiple的true和false是不同的意思:

  • true表示批量应答channel上未应答的消息,比如channel上有传送tag的消息5,6,7,8,,当前tag是8,那么此时5-8的这些还未应答的消息就会被确认收到消息应答
  • false同上面相比只会应答tag=8的消息,5,6,7这三个消息依然不会被确认收到消息应答

4.3.4 消息自动重新入队

如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或TCP连接丢失),导致消息未发送ACK确认,RabbitMQ将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。

4.3.5 消息手动应答

默认消息采用的是自动应答,所以我们要想实现消息消费过程中不丢失,需要把自动应答改为手动应答。

4.3.5.1 生产者代码

/*** @author LongXi* @create 2021-09-29 20:49*/
public class Task2 {// 队列名称public static final String TASK_QUEUE_NAME = "ack_queue";public static void main(String[] args) throws IOException, TimeoutException {Channel channel = RabbitMqUtils.getChannel();// 声明队列channel.queueDeclare(TASK_QUEUE_NAME,false,false,false,null);Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.next();channel.basicPublish("",TASK_QUEUE_NAME,null,message.getBytes(StandardCharsets.UTF_8));System.out.println("生产者发出消息:"+message);}}
}

4.3.5.2 消费者代码1

/*** @author LongXi* @create 2021-09-29 20:52* 消费者*/
public class Work03 {// 队列名称public static final String TASK_QUEUE_NAME = "ack_queue";public static void main(String[] args) throws IOException, TimeoutException {Channel channel = RabbitMqUtils.getChannel();System.out.println("C1等待接受消息处理时间较短");DeliverCallback deliverCallback = (consumerTag, message) -> {// 沉睡一秒SleepUtils.sleep(1);System.out.println("接受到的消息是:"+new String(message.getBody()));//进行手动应答/** 参数1:消息的标记  tag* 参数2:是否批量应答,false:不批量应答 true:批量* */channel.basicAck(message.getEnvelope().getDeliveryTag(),false);};// 采用手动应答boolean autoAck = false;channel.basicConsume(TASK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag) -> {System.out.println(consumerTag+"消费者取消消费接口回调逻辑");});}
}

4.3.5.3 消费者代码2

/*** @author LongXi* @create 2021-09-29 20:52* 消费者*/
public class Work04 {// 队列名称public static final String TASK_QUEUE_NAME = "ack_queue";public static void main(String[] args) throws IOException, TimeoutException {Channel channel = RabbitMqUtils.getChannel();System.out.println("C2等待接受消息处理时间较长");DeliverCallback deliverCallback = (consumerTag,message) -> {// 沉睡30秒SleepUtils.sleep(30);System.out.println("接受到的消息是:"+new String(message.getBody()));//进行手动应答/** 参数1:消息的标记  tag* 参数2:是否批量应答,false:不批量应答 true:批量* */channel.basicAck(message.getEnvelope().getDeliveryTag(),false);};// 采用手动应答boolean autoAck = false;channel.basicConsume(TASK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag) -> {System.out.println(consumerTag+"消费者取消消费接口回调逻辑");});}
}

4.3.5.4 启动程序




下面进行发消息

Work04由于处理时间太长,在接收到消息【bb】之后,我们挂掉他,这个时候信息会重回队列分给Work03进行处理。

4.4 持久化

4.4.1 什么是持久化?

刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当RabbitMQ服务停掉以后消息生产者发送过来的消息不丢失。
默认情况下RabbitMQ退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。

4.4.2 队列持久化

  1. 之前我们创建的队列都是非持久化的,rabbitmq如果重启的化,该队列就会被删除掉,如果要队列实现持久化需要在声明队列的时候把durable参数设置为持久化
 // 声明队列// 持久化 需要让Queue持久化boolean durable = true;channel.queueDeclare(TASK_QUEUE_NAME,durable,false,false,null);
  1. 需要注意的就是如果之前声明的队列不是持久化的,需要把原先队列先删除或者重新创建一个持久化的队列,不然就会出现错误
  2. 重新运行代码后,队列持久化成功

4.4.3 消息持久化

  1. 要想让消息实现持久化需要在消息生产者修改码,MessageProperties,PERSISTENT_TEXT_PLAIN添加这个属性。
  2. 将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉RabbitMQ将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,参考后边课件发布确认章节。
 //设置生产者发送消息为持久化消息(要求保存到磁盘上)channel.basicPublish("",TASK_QUEUE_NAME, MessageProperties.PERSISTENT_TEXT_PLAIN,message.getBytes(StandardCharsets.UTF_8));System.out.println("生产者发出消息:"+message);

4.5 不公平分发

  1. 在最开始的时候我们学习到RabbitMQ.分发消息采用的轮训分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者1处理任务的速度非常快,而另外一个消费者2处理速度却很慢,这个时候我们还是采用轮训分发的化就会到这处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是RabbitMQ并不知道这种情况,它依然很公平的进行分发。
  2. 为了避免这种情况,我们可以设置参数channel.basicQos(1)
        // 不公平分发int prefetchCount = 1;channel.basicQos(prefetchCount);
  1. 测试一下



    Wok03处理的快,接收的消息就多。
    Wok04处理的慢,接收的消息就少。

4.6 预取值

本身消息的发送就是异步发送的,所以在任何时候,channel上肯定不止只有一个消息另外来自消费者的手动确认本质上也是异步的。
因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。
这个时候就可以通过使用basic.gos.方法设置“预取计数”值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,

例如,假设在通道上有未确认的消息5、6、7,8,并且通道的预取计数设置为4,此时RabbitMQ.将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被ack。比方说tag=6这个消息刚刚被确认ACK,RabbitMQ将会感知这个情况到并再发送一条消息。消息应答和QoS预取值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度。虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的RAM消耗(随机存取存储器)应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同100到300范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为1是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。

        // 预取值是5int prefetchCount = 5;channel.basicQos(prefetchCount);

5. 发布确认

5.1 发布确认原理

  1. 生产者将信道设置成confirm模式,一旦信道进入confirm模式,所有在该信道上面发布的消息都将会被指派一个唯一的ID(从1开始),一旦消息被投递到所有匹配的队列之后,broker就会发送一个确认给生产者(包含消息的唯一ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker回传给生产者的确认消息中delivery-tag域包含了确认消息的序列号,此外 broker也可以设置basic.ack 的multiple域,表示到这个序列号之前的所有消息都已经得到了处理。
  2. confirm模式最大的好处在于他是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果RabbitMQ因为自身内部错误导致消息丢失,就会发送一条nack消息,生产者应用程序同样可以在回调方法中处理该nack.消息。
  3. 保证消息不丢失,必须消费端进行发布确认

5.2 发布确认策略

开启发布确认的方法:
发布确认默认是没有开启的,如果要开启需要调用方法 confirmSelect,每当你要想使用发布角认,都需要在channel上调用该方法

Channel channel = connection.createChannel();
channel.confirmSelect();

5.3 单个发布确认

  1. 这是一种简单的确认方式,它是一种同步确认发布的方式,也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布, waitForConfirmsOrDie(long)这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常。

  2. 这种确认方式有一个最大的缺点就是:发布速度特别的慢,因为如果没有确认发布的消息颍会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了。

5.3.1 代码实现

/*** @author LongXi* @create 2021-10-10 8:18* * 发布确认模式,* 1、单个确认* 2、批量确认* 3、异步批量确认*/
public class ConfirmMessage {// 批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {//1、单个确认ConfirmMessage.publishMessageIndividually();}public static void publishMessageIndividually() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();// 开始时间long begin = System.currentTimeMillis();// 批量发消息for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));// 单个消息马上进行发布确认boolean flag = channel.waitForConfirms();if (flag){System.out.println("第"+ (i+1) +  "条消息发送成功");}}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个单独确认消息,耗时"+ (end - begin) + "ms");}}

5.3.2 运行结果

5.4 批量确认发布

上面那种方式非常慢,与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,
当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。

5.4.1 代码实现

/*** @author LongXi* @create 2021-10-10 8:18* * 发布确认模式,* 1、单个确认* 2、批量确认* 3、异步批量确认*/
public class ConfirmMessage {// 批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {// 1、单个确认//ConfirmMessage.publishMessageIndividually();// 2、批量确认ConfirmMessage.publishMessageBatch();}public static void publishMessageIndividually() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();// 开始时间long begin = System.currentTimeMillis();// 批量发消息for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));// 单个消息马上进行发布确认boolean flag = channel.waitForConfirms();if (flag){System.out.println("第"+ (i+1) +  "条消息发送成功");}}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个单独确认消息,耗时"+ (end - begin) + "ms");}public static void publishMessageBatch() throws Exception{Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();// 开始时间long begin = System.currentTimeMillis();// 批量确认消息大小int batchSize = 1000;// 批量发送 批量确认for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));// 判断达到100条消息的时候,批量确认一次if (i%batchSize == 0){// 确认发布channel.waitForConfirms();}}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个批量确认消息,耗时"+ (end - begin) + "ms");}
}

5.4.2 运行结果

5.5 异步发布确认

异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的。

5.5.1 代码实现

    public static void publicMessageAsync() throws Exception{Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();// 开始时间long begin = System.currentTimeMillis();// 消息确认成功回调函数ConfirmCallback ackCallback = (deliveryTag,multiply) -> {System.out.println("确认的消息:"+deliveryTag);};// 消息确认失败回调函数/** 参数1:消息的标记* 参数2:是否为批量确认* */ConfirmCallback nackCallback = (deliveryTag,multiply) -> {System.out.println("未确认的消息:"+deliveryTag);};// 准备消息的监听器,监听哪些消息成功,哪些消息失败/** 参数1:监听哪些消息成功* 参数2:监听哪些消息失败* */channel.addConfirmListener(ackCallback,nackCallback);// 批量发送消息for (int i = 0; i < MESSAGE_COUNT; i++) {String message = "消息" + i;channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个异步确认消息,耗时"+ (end - begin) + "ms");}

如何处理异步未确认信息?

最好的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用ConcurrentLinkedQueue这个队列在confirm callbacks与发布线程之间进行消息的传递

/*** @author LongXi* @create 2021-10-10 8:18* * 发布确认模式,* 1、单个确认* 2、批量确认* 3、异步批量确认*/
public class ConfirmMessage {// 批量发消息的个数public static final int MESSAGE_COUNT = 1000;public static void main(String[] args) throws Exception {// 1、单个确认//ConfirmMessage.publishMessageIndividually();// 2、批量确认//ConfirmMessage.publishMessageBatch();// 3、异步批量确认ConfirmMessage.publicMessageAsync();}public static void publishMessageIndividually() throws Exception {Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();// 开始时间long begin = System.currentTimeMillis();// 批量发消息for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));// 单个消息马上进行发布确认boolean flag = channel.waitForConfirms();if (flag){System.out.println("第"+ (i+1) +  "条消息发送成功");}}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个单独确认消息,耗时"+ (end - begin) + "ms");}public static void publishMessageBatch() throws Exception{Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();// 开始时间long begin = System.currentTimeMillis();// 批量确认消息大小int batchSize = 1000;// 批量发送 批量确认for (int i = 0; i < MESSAGE_COUNT; i++) {String message = i + "";channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));// 判断达到100条消息的时候,批量确认一次if (i%batchSize == 0){// 确认发布channel.waitForConfirms();}}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个批量确认消息,耗时"+ (end - begin) + "ms");}public static void publicMessageAsync() throws Exception{Channel channel = RabbitMqUtils.getChannel();String queueName = UUID.randomUUID().toString();channel.queueDeclare(queueName,false,false,false,null);// 开启发布确认channel.confirmSelect();/** 线程安全有序的一个哈希表 适用于高并发的情况下* 1、轻松地将序号与消息进行关联* 2、轻松地批量删除,只要给到序号* 3、支持高并发* */ConcurrentSkipListMap<Long,String> outstandingConfirms = new ConcurrentSkipListMap<>();// 消息确认成功回调函数ConfirmCallback ackCallback = (deliveryTag,multiply) -> {// 删除到已经确认的消息,剩下的就是未确认的消息if(multiply){ConcurrentNavigableMap<Long, String> confiremed = outstandingConfirms.headMap(deliveryTag);confiremed.clear();}else {outstandingConfirms.remove(deliveryTag);}System.out.println("确认的消息:"+deliveryTag);};// 消息确认失败回调函数/** 参数1:消息的标记* 参数2:是否为批量确认* */ConfirmCallback nackCallback = (deliveryTag,multiply) -> {// 打印一下未确认的消息都有哪些String message = outstandingConfirms.get(deliveryTag);System.out.println("未确认的消息是:" + message +"未确认的消息tag:" + deliveryTag);};// 准备消息的监听器,监听哪些消息成功,哪些消息失败/** 参数1:监听哪些消息成功* 参数2:监听哪些消息失败* */channel.addConfirmListener(ackCallback,nackCallback);// 开始时间long begin = System.currentTimeMillis();// 批量发送消息for (int i = 0; i < MESSAGE_COUNT; i++) {String message = "消息" + i;channel.basicPublish("",queueName,null,message.getBytes(StandardCharsets.UTF_8));// 此处记录下所有要发送的消息的总和outstandingConfirms.put(channel.getNextPublishSeqNo(),message);}// 结束时间long end = System.currentTimeMillis();System.out.println("发布"+MESSAGE_COUNT+"个异步确认消息,耗时"+ (end - begin) + "ms");}
}

5.5.2 运行结果

5.6 三种发布确认速度对比

发布方式 特点
单独发布消息 同步等待确认,简单,但吞吐量非常有限
批量发布消息 批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题。
异步处理 最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些

6. 交换机

6.1 交换机简介

简单模式:一个消息只能被消费者消费一次

发布订阅模式:消息可以发给多个消费者


这里就用到了交换机

  1. RabbitMQ消息传递模型的核心思想是:生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。

  2. 相反,生产者只能将消息发送到交换机(exchange),交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定。

  3. 总共有以下几个类型:

直接(direct)、主题(topic)、标题(headers)、扇出(fanout)

  1. 无名交换机:

在本教程的前面部分我们对exchange一无所知,但仍然能够将消息发送到队列。之前能实现的原因是因为我们使用的是默认交换,我们通过空字符串(C")进行标识。

第一个参数是交换机的名称。空字符串表示默认或无名称交换机:消息能路由发送到队列中其实是由routingKey(bindingkey)绑定key指定的,如果它存在的话

channel.basiPublish("","hello",null,message.getBytes());

6.2 临时队列

  1. 每当我们连接到Rabbit时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者能让服务器为我们选择一个随机队列名称那就更好了。其次一旦我们断开了消费者的连接,队列将被自动删除。

  2. 创建临时队列的方式如下:

String queueName = channel.queueDeclare().getQueue();

创建出来的队列长这样:

6.3 Bindings

什么是bingding.呢, binding其实是exchange和queue之间的桥梁,它告诉我们exchange和那个队列进行了绑定关系。比如说下面这张图告诉我们的就是×与Q1和Q2进行了绑定

6.4 Fanout:扇出交换机(发布/订阅)

Fanout这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播到它知道的所有队列中。系统中默认有些exchange类型

6.5.1 Fanout:扇出交换机(发布/订阅)实战

6.5.1.1 生产者

/*** @author LongXi* @create 2021-10-11 20:07* 发消息 交换机*/
public class Emitlog {// 交换机的名称public  static  final String EXCHANGE_NAME = "logs";public static void main(String[] args) throws  Exception{Channel channel = RabbitMqUtils.getChannel();channel.exchangeDeclare(EXCHANGE_NAME,"fanout");Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.next();channel.basicPublish(EXCHANGE_NAME,"",null,message.getBytes(StandardCharsets.UTF_8));System.out.println("生产者发出的消息:"+ message);}}
}

6.5.1.2 消费者1

/*** @author LongXi* @create 2021-10-11 20:06* 消息接收*/
public class ReceiveLogs01 {//交换机名称public static final String EXCHANGE_NAME = "logs";public static void main(String[] args) throws Exception{Channel channel = RabbitMqUtils.getChannel();//声明一个队列,名称随机,当消费者断开与队列的连接时,队列自动删除String queueName = channel.queueDeclare().getQueue();//绑定交换机与队列channel.queueBind(queueName,EXCHANGE_NAME,"");System.out.println("等待接受消息,把接受到的消息打印在屏幕上...");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogs01控制台打印接受到的消息:" + new String(message.getBody()));};channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});}
}

6.5.1.3 消费者2

/*** @author LongXi* @create 2021-10-11 20:06* 消息接收*/
public class ReceiveLogs02 {//交换机名称public static final String EXCHANGE_NAME = "logs";public static void main(String[] args) throws Exception{Channel channel = RabbitMqUtils.getChannel();//声明一个队列,名称随机,当消费者断开与队列的连接时,队列自动删除String queueName = channel.queueDeclare().getQueue();//绑定交换机与队列channel.queueBind(queueName,EXCHANGE_NAME,"");System.out.println("等待接受消息,把接受到的消息打印在屏幕上...");DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println("ReceiveLogs02控制台打印接受到的消息:" + new String(message.getBody()));};channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});}
}

6.5.1.4 运行结果

生产者发消息

消费者1

消费者2

6.5 Direct:直接交换机(路由模式)

  1. 扇出交换机将所有消息广播给所有消费者,对此我们想做一些改变,例如我们希望将日志消息写入磁盘的程序金接收严重错误(errors),而不存储那些警告(warning)或信息(info)日志消息,避免浪费磁盘空间。
  2. 扇出交换机这种交换类型并不能给我们带来很大的灵活性,它只能进行无意识的广播,在这里我们将使用直接交换机这种类型来进行替换,这种类型的工作方式是,消息只去到它绑定的routingKey队列中去。
  3. 在上面这张图中,我们可以看到,X绑定了两个队列,绑定类型是direct。队列Q1绑定键为orange,队列Q绑定键有2个:一个是black,一个是green。
  4. 在这种绑定情况下,生产者发布消息到exchange上,绑定键为orange的消息会被发布到队列Q1.绑定键为black和green的消息会被发布到队列Q2,其他消息类型的消息会被丢弃。

6.5.1 多重绑定


当然如果exchange的绑定类型是direct,但是它绑定的多个队列的key如果都相同,在这种情况下虽然绑定类型是direct,但是它表现的就和fanout有点类似了。就跟广播差不多。如上图所示。

6.5.2 直接交换机实战



消费者1,有2个routing key,【info】和【warning】
消费者2,有1个routing key,【error】

6.5.2.1 生产者

/*** @author LongXi* @create 2021-10-11 20:42*/
public class DirectLogs {// 交换机的名称public  static  final String EXCHANGE_NAME = "direct_logs";public static void main(String[] args) throws  Exception{Channel channel = RabbitMqUtils.getChannel();channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.next();channel.basicPublish(EXCHANGE_NAME,"info",null,message.getBytes(StandardCharsets.UTF_8));System.out.println("生产者发出的消息:"+ message);}}
}

6.5.2.2 消费者1

/*** @author LongXi* @create 2021-10-11 20:42*/
public class ReceiveLogsDirect01 {public static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明一个队列channel.queueDeclare("console",false,false,false,null);//绑定交换机与队列channel.queueBind("console",EXCHANGE_NAME,"info");channel.queueBind("console",EXCHANGE_NAME,"warning");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogsDirect01控制台打印接受到的消息:" + new String(message.getBody()));};channel.basicConsume("console",true,deliverCallback,consumerTag -> {});}
}

6.5.2.3 消费者2

/*** @author LongXi* @create 2021-10-11 20:42*/
public class ReceiveLogsDirect02 {public static final String EXCHANGE_NAME = "direct_logs";public static void main(String[] args) throws Exception {Channel channel = RabbitMqUtils.getChannel();//声明一个队列channel.queueDeclare("disk",false,false,false,null);//绑定交换机与队列channel.queueBind("disk",EXCHANGE_NAME,"error");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("ReceiveLogsDirect02控制台打印接受到的消息:" + new String(message.getBody()));};channel.basicConsume("disk",true,deliverCallback,consumerTag -> {});}
}

6.5.2.4 运行结果

我们发送一条routing key【info】的消息。

此时消费者1会受到消息,消费者2不会受到消息。


我们再发送一条routing key【error】的消息。

此时消费者2会受到消息,消费者1不会受到消息。

6.6 Topics:主题交换机

6.6.1 前2种交换机的问题

尽管使用direct交换机改进了我们的系统,但是它仍然存在局限性。
比方说我们想收到的日志类型有info.base和info.advantage,某个队列只想收到info.base消息,那这个时候direct就办不到了。这个时候只能使用topic类型的交换机了。

6.6.2 Topic的要求

  1. 发送到类型是topic交换机的消息的routing_key不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,比如说: “stock.usd.nyse” , “nyse.vmw”,"quick.orange.rabbit"这种类型的。当然这个单词列表最多不能超过255个字节。
  2. 在这个规则列表中,其中有两个替换符:
  • (星号)可以代替一个单词
    #(井号)可以代替零个或多个单词

6.6.3 Topic匹配案例

下图绑定关系如下:

Q1绑定的是:
中间带orange的三个单词的字符串:.orange.

Q2绑定的是:
最后一个单词是rabbit的单个单词:..rabbit,第一个单词是lazy的多个单词:lazy.#

数据接收情况如下:

  1. quick.orange.rabbit:被队列Q1Q2接收到
  2. quick.orange.fox:被队列Q1接收到
  3. lazy.brown.fox:被队列Q2接收到
  4. lazy.pink.rabbit:虽然满足队列Q2的两个绑定但是只会被接收一次
  5. quick.brown.fox:不匹配任何绑定,不会被任何队列接收到会被丢弃
  6. quick.orange.male.rabbit:四个单词不匹配任何绑定会被丢弃
  7. lazy.orange.male.rabbit:是四个单词,但匹配Q2

结论:

  • 当一个队列绑定键是#,那么这个队列将接收所有数据,就有点像fanout了
  • 如果队列绑定键当中没有#和*出现,那么该队列绑定类型就是direct了

6.6.4 Topic的实战

6.6.4.1 生产者

/*** @author LongXi* @create 2021-10-13 20:13*/
public class EmitLogTopic {//交换机的名称public static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] args)  throws Exception{Channel channel = RabbitMqUtils.getChannel();HashMap<String, String> map = new HashMap<>();map.put("quick.orange.rabbit","被队列Q1Q2接收到");map.put("quick.orange.fox","被队列Q1接收到");map.put("lazy.brown.fox","被队列Q2接收到 ");map.put("lazy.pink.rabbit","虽然满足队列Q2的两个绑定但是只会被接收一次");map.put("quick.brown.fox","不匹配任何绑定,不会被任何队列接收到会被丢弃");map.put("quick.orange.male.rabbit","四个单词不匹配任何绑定会被丢弃");map.put("lazy.orange.male.rabbit","是四个单词,但匹配Q2");for (Map.Entry<String, String> bindingKeyEntry : map.entrySet()) {String routingKey = bindingKeyEntry.getKey();String message = bindingKeyEntry.getValue();channel.basicPublish(EXCHANGE_NAME,routingKey,null,message.getBytes(StandardCharsets.UTF_8));System.out.println("生产者发送消息:"+ message );}}
}

6.6.4.2 消费者1

/*** @author LongXi* @create 2021-10-13 20:14** 声明主题交换机及相关队列* 消费者C1* */
public class ReceiveLogsTopic01 {//交换机名称public static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] args)  throws Exception{Channel channel = RabbitMqUtils.getChannel();//声明交换机channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC);//声明队列String queueName = "Q1";channel.queueDeclare(queueName,false,false,false,null);//队列捆绑channel.queueBind(queueName,EXCHANGE_NAME,"*.orange.*");System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println(new String(message.getBody()));System.out.println("接收队列:"+ queueName + "绑定键:" + message.getEnvelope().getRoutingKey());};//接收消息channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});}
}

6.6.4.3 消费者2

/*** @author LongXi* @create 2021-10-13 20:14** 声明主题交换机及相关队列* 消费者C2* */
public class ReceiveLogsTopic02 {//交换机名称public static final String EXCHANGE_NAME = "topic_logs";public static void main(String[] args)  throws Exception{Channel channel = RabbitMqUtils.getChannel();//声明交换机channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC);//声明队列String queueName = "Q2";channel.queueDeclare(queueName,false,false,false,null);//队列捆绑channel.queueBind(queueName,EXCHANGE_NAME,"*.*.rabbit");channel.queueBind(queueName,EXCHANGE_NAME,"*lazy.#");System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println(new String(message.getBody()));System.out.println("接收队列:"+ queueName + "绑定键:" + message.getEnvelope().getRoutingKey());};//接收消息channel.basicConsume(queueName,true,deliverCallback,consumerTag -> {});}
}

6.6.4.4 运行结果

生产者发消息

消费者1

消费者2

6.7 死信队列

6.7.1 什么是死信?

  1. 死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer将消息投递到 broker或者直接到queue里了,consumer 从 queue取出消息进行消费,但某些时候由于特定的原因导致queue中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
  2. 应用场景:为了保证订单业务的消息数据不丢失,需要使用到RabbitMQ的死信队列机制,当消息消费发生异常时,将消息投入死信队列中。
  3. 还有比如说:用户在商城下单成功并点击去支付后在指定时间未支付时自动失效。

6.7.2 死信的来源

  1. 消息TTL过期
  2. 队列达到最大长度(队列满了,无法再添加数据到mq中)
  3. 消息被拒绝(basic.reject或basic.nack)并且requeue=false

6.7.3 代码架构图

6.7.4 消息TTL过期

6.7.4.1 生产者

/*** @author LongXi* @create 2021-10-17 8:19* 死信队列之生产者代码** */
public class Producer {//普通交换机的名称public static final String NORMAL_EXCHANGE = "normal_exchange";public static void main(String[] args) throws Exception{Channel channel = RabbitMqUtils.getChannel();//死信消息,设置TTL时间  单位是ms  10000ms是10s time to liveAMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();for (int i = 0; i < 10; i++) {String message = "info" + i;channel.basicPublish(NORMAL_EXCHANGE,"zhangsan",properties,message.getBytes(StandardCharsets.UTF_8));}}
}

6.7.4.2 消费者1

/*** @author LongXi* @create 2021-10-17 8:20* 死信队列实战* 消费者01* */
public class Consumer01 {//普通交换机名称public static final String NORMAL_EXCHANGE = "normal_exchange";//死信交换机名称public static final String DEAD_EXCHANGE = "dead_exchange";//普通队列名称public static final String NORMAL_QUEUE = "normal_queue";//死信队列名称public static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws  Exception{Channel channel = RabbitMqUtils.getChannel();//声明死信和普通的交换机类型为directchannel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);//声明普通队列HashMap<String, Object> arguments = new HashMap<>();//过期时间arguments.put("x-message-ttl",1000);//正常队列设置死信队列arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key","lisi");//声明死信和普通队列channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);channel.queueDeclare(DEAD_QUEUE,false,false,false,null);//绑定普通的交换机与普通的队列channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan");//绑定死信的交换机与死信的队列channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("Consumer01接收的消息是:" + new String(message.getBody()));};channel.basicConsume(NORMAL_QUEUE,true,deliverCallback,consumerTag->{});}
}

6.7.4.3 测试运行

  1. 启动Consumer01,建立关系。
  2. 启动生产者,发消息。
  3. 关闭Consumer01,模拟假死。

通过可视化界面可以看到,消息已经被转到了死信队列。

6.7.4.4 我们在写一个消费者2,来消费死信消息

/*** @author LongXi* @create 2021-10-17 8:20* 死信队列实战* 消费者02* */
public class Consumer02 {//死信队列名称public static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws  Exception{Channel channel = RabbitMqUtils.getChannel();System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println("Consumer02接收的消息是:" + new String(message.getBody()));};channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag->{});}
}

运行


此时,死信消息已经被消费。

6.7.5 队列达到最大长度

6.7.5.1 注释掉生产者代码中消息过期时间。

public class Producer {//普通交换机的名称public static final String NORMAL_EXCHANGE = "normal_exchange";public static void main(String[] args) throws Exception{Channel channel = RabbitMqUtils.getChannel();//死信消息,设置TTL时间  单位是ms  10000ms是10s time to live//AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build();for (int i = 0; i < 10; i++) {String message = "info" + i;channel.basicPublish(NORMAL_EXCHANGE,"zhangsan",null,message.getBytes(StandardCharsets.UTF_8));}}
}

6.7.5.2 设置消费者1队列的最大长度。

        //过期时间//arguments.put("x-message-ttl",1000);//正常队列设置死信队列arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key","lisi");//设置正常队列的长度限制arguments.put("x-max-length",6);

因为已经改了【normal_queue】队列的属性,所以启动会报错。

Exception in thread "main" java.io.IOExceptionat com.rabbitmq.client.impl.AMQChannel.wrap(AMQChannel.java:129)at com.rabbitmq.client.impl.AMQChannel.wrap(AMQChannel.java:125)at com.rabbitmq.client.impl.AMQChannel.exnWrappingRpc(AMQChannel.java:147)at com.rabbitmq.client.impl.ChannelN.queueDeclare(ChannelN.java:968)at com.rabbitmq.client.impl.recovery.AutorecoveringChannel.queueDeclare(AutorecoveringChannel.java:333)at com.longxi.rabbitmq.eight.Consumer01.main(Consumer01.java:47)
Caused by: com.rabbitmq.client.ShutdownSignalException: channel error; protocol method: #method<channel.close>(reply-code=406, reply-text=PRECONDITION_FAILED - inequivalent arg 'x-message-ttl' for queue 'normal_queue' in vhost '/': received none but current is the value '1000' of type 'signedint', class-id=50, method-id=10)

应该先删除【normal_queue】,再重新启动。

6.7.5.3 运行代码

  1. 启动Consumer01,建立关系。
  2. 启动生产者,发消息。
  3. 关闭Consumer01,模拟假死。


此时我们可以看到,我们发了10条消息,正常队列有6条消息,死信队列里有4条消息。

6.7.6 消息被拒绝

6.7.6.1 生产者代码无改变

6.7.6.2 消费者01

  1. 删除队列最大长度限制。
  2. 添加拒绝消息代码。
  3. 设置手动应答。
/*** @author LongXi* @create 2021-10-17 8:20* 死信队列实战* 消费者01* */
public class Consumer01 {//普通交换机名称public static final String NORMAL_EXCHANGE = "normal_exchange";//死信交换机名称public static final String DEAD_EXCHANGE = "dead_exchange";//普通队列名称public static final String NORMAL_QUEUE = "normal_queue";//死信队列名称public static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws  Exception{Channel channel = RabbitMqUtils.getChannel();//声明死信和普通的交换机类型为directchannel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);//声明普通队列HashMap<String, Object> arguments = new HashMap<>();//过期时间//arguments.put("x-message-ttl",1000);//正常队列设置死信队列arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key","lisi");//设置正常队列的长度限制//arguments.put("x-max-length",6);//声明死信和普通队列channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);channel.queueDeclare(DEAD_QUEUE,false,false,false,null);//绑定普通的交换机与普通的队列channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan");//绑定死信的交换机与死信的队列channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");System.out.println("等待接收消息......");DeliverCallback deliverCallback = (consumerTag, message) -> {String msg = new String(message.getBody());if ("info5".equals(msg)){System.out.println("Consumer01接收的消息是:" + msg +":此消息是被拒绝的");//第二个参数,false:重新放回普通队列,true:不放回队列,进入死信队列channel.basicReject(message.getEnvelope().getDeliveryTag(),false);} else{System.out.println("Consumer01接收的消息是:" + msg);channel.basicAck(message.getEnvelope().getDeliveryTag(),false);}};// 开启手动应答channel.basicConsume(NORMAL_QUEUE,false, deliverCallback,consumerTag->{});}
}

6.7.6.3 运行代码

  1. 启动消费者01
  2. 启动生产者


6.8 延迟队列

6.8.1 什么是延迟队列?

延时队列:队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理。
简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。

6.8.2 延迟队列使用场景

  1. 订单在十分钟之内未支付则自动取消。
  2. 新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
  3. 用户注册成功后,如果三天内没有登陆则进行短信提醒。
  4. 用户发起退款,如果三天内没有得到处理则通知相关运营人员。
  5. 预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议。

这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,
如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。

6.8.3 整合springboot工程

6.8.3.1 创建一个springboot工程,导入依赖

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.5.5</version><relativePath/> <!-- lookup parent from repository --></parent><groupId>com.longxi.rabbitmq</groupId><artifactId>springboot-rabbitmq</artifactId><version>0.0.1-SNAPSHOT</version><name>springboot-rabbitmq</name><description>Demo project for Spring Boot</description><properties><java.version>1.8</java.version></properties><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.47</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger2</artifactId><version>2.9.2</version></dependency><dependency><groupId>io.springfox</groupId><artifactId>springfox-swagger-ui</artifactId><version>2.9.2</version></dependency><dependency><groupId>org.springframework.amqp</groupId><artifactId>spring-rabbit-test</artifactId></dependency></dependencies><build><plugins><plugin><groupId>org.springframework.boot</groupId><artifactId>spring-boot-maven-plugin</artifactId></plugin></plugins></build></project>

6.8.3.2 配置application.properties

spring.rabbitmq.host=127.0.0.1
spring.rabbitmq.port=5672
spring.rabbitmq.username=guest
spring.rabbitmq.password=guest

6.8.3.3 添加SwaggerConfig配置文件

/*** @author LongXi* @create 2021-10-18 20:09*/
@Configuration
@EnableSwagger2
public class SwaggerConfig {@Beanpublic Docket webApiConfig(){return new Docket(DocumentationType.SWAGGER_2).groupName("webApi").apiInfo(webApiInfo()).select().build();}private ApiInfo webApiInfo(){return new ApiInfoBuilder().title("rabbitmq接口文档").description("本文档描述了rabbitmq微服务接口定义").version("1.0").contact(new Contact("enjoy6288","http://atguigu.com","123456@qq.com")).build();}
}

6.8.4 代码架构图

创建两个队列QA和QB,两者队列TTL分别设置为10S和40S,然后在创建一个交换机X和死信交换机Y,它们的类型都是direct,创建一个死信队列QD,它们的绑定关系如下:

6.8.5 配置文件类代码

package com.longxi.rabbitmq.springbootrabbitmq.config;import org.springframework.amqp.core.*;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;import java.util.HashMap;
import java.util.Map;/*** @author LongXi* @create 2021-10-18 20:22* TTL队列 配置文件类代码** */
@Configuration
public class TtlQueueConfig {//普通交换机的名称public static final String  X_EXCHANGE = "X";//死信交换机的名称public static final String Y_DEAD_LETTER_EXCHANGE = "Y";//普通队列的名称public static final String QUEUE_A = "QA";public static final String QUEUE_B = "QB";//死信队列的名称public static final String DEAD_LATTER_QUEUE = "QD";//声明xExchange@Bean("xExchange")public DirectExchange xExchange(){return new DirectExchange(X_EXCHANGE);}//声明yExchange@Bean("yExchange")public DirectExchange yExchange(){return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);}//声明队列@Bean("queueA")public Queue queueA(){Map<String, Object> arguments = new HashMap<>(3);//设置死信交换机arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);//设置死信Routing-keyarguments.put("x-dead-letter-routing-key","YD");//设置TTL 单位是msarguments.put("x-message-ttl",10000);return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();}//声明普通队列 TTL为40s@Bean("queueB")public Queue queueB(){Map<String, Object> arguments = new HashMap<>(3);//设置死信交换机arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);//设置死信Routing-keyarguments.put("x-dead-letter-routing-key","YD");//设置TTL 单位是msarguments.put("x-message-ttl",40000);return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();}//死信队列@Bean("queueD")public Queue queueD(){return QueueBuilder.durable(DEAD_LATTER_QUEUE).build();}//绑定@Beanpublic Binding queueABindingX(@Qualifier("queueA") Queue queueA,@Qualifier("xExchange") DirectExchange xExchange){return BindingBuilder.bind(queueA).to(xExchange).with("XA");}//绑定@Beanpublic Binding queueBBindingX(@Qualifier("queueB") Queue queueB,@Qualifier("xExchange") DirectExchange xExchange){return BindingBuilder.bind(queueB).to(xExchange).with("XB");}//绑定@Beanpublic Binding queueDBindingX(@Qualifier("queueD") Queue queueD,@Qualifier("yExchange") DirectExchange yExchange){return BindingBuilder.bind(queueD).to(yExchange).with("YD");}
}

6.8.6 生产者代码

/*** @author LongXi* @create 2021-10-18 20:38* 发送延迟消息* http://localhost:8080/ttl/sendMsg/哈哈哈* */
@Slf4j
@RestController
@RequestMapping("/ttl")
public class SendMsgController {@Autowiredprivate RabbitTemplate rabbitTemplate;//开始发消息@GetMapping("/sendMsg/{message}")public void sendMsg(@PathVariable String message){log.info("当前时间:{},发送一条信息给两个TTL队列:{}",new Date().toString(),message);rabbitTemplate.convertAndSend("X","XA","消息来自TTL为10s的队列:" + message);rabbitTemplate.convertAndSend("X","XB","消息来自TTL为40s的队列:" + message);}
}

6.8.7 消费者代码

/*** @author LongXi* @create 2021-10-18 20:47* 队列TTL 消费者* */
@Slf4j
@Component
public class DeadLetterQueueConsumer {//接收消息@RabbitListener(queues = "QD")public void receiveD(Message message, Channel channel) throws Exception {String msg = new String(message.getBody());log.info("当前时间:{},收到死信队列的消息:{}",new Date().toString(),msg);}
}

6.8.8 启动服务,运行代码

发送请求

6.8.9 运行结果

2021-10-18 20:53:29.405  INFO 2360 --- [nio-8080-exec-2] c.l.r.s.controller.SendMsgController     : 当前时间:Mon Oct 18 20:53:29 CST 2021,发送一条信息给两个TTL队列:哈哈哈
2021-10-18 20:53:39.437  INFO 2360 --- [ntContainer#0-1] c.l.r.s.c.DeadLetterQueueConsumer        : 当前时间:Mon Oct 18 20:53:39 CST 2021,收到死信队列的消息:消息来自TTL为10s的队列:哈哈哈
2021-10-18 20:54:09.426  INFO 2360 --- [ntContainer#0-1] c.l.r.s.c.DeadLetterQueueConsumer        : 当前时间:Mon Oct 18 20:54:09 CST 2021,收到死信队列的消息:消息来自TTL为40s的队列:哈哈哈

6.9 队列优化

6.9.1 存在问题

  1. 第一条消息在10S后变成了死信消息,然后被消费者消费掉,第二条消息在40S之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
  2. 不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有10S和40S两个时间选项,如果需要一个小时后处理,那么就需要增加TTL为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?

6.9.2 代码架构图


增加一个队QC,该队列不设置TTL时间。

6.9.3 配置文件类增加QC代码

    public static final String QUEUE_C = "QC";//声明QC队列@Bean("queueC")public Queue queueC(){Map<String, Object> arguments = new HashMap<>();//设置死信交换机arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);//设置死信RoutingKeyarguments.put("x-dead-letter-routing-key","YD");return QueueBuilder.durable().withArguments(arguments).build();}@Beanpublic Binding queueCBindingX(@Qualifier("queueC") Queue queueC,@Qualifier("xExchange") DirectExchange xExchange){return BindingBuilder.bind(queueC).to(xExchange).with("XC");}

6.9.3 生产者增加发送指定延长时间代码

    //开始发消息@GetMapping("sendExpirationMsg/{message}/{ttlTime}")public void sendMsg(@PathVariable String message,@PathVariable String ttlTime){log.info("当前时间:{},发送一条时长{}毫秒TTL信息给队列QC:{}",new Date().toString(),ttlTime,message);rabbitTemplate.convertAndSend("X","XC",message,msg->{//发送消息的时候 延迟时长msg.getMessageProperties().setExpiration(ttlTime);return msg;});}

6.9.4 运行测试

发送2条消息
http://localhost:8080/ttl/sendExpirationMsg/你好1/20000
http://localhost:8080/ttl/sendExpirationMsg/你好2/2000



当前时间:Mon Oct 18 21:21:22 CST 2021,发送一条时长20000毫秒TTL信息给队列QC:你好1
当前时间:Mon Oct 18 21:21:33 CST 2021,发送一条时长2000毫秒TTL信息给队列QC:你好2
当前时间:Mon Oct 18 21:21:42 CST 2021,收到死信队列的消息:你好1
当前时间:Mon Oct 18 21:21:42 CST 2021,收到死信队列的消息:你好2

6.9.5 存在问题

因为RabbitMQ智慧检查第一个消息是否过期,如果过期则丢到死信队列, 如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行!

快速入门RabbitMq,看这一篇就够了。相关推荐

  1. SpringMVC快速入门,看这一篇就够了!

    springmvc概述 Springmvc是spring框架的一个模块,spring和springmvc无需中间整合层整合. Springmvc是一个基于mvc的web框架 表现层的三大任务: URL ...

  2. 关于做Kaggle比赛入门,看完这篇就够了

    PART 0 : Kaggle 介绍 Kaggle的数据挖掘比赛近年来很火,以至于中国兴起了很多很多类似的比赛 Kaggle 是一个数据科学竞赛的平台,很多公司会发布一些接近真实业务的问题,吸引爱好数 ...

  3. @程序员,入门爬虫看这一篇就够了!

    最近,笔者在经常后台看到小伙伴留言在问,想学Python,但不知道如何入门? 其实对于这个问题,真是仁者见仁智者见智.有句老话说的好"一千个读者,就有一千个哈姆雷特"不过对于此疑惑 ...

  4. Kaggle入门,看这一篇就够了

    转载地址:https://zhuanlan.zhihu.com/p/25686876 之前发表了这篇关于 Kaggle 的专栏,旨在帮助对数据科学( Data Science )有兴趣的同学们更好的了 ...

  5. 关于Kaggle入门,看这一篇就够了

    这次酝酿了很久想给大家讲一些关于Kaggle那点儿事,帮助对数据科学(Data Science)有兴趣的同学们更好的了解这个项目,最好能亲身参与进来,体会一下学校所学的东西和想要解决一个实际的问题所需 ...

  6. Apache Spark处理大数据入门,看这一篇就够了

    作者 Srini Penchikala ,译者 丛一 什么是Spark Apache Spark是一个围绕速度.易用性和复杂分析构建的大数据处理框架.最初在2009年由加州大学伯克利分校的AMPLab ...

  7. 小程序 getphonenumber_小程序入门,看这一篇就够了!

    文章为实战中踩坑经历,以及解决方案.同时是自己的一个项目回顾,在这里分享给大家,希望能帮助到大家.文章内代码需要左右滑动噢~ 登录授权 授权(基本信息,手机号码 )必须使用小程序原生的的button组 ...

  8. Featuretools快速使用指南--看这一篇就够了

    Featuretools简单攻略 Featuretools介绍 Featuretools快速开始 Featuretools介绍 人工特性工程是一项冗长乏味的任务,并且受到人类想象力的限制--我们可以思 ...

  9. python画图网格线设置_Matplotlib可视化入门,看这一篇就够了

    Matplotlib是 Python 最著名的2D绘图库,提供了丰富的数据绘图工具,主要用于绘制一些统计图形.Matplotlib可用于Python脚本,Python和IPython shell,Ju ...

  10. MySql快速复习,看这一篇就够了!

    Mysql 在这里记录了MySql的基本操作,感兴趣的小伙伴可以快速查看哦! 1. 基本操作 -- 基本操作 SHOW DATABASES; CREATE DATABASE IF NOT EXISTS ...

最新文章

  1. MyBatis中提示:You have an error in your SQL syntax; check the manual that corresponds to your MySQL ser
  2. 你准备好了在云中工作吗?
  3. java.net.SocketException: Software caused connection abort: socket write erro
  4. 前端之 JavaScript 基础
  5. 题解 P5065 【[Ynoi2014]不归之人与望眼欲穿的人们】
  6. mysql 索引扩展
  7. 查找工资前三高的员工
  8. 阿里巴巴前架构师 360 度无死角剖析微服务
  9. RS232与RS485协议原理及应用
  10. SpringBoot2.4.2+Vue集成Activiti6流程引擎
  11. 2019泰迪杯C题案例分析-python大数据自动化数据挖掘
  12. UNP编程:15---UDP之(recvfrom、sendto函数)
  13. Django验证码——手机注册登录
  14. 工业和信息化部关于贯彻落实《推进互联网协议第六版(IPv6)规模部署行动计划》的通知
  15. 用命令打开文件服务器资源管理器,Windows10使用命令参数打开文件资源管理器的方法...
  16. Thinkphp6调用企业微信官方php版本接口方法
  17. 关于《人月神话》的读后感
  18. Tableau :蝴蝶图
  19. Linux下的she'll script
  20. 计算机软件技术专业毕业论文,软件技术专业毕业论文.doc

热门文章

  1. activiti创建子流程_OA流程图绘制指南
  2. python app mysql_Python 操作 MySQL 的5种方式
  3. 【thinkphp】ThinkPHP各个低版本(=3.2)完全配置参考手册
  4. Selenium +Java自动化环境安装
  5. 【HBase】学习笔记
  6. TX2017秋招笔试题之编码
  7. (一)问候 Log4j 你好
  8. juc原子类之五:AtomicLongFieldUpdater原子类
  9. 使用HttpUnit进行集成测试
  10. silverlight 加载大图片进度提示