1、什么是MQ

MQ(message queue),从字面意思上看消息排队,本质是个队列,FIFO 先入先出,只不过队列中存放的内容是message ,MQ还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ 是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务。使用了 MQ 之后,消息发送上游只需要依赖 MQ,不用依赖其他服务

2、为什么要使用MQ

1、流量消峰

如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作,系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。

2、应用解耦

以电商应用为例,应用中有订单系统、库存系统、物流系统、支付系统。用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,中单用户感受不到物流系统的故障,提升系统的可用性。

3、异步处理

有些服务间调用是异步的,例如 A 调用 B,B 需要花费很长时间执行,但是 A 需要知道 B 什么时候可以执行完,以前一般有两种方式,A 过一段时间去调用 B 的查询 api 查询。或者 A 提供一个 callback api, B 执行完之后调用 api 通知 A 服务。这两种方式都不是很优雅,使用消息总线,可以很方便解决这个问题, A 调用 B 服务后,只需要监听 B 处理完成的消息,当 B 处理完成后,会发送一条消息给 MQ,MQ 会将此消息转发给 A 服务。这样 A 服务既不用循环调用 B 的查询 api,也不用提供 callback api。同样B 服务也不用做这些操作。A 服务还能及时的得到异步处理成功的消息。

3、MQ的分类

1、ActiveMQ

**优点:**单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性,较低的概率丢失数据

**缺点:**官方社区现在对 ActiveMQ 5.x 维护越来越少,高吞吐量场景较少使用

2、Kafka

大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件, 以其百万级 TPS **(Transactions Per Second 系统吞吐量)**的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber, Twitter, Netflix 等大公司所采纳。

优点: 性能卓越,单机写入 TPS 约在百万条/秒,最大的优点,就是吞吐量高。时效性 ms 级可用性非常高,kafka 是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用,消费者采用 Pull 方式获取消息, 消息有序, 通过控制能够保证所有消息被消费且仅被消费一次;有优秀的第三方Kafka Web 管理界面 Kafka-Manager;在日志领域比较成熟,被多家公司和多个开源项目使用;功能支持: 功能较为简单,主要支持简单的 MQ 功能,在大数据领域的实时计算以及日志采集被大规模使用

**缺点:**Kafka 单机超过 64 个队列/分区,Load 会发生明显的飙高现象,队列越多,load 越高,发送消息响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序, 但是一台代理宕机后,就会产生消息乱序,社区更新较慢

3、RocketMQ

RocketMQ 出自阿里巴巴的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog 分发等场景。

**优点:单机吞吐量十万级,可用性非常高,分布式架构,**消息可以做到 0 丢失,**MQ 功能较为完善,还是分布式的,扩展性好,**支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,源码是 java 我们可以自己阅读源码,定制自己公司的 MQ

**缺点:**支持的客户端语言不多,目前是 java 及 c++,其中 c++不成熟;社区活跃度一般,没有在MQ

核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码

4、RabbitMQ

2007 年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。

优点:由于 erlang 语言的高并发特性,性能较好;吞吐量到万级,MQ 功能比较完备,健壮、稳定、易用、跨平台、支持多种语言 如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP 等,支持 AJAX 文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;更新频率相当高

https://www.rabbitmq.com/news.html

缺点: 商业版需要收费,学习成本较高

4、MQ的选择

1、Kafka

Kafka 主要特点是基于Pull 的模式来处理消息消费,追求高吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能, 肯定是首选 kafka 了。

2、RocketMQ

天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RoketMQ 在稳定性上可能更值得信赖,这些业务场景在阿里双 11 已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择 RocketMQ。

3、RabbitMQ

结合 erlang 语言本身的并发优势,性能好时效性微秒级社区活跃度也比较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的 RabbitMQ。

5、RabbitMQ安装

1、使用docker安装

docker run -it --rm --name rabbitmq -p 5672:5672 -p 15672:15672 rabbitmq:3-management# -it  交互是进入容器
# run  通过镜像运行容器
# --name 指定容器名称
# -p  指定linux主机和容器的端口映射
# rabbitmq:3-management  镜像

2、使用rpm安装

# rabbitMq 需要erlang环境,socat环境rpm -ivh erlang-21.3-1.el7.x86_64.rpm
yum install socat -y
rpm -ivh rabbitmq-server-3.8.8-1.el7.noarch.rpm # -i 安装
# v  详细信息
# h  打印信息

3、常用命令

# rabbitmq-server 开机自自动
systemctl enable rabbitmq-server.service  # 启动rabbitmq
systemctl start rabbitmq-server# 查看服务状态
systemctl status rabbitmq-server# 开启rabbitmq web管理插件
rabbitmq-plugins enable rabbitmq_management

4、开放端口

# 1、rabbitmq管理端口  15672
# 2、rabbitmq服务端口  5672# 如果是云服务器,需要开放安全组  然后服务器开放端口firewall-cmd --zone=public --add-port=15672/tcp --permanent
firewall-cmd --zone=public --add-port=5672/tcp --permanent
firewall-cmd --reload
systemctl restart firewalld

5、访问rabbitmq_management

# 本地访问rabbitmq_management   使用默认账号   guest 密码 guest# 远程访问   需要创建账号
# 创建账号
rabbitmqctl add_user admin 123456# 设置用户角色
rabbitmqctl set_user_tags admin administrator# 设置用户权限 (用户admin拥有 “/” 路径下的所有资源的 可读可写可配置权限)
# set_permissions [-p <vhostpath>] <user> <conf> <write> <read>
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"# 当前用户和角色
rabbitmqctl list_users

5、命令帮助

[root@VM-8-9-centos ~]# rabbitmqctl --helpUsagerabbitmqctl [--node <node>] [--timeout <timeout>] [--longnames] [--quiet] <command> [<command options>]Available commands:Help:autocomplete                  Provides command name autocomplete variantshelp                          Displays usage information for a commandversion                       Displays CLI tools versionNodes:await_startup                 Waits for the RabbitMQ application to start on the target nodereset                         Instructs a RabbitMQ node to leave the cluster and return to its virgin staterotate_logs                   Instructs the RabbitMQ node to perform internal log rotationshutdown                      Stops RabbitMQ and its runtime (Erlang VM). Monitors progress for local nodes. Does not require a PID file path.start_app                     Starts the RabbitMQ application but leaves the runtime (Erlang VM) runningstop                          Stops RabbitMQ and its runtime (Erlang VM). Requires a local node pid file path to monitor progress.stop_app                      Stops the RabbitMQ application, leaving the runtime (Erlang VM) runningwait                          Waits for RabbitMQ node startup by monitoring a local PID file. See also 'rabbitmqctl await_online_nodes'Cluster:await_online_nodes            Waits for <count> nodes to join the clusterchange_cluster_node_type      Changes the type of the cluster nodecluster_status                Displays all the nodes in the cluster grouped by node type, together with the currently running nodesforce_boot                    Forces node to start even if it cannot contact or rejoin any of its previously known peersforce_reset                   Forcefully returns a RabbitMQ node to its virgin stateforget_cluster_node           Removes a node from the clusterjoin_cluster                  Instructs the node to become a member of the cluster that the specified node is inrename_cluster_node           Renames cluster nodes in the local databaseupdate_cluster_nodes          Instructs a cluster member node to sync the list of known cluster members from <seed_node>Replication:cancel_sync_queue             Instructs a synchronising mirrored queue to stop synchronising itselfsync_queue                    Instructs a mirrored queue with unsynchronised mirrors (follower replicas) to synchronise themUsers:add_user                      Creates a new user in the internal databaseauthenticate_user             Attempts to authenticate a user. Exits with a non-zero code if authentication fails.change_password               Changes the user passwordclear_password                Clears (resets) password and disables password login for a userdelete_user                   Removes a user from the internal database. Has no effect on users provided by external backends such as LDAPlist_users                    List user names and tagsset_user_tags                 Sets user tagsAccess Control:clear_permissions             Revokes user permissions for a vhostclear_topic_permissions       Clears user topic permissions for a vhost or exchangelist_permissions              Lists user permissions in a virtual hostlist_topic_permissions        Lists topic permissions in a virtual hostlist_user_permissions         Lists permissions of a user across all virtual hostslist_user_topic_permissions   Lists user topic permissionslist_vhosts                   Lists virtual hostsset_permissions               Sets user permissions for a vhostset_topic_permissions         Sets user topic permissions for an exchangeMonitoring, observability and health checks:list_bindings                 Lists all bindings on a vhostlist_channels                 Lists all channels in the nodelist_ciphers                  Lists cipher suites supported by encoding commandslist_connections              Lists AMQP 0.9.1 connections for the nodelist_consumers                Lists all consumers for a vhostlist_exchanges                Lists exchangeslist_hashes                   Lists hash functions supported by encoding commandslist_queues                   Lists queues and their propertieslist_unresponsive_queues      Tests queues to respond within timeout. Lists those which did not respondping                          Checks that the node OS process is up, registered with EPMD and CLI tools can authenticate with itreport                        Generate a server status report containing a concatenation of all server status information for support purposesschema_info                   Lists schema database tables and their propertiesstatus                        Displays status of a nodeParameters:clear_global_parameter        Clears a global runtime parameterclear_parameter               Clears a runtime parameter.list_global_parameters        Lists global runtime parameterslist_parameters               Lists runtime parameters for a virtual hostset_global_parameter          Sets a runtime parameter.set_parameter                 Sets a runtime parameter.Policies:clear_operator_policy         Clears an operator policyclear_policy                  Clears (removes) a policylist_operator_policies        Lists operator policy overrides for a virtual hostlist_policies                 Lists all policies in a virtual hostset_operator_policy           Sets an operator policy that overrides a subset of arguments in user policiesset_policy                    Sets or updates a policyVirtual hosts:add_vhost                     Creates a virtual hostclear_vhost_limits            Clears virtual host limitsdelete_vhost                  Deletes a virtual hostlist_vhost_limits             Displays configured virtual host limitsrestart_vhost                 Restarts a failed vhost data stores and queuesset_vhost_limits              Sets virtual host limitstrace_off                     trace_on                      Configuration and Environment:decode                        Decrypts an encrypted configuration valueencode                        Encrypts a sensitive configuration valueenvironment                   Displays the name and value of each variable in the application environment for each running applicationset_cluster_name              Sets the cluster nameset_disk_free_limit           Sets the disk_free_limit settingset_log_level                 Sets log level in the running nodeset_vm_memory_high_watermark  Sets the vm_memory_high_watermark settingDefinitions:export_definitions            Exports definitions in JSON or compressed Erlang Term Format.import_definitions            Imports definitions in JSON or compressed Erlang Term Format.Feature flags:enable_feature_flag           Enables a feature flag on target nodelist_feature_flags            Lists feature flagsOperations:close_all_connections         Instructs the broker to close all connections for the specified vhost or entire RabbitMQ nodeclose_connection              Instructs the broker to close the connection associated with the Erlang process ideval                          Evaluates a snippet of Erlang code on the target nodeeval_file                     Evaluates a file that contains a snippet of Erlang code on the target nodeexec                          Evaluates a snippet of Elixir code on the CLI nodeforce_gc                      Makes all Erlang processes on the target node perform/schedule a full sweep garbage collectionresume_listeners              Resumes client connection listeners making them accept client connections againsuspend_listeners             Suspends client connection listeners so that no new client connections are acceptedQueues:delete_queue                  Deletes a queuepurge_queue                   Purges a queue (removes all messages in it)Deprecated:hipe_compile                  DEPRECATED. This command is a no-op. HiPE is no longer supported by modern Erlang versionsnode_health_check             DEPRECATED. Performs intrusive, opinionated health checks on a fully booted node. See https://www.rabbitmq.com/monitoring.html#health-checks insteadUse 'rabbitmqctl help <command>' to learn more about a specific command

6、RabbitMQ

RabbitMQ 是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会把你的快递送到收件人那里,按照这种逻辑 RabbitMQ 是一个快递站,一个快递员帮你传递快件。RabbitMQ 与快递站的主要区别在于,它不处理快件而是接收, 存储和转发消息数据。

1、四大核心概念

生产者:产生数据发送消息的程序是生产者交换机

交换机: RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息另一方面它将消息推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推送到多个队列,亦或者是把消息丢弃,这个得有交换机类型决定

队列

队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序,但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式

消费者

消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者。

2、RabbitMQ工作原理

Broker:接收和分发消息的应用,RabbitMQ Server 就是 Message Broker(消息中间人)

Virtual host:出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的 namespace 概念。当多个不同的用户使用同一个 RabbitMQ server 提供的服务时,可以划分出多个 vhost,每个用户在自己的 vhost 创建 exchange/queue 等

Connection:publisher/consumer 和 broker 之间的 TCP 连接

Channel:如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立 TCP Connection 的开销将是巨大的,效率也较低。Channel 是在 connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 thread 创建单独的 channel 进行通讯,AMQP method 包含了 channel id 帮助客户端和 message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的Connection 极大减少了操作系统建立 TCP connection 的开销

Exchange:message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发消息到 queue 中去。常用的类型有:direct (point-to-point), topic (publish-subscribe) and fanout (multicast)

Queue:消息最终被送到这里等待 consumer 取走

Binding:exchange 和queue 之间的虚拟连接,binding 中可以包含 routing key,Binding 信息被保存到 exchange 中的查询表中,用于 message 的分发依据

7、Hello-World(单一的生产消费)

1、单一生产者-消费者关系图

2、引入依赖

<dependencies>
<!--rabbitmq 依赖客户端-->
<dependency>
<groupId>com.rabbitmq</groupId>
<artifactId>amqp-client</artifactId>
<version>5.8.0</version>
</dependency>
<!--操作文件流的一个依赖-->
<dependency>
<groupId>commons-io</groupId>
<artifactId>commons-io</artifactId>
<version>2.6</version>
</dependency>
</dependencies>

3、编写测试

/***  消费者*/
public class Producer {public static void main(String[] args) {// 创建连接rabbitmq的工厂ConnectionFactory factory = new ConnectionFactory();factory.setHost("119.29.41.38");factory.setUsername("admin");factory.setPassword("123");Connection connection = null;Channel channel = null;try{// 连接工厂建立连接connection = factory.newConnection();// 创建连接内部的 channelchannel = connection.createChannel();/*** 消费者声明一个队列* 1、队列名称* 2、是否将队列消息持久化* 3、该队列是否只供一个消费者消费,true为只供一个消费者消费* 4、最后一个消费者断开连接后,该队列是否自动删除*/channel.queueDeclare("hello", false, false, true,null);String message = "hello world";/*** 消费者发布消息(消息会放在队列中,因此需要指定队列)* 1、将消息发送给哪个交换机* 2、声明 the routing key* 3、对于这个消息的其它配置* 4、发送的消息*/channel.basicPublish("","hello",null,message.getBytes("UTF-8"));System.out.println("消息发送完毕");}catch (Exception e){System.out.println("发送失败");e.printStackTrace();}finally {try{if(channel != null){channel.close();}if(connection != null){connection.close();}}catch (Exception e){e.printStackTrace();}}}}

运行后,可以看到消息队列中,存在一个等待消费的message

/*** 消费者*/
public class Consumer {public static void main(String[] args) throws Exception{ConnectionFactory connectionFactory = new ConnectionFactory();connectionFactory.setHost("119.29.41.38");connectionFactory.setUsername("admin");connectionFactory.setPassword("123");Connection connection = connectionFactory.newConnection();Channel channel = connection.createChannel();System.out.println("等待接收消息。。。");// 推送的消息进行消费的接口回调DeliverCallback deliverCallback = (consumerTag, message) -> {System.out.println(new String(message.getBody()));};// 取消消费的接口回调CancelCallback cancelCallback = (consumerTag) ->{System.out.println("消息消费被中断");};/*** 消费者消费消息* 1、消费哪个队列* 2、消费成功后,是否要自动应答,false 手动应答* 3、消费者接收到消息的回调* 4、消费者取消消费的回调*/channel.basicConsume("hello",true,deliverCallback,cancelCallback);}}

8、work queue(工作队列)

工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。

工作队列(work queue)是采用多个工作的线程,接收处理从队列中出来的大量消息,避免一个工作线程(一个消费者)接收处理大量的消息,因为单一处理速度肯定慢

1、队列的轮询分发消息机制(相对公平的消费模式)

1、启动两个work线程,启动两次即可

public class Work {public static void main(String[] args) throws Exception {new Thread( ()->{work();},"work2").start();}public static void work(){Channel channel = RabbitMQUtils.getChannel();DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println( Thread.currentThread().getName()+" 正在消费 : "+ new String(message.getBody()));};CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消费被取消");};try{channel.basicConsume("hello",true,deliverCallback,cancelCallback);}catch (IOException e){e.printStackTrace();}}
}

2、启动客户端,发送消息

/*** 客户端*/
public class Client {public static void main(String[] args)throws Exception {Channel channel = RabbitMQUtils.getChannel();// 声明队列 并且创建队列channel.queueDeclare("hello",false,false,false,null);Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.next();channel.basicPublish("","hello",null,message.getBytes("UTF-8"));}}
}

可以看到,客户端发送了a,b,c,d。工作线程1消费的是a,c。工作线程2 消费的b,d。符合轮询机制


2、消息应答(处理消息丢失)

消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费这的消息,因为它无法接收到。

为了保证消息在发送过程中不丢失,rabbitmq 引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉 rabbitmq 它已经处理了,rabbitmq 可以把该消息删除了。

总之:rabbitmq将消息放入队列中的时候,会对队列的消息,拷贝一份副本,队列的消息是等待消费者消费的。

如果消费者,给与rabbitmq 一个消息回复,那么此时,rabbitmq会删除对应副本。如果消费者,没有给与消息回复。rabbitmq,会将此消息给与其它的work queue处理,这样既可以提高消息的处理效率,又可以减少丢失消息的机率

2.1、手动应答

手动应答的好处是可以批量应答并且减少网络拥堵,手动控制应答机制,若当前工作线程对消息处理失败,rabbitmq将当前消息,交由其它工作线程处理,消息丢失机率低

1、 Channel.basicAck(用于肯定确认)

​ RabbitMQ 已知道该消息并且成功的处理消息,可以将其丢弃了

2、Channel.basicNack(用于否定确认)

3、Channel.basicReject(用于否定确认)

与 Channel.basicNack 相比少一个参数

​ 不处理该消息了直接拒绝,可以将其丢弃了

单个应答和批量应答

例如:当前在处理a消息,c,e消息正等待处理,如果是批量应答,会将,当a消息处理完后,对c,e消息也会应答回去,但是问题是:c,e消息还没有处理完。如果在处理c,e消息的过程中,当前线程挂了,那么c,e消息就丢失了,因此建议手动单个应答

2.2、消息自动入队(未处理成功的消息入队)

如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。

2.3、手动应答测试

1、准备两个工作线程,一个消费者

// 消费者
public static void main(String[] args)throws Exception {Channel channel = RabbitMQUtils.getChannel();// 声明队列 并且创建队列channel.queueDeclare("hello",false,false,false,null);Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.next();channel.basicPublish("","hello",null,message.getBytes("UTF-8"));}}// 两个工作线程
public static void work(){Channel channel = RabbitMQUtils.getChannel();DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println("工作线程1 正在消费 : "+ new String(message.getBody()));System.out.println("正在进行其它业务处理");try{Thread.sleep(1000*20);}catch (InterruptedException e){e.printStackTrace();}// 手动应答channel.basicAck(message.getEnvelope().getDeliveryTag(),false);System.out.println("信息处理完毕");};CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消费被取消");};try{channel.basicConsume("hello",false,deliverCallback,cancelCallback);}catch (IOException e){e.printStackTrace();}catch (Exception e){e.printStackTrace();}}public static void work(){Channel channel = RabbitMQUtils.getChannel();DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println("工作线程2 正在消费 : "+ new String(message.getBody()));System.out.println("正在进行其它业务处理");// 手动应答channel.basicAck(message.getEnvelope().getDeliveryTag(),false);System.out.println("信息处理完毕");};CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消费被取消");};try{channel.basicConsume("hello",false,deliverCallback,cancelCallback);}catch (IOException e){e.printStackTrace();}catch (Exception e){e.printStackTrace();}}

2、运行结果

客户端发送四个消息给队列

工作线程1 处理过程中将其停掉,使得d消息并没有处理成功,没有手动应该成功

rabbitmq ,没有收到d的消息应答,并且工作线程1断开连接, 将d副本消息交由工作线程2处理

满足轮询+手动应答+ 消息处理失败时,自动入队

2.4、自动应答

消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者 channel 关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制, 当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用

3、RabbitMQ持久化

刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化

1、队列持久化

之前我们创建的队列都是非持久化的,rabbitmq 如果重启的化,该队列就会被删除掉,如果要队列实现持久化 需要在声明队列的时候把 durable 参数设置为持久化

重启之后,持久化队列依旧存在,但是其中的数据已经消失,因此rabbitmq的持久化,指的是队列的持久化和消息的持久化

2、消息持久化

参数要求一个BasicProperties 通过MessageProperties.PERSISTENT 默认两种类型,一种是以流的形式,一种是文本形式,以那种形式持久化

将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉 RabbitMQ 将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候 但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,参考后边发布确认章节。

停止rabbitmq重启,可以验证结构

4、不公平分发(适用于处理速度相差较大的消费者)

在最开始的时候我们学习到 RabbitMQ 分发消息采用的轮训分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者 1 处理任务的速度非常快,而另外一个消费者 2 处理速度却很慢,这个时候我们还是采用轮训分发的化就会到这处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是RabbitMQ 并不知道这种情况它依然很公平的进行分发。

为了避免这种情况,我们可以设置参数 channel.basicQos(1); 参数未 long 类型的 prefetchCount

prefetchCount: 指的是channel允许最大从队列接收未确认的消息数量,一旦channel中未确认的消息数量达到preFetchcount值,rabbitmq将通过队列停止向该channel发送消息

示例:两个线程,一个生产者

代码跟手动应答代码一样 ,只不过消费线程开启了不公平模式

1、work线程

public static void work(){Channel channel = RabbitMQUtils.getChannel();DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println("工作线程1 正在消费 : "+ new String(message.getBody()));System.out.println("正在进行其它业务处理");try{Thread.sleep(1000*20);}catch (InterruptedException e){e.printStackTrace();}// 手动应答channel.basicAck(message.getEnvelope().getDeliveryTag(),false);System.out.println("信息处理完毕");};CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消费被取消");};try{// 开启不公平分发模式// 注意: prefetchCount = 2 通道上最多只能有两个未确认的消息,满了。rabbitmq 将不会将消息发送至当前队列channel.basicQos(2);// 消费消息channel.basicConsume("hello",false,deliverCallback,cancelCallback);}catch (IOException e){e.printStackTrace();}catch (Exception e){e.printStackTrace();}}

2、work01线程

 public static void work(){Channel channel = RabbitMQUtils.getChannel();DeliverCallback deliverCallback = (consumerTag,message) -> {System.out.println("工作线程1 正在消费 : "+ new String(message.getBody()));System.out.println("正在进行其它业务处理");// 手动应答channel.basicAck(message.getEnvelope().getDeliveryTag(),false);System.out.println("信息处理完毕");};CancelCallback cancelCallback = (consumerTag) -> {System.out.println("消费被取消");};try{// 开启不公平分发模式// 注意: prefetchCount = 5// 通道上最多只能有5个未确认的消息,满了。rabbitmq 将不会将消息发送至当前队列channel.basicQos(5);channel.basicConsume("hello",false,deliverCallback,cancelCallback);}catch (IOException e){e.printStackTrace();}catch (Exception e){e.printStackTrace();}}

用户端发送7条消息,work线程由于处理速度较慢,设置prefetchCount为2(允许最大未回复确认的消息数数量为2),work1线程处理速度较快,设置prefetchCount为5。因此work1能者多劳,处理的较多



9、发布确认

1、发布确认原理

生产者将信道设置成 confirm 模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都将会被指派一个唯一的 ID(从 1 开始),一旦消息被投递到所有匹配的队列之后,broker 就会发送一个确认给生产者(包含消息的唯一 ID),这就使得生产者知道消息已经正确到达目的队列了。如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号,此外 broker 也可以设置basic.ack 的 multiple 域,表示到这个序列号之前的所有消息都已经得到了处理。

confirm 模式最大的好处在于他是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack 消息。

2、单个发布确认

单个发布确认是一个同步的发布确认模式,生产者发布一条数据,等待broker的确认。确认完毕后,发布下一条。waitForConfirmsOrDie(long)这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常。

优点:确保消息发送到broker之前,不会丢失,稳定性强

缺点:速度慢,同步发布确认,发一条,等待确认一条。

/*** 单个发布确认*/public static void publishComfirmIndividually() throws Exception {Channel channel = RabbitMQUtils.getChannel();channel.queueDeclare(QUEUE_NAME, false, false, false, null);/*** 开启发布确认* 一旦模式开启,会为channel内的每一条消息,都配置上一个为一个的ID或者是标签名*/channel.confirmSelect();long start = System.currentTimeMillis();for (int i = 1; i <= MESSAGE_NUMBER; i++) {boolean flag = false;String message = "消息: " + i;flag = sendMessage(message, channel);while (!flag) {flag = sendMessage(message, channel);}}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_NUMBER + "条消息,耗时:" + (end - start) + "ms");}public static boolean sendMessage(String message, Channel channel) throws Exception {channel.basicPublish("", QUEUE_NAME, null, message.getBytes("UTF-8"));//等待确认return channel.waitForConfirms();}

3、批量发布确认

与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是**同步(只有确认成功才能继续发消息)**的,也一样阻塞消息的发布。

/*** 批量发布确认*/
public static void publishComfirmBatch() throws Exception {Channel channel = RabbitMQUtils.getChannel();channel.queueDeclare(QUEUE_NAME, false, false, false, null);/*** 开启发布确认* 一旦模式开启,会为channel内的每一条消息,都配置上一个为一个的ID或者是标签名*/channel.confirmSelect();// 批量确认消息的 大小int batchSize = 100;// 为确认消息的个数int unconfirmedCount = 0;long start = System.currentTimeMillis();for (int i = 1; i <= MESSAGE_NUMBER; i++) {String message = "消息: " + i;channel.basicPublish("", QUEUE_NAME, null, message.getBytes("UTF-8"));unconfirmedCount++;// 如果为确认的消息个数达到 指定的批量确认的条件,进行等待确认,要求broker给与确认if(unconfirmedCount == batchSize){boolean flag = channel.waitForConfirms();if(!flag){System.out.println("有确认失败的消息,但不知道是哪个");}unconfirmedCount = 0;}}//还有未被确认的,等待确认if(unconfirmedCount > 0){channel.waitForConfirms();}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_NUMBER + "条消息,耗时:" + (end - start) + "ms");
}

4、异步发布确认

异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说, 他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功, 下面就让我们来详细讲解异步确认是怎么实现的。

/*** 异步发布确认*/
public static void publishComfirmAsync() throws Exception {Channel channel = RabbitMQUtils.getChannel();channel.queueDeclare(QUEUE_NAME, false, false, false, null);/*** 开启发布确认* 一旦模式开启,会为channel内的每一条消息,都配置上一个为一个的ID或者是标签名或者是消息唯一的序列号*/channel.confirmSelect();/*** 什么是concurrentSkipListMap* 线程安全有序的一个哈希表,适用于高并发的情况* 1. 轻松的将序号和消息关联、* 2、轻松的批量删除条目,只需要给出序号* 3、支持并发访问*/ConcurrentSkipListMap<Long, String> unconfirmedMessageMap = new ConcurrentSkipListMap<>();/*** 确认收到一个消息的回调* 1. 发送的消息标志号,消息序列号* 2. true 可以确认小于等于当前序列号的消息(批量确认下)*    false 确认当前序列号的消息*/ConfirmCallback ackCallback = (deliverTag,multiple)->{if(multiple){//返回的是小于等于当前序列号的未确认消息 是一个 mapConcurrentNavigableMap<Long, String> confirmedMap = unconfirmedMessageMap.headMap(deliverTag,true);//清除该部分未确认消息confirmedMap.clear();}else{// 移除当前确认的 消息序号unconfirmedMessageMap.remove(deliverTag);}};// broker未收到消息的回调ConfirmCallback nackCallback = (deliverTag,multiple)->{// 通过 未被broker确认的消息序列号deliverTag,获取String message = unconfirmedMessageMap.get(deliverTag);System.out.println("未被broker确认的消息:"+message);};// 为channel 增加发布确认监听器channel.addConfirmListener(ackCallback,nackCallback);long start = System.currentTimeMillis();for (int i = 1; i <= MESSAGE_NUMBER; i++) {String message = "消息: " + i;// getNextPublishSeqNo 返回下一个要被发布消息的序列号unconfirmedMessageMap.put(channel.getNextPublishSeqNo(),message);channel.basicPublish("", QUEUE_NAME, null, message.getBytes("UTF-8"));}long end = System.currentTimeMillis();System.out.println("发布" + MESSAGE_NUMBER + "条消息,耗时:" + (end - start) + "ms");
}

三种发布确认策略速度比较结果

10、交换机

1、Exchange概念

RabbitMQ 消息传递模型的核心思想是: 生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。

相反,生产者只能将消息发送到交换机(exchange),交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定。

1、Exchanges 的类型

直接(direct), 主题(topic) ,标题(headers) , 扇出(fanout)

2、无名(默认交换机)

在之前的学习中,我们使用的都是默认的交换机,空字符串指名的就是默认的交换机,消息发送是通过router-key

找到指定的队列

channel.basicPublish("", QUEUE_NAME, null, message.getBytes("UTF-8"));

2、临时队列

有时候,当我们连接rabbitmq时,我们期望需要一个全新的队列,用完即删,因此队列名字此时并不重要。

Channel channel = RabbitMQUtils.getChannel();
// 声明并创建 随机名字的队列 ,队列用完即删 (用完指的是断开连接)
channel.queueDeclare().getQueue();

3、绑定(binding)

什么是 bingding 呢,binding 其实是 exchange 和 queue 之间的桥梁,它告诉我们 exchange 和那个队列进行了绑定关系。比如说下面这张图告诉我们的就是 exchange 与 Q1 和 Q2 进行了绑定

4、Fanout(交换机类型)

Fanout 这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播到它知道的所有队列中。系统中默认有些 exchange 类型

测试

1、一个日志发出者,两个日志消费者

日志生产者

public static void main(String[] args) throws Exception {Channel channel = RabbitMQUtils.getChannel();/*** 声明创建一个交换机,类型是 fanout* 即该交换机中的信息 是广播出来的*/channel.exchangeDeclare(EXCHANGE_NAME,"fanout");Scanner scanner = new Scanner(System.in);while (scanner.hasNext()){String message = scanner.nextLine();// 将数据发送给交换机,channel.basicPublish(EXCHANGE_NAME,"",null,message.getBytes("UTF-8"));}}

日志消费者1(消息打印)

public static void main(String[] args) throws Exception {Channel channel = RabbitMQUtils.getChannel();channel.exchangeDeclare(EXCHANGE_NAME,"fanout");/*** 生成一个临时队列,名称随机* 当消费者断开与该队列的连接时,队列自动删除*/String queueName = channel.queueDeclare().getQueue();/*** 将临时队列,与指定exchange绑定,routerKey 也称之为 bindingKey*/channel.queueBind(queueName,EXCHANGE_NAME,"");System.out.println("等待接收消息,并把消息打印。。。。");DeliverCallback ackCallback = (consumerTag,delivery)->{System.out.println("正在消费消息:"+ new String(delivery.getBody()));channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};CancelCallback cancelCallback = (consumerTag)->{System.out.println("消息取消");};channel.basicConsume(queueName,false,ackCallback,cancelCallback);}

日志消费者2(消息写入文件)

public static void main(String[] args) throws Exception{String filePath = System.getProperty("user.dir")+ File.separator + "a.txt";Channel channel = RabbitMQUtils.getChannel();// 声明交换机 , 没有则创建channel.exchangeDeclare(EXCHANGE_NAME,"fanout");// 声明随机队列,没有则创建,用完即删String queueName = channel.queueDeclare().getQueue();// 将队列与交换机绑定channel.queueBind(queueName,EXCHANGE_NAME,"");System.out.println("等待接收消息,并把消息写入文件。。。。");// 接收到消息的回调DeliverCallback ackCallback = (consumerTag,delivery)->{String message = new String(delivery.getBody());System.out.println("接收到消息:"+message+" 正准备写入文件");System.out.println("文件路径:"+filePath);FileUtils.writeStringToFile(new File(filePath),message,"UTF-8");channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};//从channel中消费消息channel.basicConsume(queueName,false,ackCallback,(consumerTag -> {}));}

启动后发现,出现了两个随机生成的队列,与logs交换机绑定。每一个队列归不同的消费者所有,在消费者处创建。由于交换机是fanout(广播类型,实际上队列都将收到消息,消费者会从对应的队列中取消息)

执行结果


fanout交换机 图解

5、Direct(交换机类型)

什么是 bindings,绑定是交换机和队列之间的桥梁关系。也可以这么理解: 队列只对它绑定的交换机的消息感兴趣。绑定用参数:routingKey 来表示也可称该参数为 binding key, 创建绑定我们用代码:channel.queueBind(queueName, EXCHANGE_NAME, “routingKey”);绑定之后的意义由其交换类型决定。

routerKey的意义在于: 当生产者发消息给对应交换机,指定routerKey。交换机会通过routerKey(bindingKey)找对应的队列将消息发送过去

1、 Direct exchange 介绍

上面示例中,我们的日志系统将所有消息广播给所有消费者,对此我们想做一些改变。

例如我们希望将日志消息写入磁盘的程序仅接收严重错误(errros),而不存储哪些警告(warning)或信息(info)日志消息避免浪费磁盘空间。

Fanout 这种交换类型并不能给我们带来很大的灵活性-它只能进行无意识的广播,在这里我们将使用 direct 这种类型来进行替换,这种类型的工作方式是,消息只去到它绑定的routingKey 队列中去。

2、单重绑定

在上面这张图中,我们可以看到 X 绑定了两个队列,绑定类型是 direct。队列 Q1 绑定键为 orange, 队列 Q2 绑定键有两个:一个绑定键为 black,另一个绑定键为 green.

在这种绑定情况下,生产者发布消息到 exchange 上,绑定键为 orange 的消息会被发布到队列

Q1。绑定键为 blackgreen 和的消息会被发布到队列 Q2,其他消息类型的消息将被丢弃。

3、多重绑定

当然如果 exchange 的绑定类型是direct,但是它绑定的多个队列的 key 如果都相同,在这种情况下虽然绑定类型是 direct 但是它表现的就和 fanout 有点类似了,就跟广播差不多,如上图所示。

测试

一个日志生产者,两个日志处理者

1、日志生产者

public static void main(String[] args) throws Exception{Channel channel = RabbitMQUtils.getChannel();// 声明交换机,没有则创建,类型是directchannel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);//创建多个 bindingKeyMap<String, String> bindingKeyMap = new HashMap<>();bindingKeyMap.put("info"," 普 通 info 信 息 ");bindingKeyMap.put("warning"," 警 告 warning 信 息 ");bindingKeyMap.put("error","错误 error 信息");//debug 没有消费这接收这个消息 所有就丢失了bindingKeyMap.put("debug","调试 debug 信息");for (String bindingKey : bindingKeyMap.keySet()) {String value = bindingKeyMap.get(bindingKey);channel.basicPublish(EXCHANGE_NAME,bindingKey,null,value.getBytes("UTF-8"));System.out.println("log生产者,发送消息:"+ value);}
}

2、日志处理者(消息打印)

public static void main(String[] args) throws Exception{Channel channel = RabbitMQUtils.getChannel();// 声明交换机,不存在则创建channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);String queueName = channel.queueDeclare().getQueue();// 将队列和交换机之间建立联系,绑定字符串为 errorchannel.queueBind(queueName,EXCHANGE_NAME,"error");DeliverCallback deliverCallback = (consumerTag,delivery)->{System.out.println("正在将消息写入文件");String message = new String(delivery.getBody());System.out.println("正在写入消息到文件:"+ message);FileUtils.writeStringToFile(new File(System.getProperty("user.dir")+File.separator+"b.txt"),message,"UTF-8");channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};CancelCallback cancelCallback =(consumer)->{System.out.println("消息消费取消");};System.out.println("准备读取数据到文件中。。。");channel.basicConsume(queueName,false,deliverCallback,cancelCallback);}

3、日志处理者,写入文件

public static void main(String[] args) throws Exception{Channel channel = RabbitMQUtils.getChannel();// 声明交换机,不存在则创建channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);String queueName = channel.queueDeclare().getQueue();// 将队列和交换机之间建立联系,绑定字符串为 info,warningchannel.queueBind(queueName,EXCHANGE_NAME,"info");channel.queueBind(queueName,EXCHANGE_NAME,"warning");DeliverCallback deliverCallback = (consumerTag,delivery)->{System.out.println(new String(delivery.getBody()));channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};CancelCallback cancelCallback =(consumer)->{System.out.println("消息消费取消");};System.out.println("准备读取数据并打印。。。");channel.basicConsume(queueName,false,deliverCallback,cancelCallback);}

运行结果

direct交换机类型图解

directLogs交换机 关联两个队列,绑定三个bindingKey

6、Topic(交换机类型)

发送到类型是 topic 交换机的消息的 routing_key 不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,比如说:“stock.usd.nyse”, “nyse.vmw”, “quick.orange.rabbit”.这种类型的。当然这个单词列表最多不能超过 255 个字节。

在这个规则列表中,其中有两个替换符是大家需要注意的

*(星号)可以代替一个单词

#(井号)可以替代零个或多个单词

测试

下图绑定关系如下

Q1–>绑定的是

​ 中间带 orange 带 3 个单词的字符串(.orange.)

Q2–>绑定的是

​ 最后一个单词是 rabbit 的 3 个单词(..rabbit) 第一个单词是 lazy 的多个单词(lazy.#)

上图是一个队列绑定关系图,我们来看看他们之间数据接收情况是怎么样的

quick.orange.rabbit 被队列 Q1Q2 接收到

lazy.orange.elephant 被队列 Q1Q2 接收到

quick.orange.fox 被队列 Q1 接收到

lazy.brown.fox 被队列 Q2 接收到

lazy.pink.rabbit 虽然满足两个绑定但只被队列 Q2 接收一次

quick.brown.fox 不匹配任何绑定不会被任何队列接收到会被丢弃

quick.orange.male.rabbit 是四个单词不匹配任何绑定会被丢弃

lazy.orange.male.rabbit 是四个单词但匹配 Q2

11、死信队列

先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer 将消息投递到 broker 或者直接到queue 里了,consumer 从 queue 取出消息进行消费,但某些时候由于特定的原因导致 queue 中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。

应用场景:为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中.还有比如说: 用户在商城下单成功并点击去支付后在指定时间未支付时自动失效

1、死信来源

消息 TTL 过期

队列达到最大长度(队列满了,无法再添加数据到 mq 中)

消息被拒绝(basic.reject 或 basic.nack)并且 requeue=false.

2、消息TTL过期

创建普通队列 和 交换机,还有死信队列,交换机

public static final String NORMAL_EXCHANGE = "normal_exchange";public static final String NORMAL_QUEUE = "normal_queue";public static final String DEAD_EXCHANGE = "dead_exchange";public static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws Exception {Channel channel = RabbitMQUtils.getChannel();//声明并创建 死信交换机和队列 建立交换机与队列的映射关系channel.queueDeclare(DEAD_QUEUE,false,false,false,null);channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT);channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"dead");//如果普通队列中出现死信消息,应该将此消息,交由死信交换机,放到对应的死信队列HashMap<String, Object> arguments = new HashMap<>();// 给普通队列设置死信交换机  注意:key是固定值arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);// 指定routerKey,死信交换机将数据发给哪个dead_queuearguments.put("x-dead-letter-routing-key","dead");channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);//声明并创建 普通交换机和队列 建立交换机与队列的映射关系channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"normal");DeliverCallback ackCallback = (consumerTag,delivery)->{System.out.println(consumerTag+ " 正在消费正常消息:"+ new String(delivery.getBody()));channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};channel.basicConsume(NORMAL_QUEUE,false,ackCallback,(consumerTag)->{});}

开启当前的消费者,发现创建了两个交换机和队列,停止当前消费者,模拟消息不处理

创建生产者,设置消息的过期时间(10s),并启动

public static final String EXCHANGE_NAME = "normal_exchange";public static final String QUEUE_NAME = "normal_queue";public static void main(String[] args) throws Exception{Channel channel = RabbitMQUtils.getChannel();// 配置消息的TTL 过期时间AMQP.BasicProperties properties = new AMQP.BasicProperties.Builder().expiration(String.valueOf(10 * 1000)).build();for (int i = 0; i < 10; i++) {String message = "你好啊"+i;channel.basicPublish(EXCHANGE_NAME,"normal",properties,message.getBytes("UTF-8"));System.out.println("发送消息成功");}}

发现10s后,normal_queue中的消息,全部到了dead_queue

在上述过程中,其实在消费者创建队列的时候,也可以设置消息的TTL,但是其实生产者设置消息的TTL是最灵活的。

启动死信队列的消费者

public static final String DEAD_QUEUE = "dead_queue";public static void main(String[] args) throws Exception {Channel channel = RabbitMQUtils.getChannel();DeliverCallback ackCallback = (consumerTag, delivery)->{System.out.println(consumerTag+ " 正在消费异常消息:"+ new String(delivery.getBody()));channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);};channel.basicConsume(DEAD_QUEUE,false,ackCallback,(consumerTag)->{});}

当前消费者,成功处理死信消息,死信队列消息为0

3、队列达到最大长度

上述代码一致,需要删除原先的队列,因为参数变了,在正常队列的消费者中添加一行配置,设置当前队列,可接收的最大消息数量

// 指定正常队列的最大接收的消息数量arguments.put("x-max-length",5);

1、启动生产者,关闭消费者,因为消费者,处理速度很快,可能发一条处理一条,那么队列长度永远也达不到5,永远满不了

可以看到,两个消费者各消费五条消息

4、消息被拒

修改普通消费者代码

DeliverCallback ackCallback = (consumerTag,delivery)->{String message = new String(delivery.getBody());// 模拟消息拒收, 拒收消息, 拒绝将该消息重新入队,消息发给死信交换机if(message.contains("7")){System.out.println("出于某种原因,拒收该消息:"+message );channel.basicReject(delivery.getEnvelope().getDeliveryTag(),false);}else{System.out.println(consumerTag+ " 正在消费正常消息:"+ message);channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);   }
};

12、延迟队列

1、概念

延时队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。

2、使用场景

1、订单在十分钟之内未支付则自动取消

2、新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。

3、用户注册成功后,如果三天内没有登陆则进行短信提醒。

4、用户发起退款,如果三天内没有得到处理则通知相关运营人员。

5、预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议

这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如: 发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求, 如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。

3、RabbitMQ中 TTL概述

TTL 是什么呢?TTL 是 RabbitMQ 中一个消息或者队列的属性,表明一条消息或者该队列中的所有消息的最大存活时间,单位是毫秒。

换句话说,如果一条消息设置了 TTL 属性或者进入了设置TTL 属性的队列,那么这条消息如果在TTL 设置的时间内没有被消费,则会成为"死信"。如果同时配置了队列的TTL 和消息的TTL,那么较小的那个值将会被使用。

有两种方式设置 TTL。

java中消息设置TTL

 // 正式发送给交换机,指定routingKeyrabbitTemplate.convertAndSend(TTLDelayQueueConfig.NORMAL_EXCHANGE,"3",message, (msg)->{msg.getMessageProperties().setExpiration(String.valueOf(time*1000));return msg;});

java中队列设置TTL

@Bean
public Queue delayQueue2(){HashMap<String, Object> params = new HashMap<>(3);params.put("x-dead-letter-exchange",DEAD_LETTER_EXCHANGE);params.put("x-dead-letter-routing-key","deadLetter");// 设置队列中全部消息延迟(存活)时间params.put("x-message-ttl",5*1000);return QueueBuilder.durable(DELAY_QUEUE2).withArguments(params).build();
}

4、springBoot使用RabbitMQ 延迟队列

情况如下,java中使用延迟队列,处理延迟消息

代码如下:

1、引入依赖

        <!--  RabbitMQ   --><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId></dependency><!--  RabbitMQ  测试 --><dependency><groupId>org.springframework.amqp</groupId><artifactId>spring-rabbit-test</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.75</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency>

2、配置rabbitMQ

spring:rabbitmq:host: xxxxxport: 5672username: xxxxpassword: xxx

3、配置交换机,和队列,并绑定对应关系

/*** 配置TTL 延迟队列*/
@Configuration
public class TTLDelayQueueConfig {/***  两个交换机,一个普通交换机,一个死信交换机*  三个队列,两个延迟队列(没有人处理消息,消息过期),一个死信队列*/public static final String NORMAL_EXCHANGE = "normalExchange";public static final String DEAD_LETTER_EXCHANGE = "deadLetterExchange";public static final String DEAD_LETTER_QUEUE = "deadLetterQueue";public static final String DELAY_QUEUE1 = "delayQueue1";public static final String DELAY_QUEUE2 = "delayQueue2";/*** 声明并创建交换机* @return*/@Beanpublic DirectExchange normalExchange(){return new DirectExchange(NORMAL_EXCHANGE);}@Beanpublic DirectExchange deadLetterExchange(){return new DirectExchange(DEAD_LETTER_EXCHANGE);}/*** 声明并创建队列*/// 延迟队列1   队列中消息的延迟时间为30s@Beanpublic Queue delayQueue1(){// 将延迟队列绑定死信交换机,指定routingKey 死信消息会发送到对应的queueHashMap<String, Object> params = new HashMap<>(3);params.put("x-dead-letter-exchange",DEAD_LETTER_EXCHANGE);params.put("x-dead-letter-routing-key","deadLetter");// 设置队列中全部消息延迟(存活)时间params.put("x-message-ttl",30*1000);return QueueBuilder.durable(DELAY_QUEUE1).withArguments(params).build();}// 通过指定routingKey 将队列和对应交换机绑定关系@Beanpublic Binding queue1BindingNormalExchange(Queue delayQueue1,DirectExchange normalExchange){return BindingBuilder.bind(delayQueue1).to(normalExchange).with("1");}// 延迟队列1   队列中消息的延迟时间5s@Beanpublic Queue delayQueue2(){HashMap<String, Object> params = new HashMap<>(3);params.put("x-dead-letter-exchange",DEAD_LETTER_EXCHANGE);params.put("x-dead-letter-routing-key","deadLetter");params.put("x-message-ttl",5*1000);return QueueBuilder.durable(DELAY_QUEUE2).withArguments(params).build();}@Beanpublic Binding queue2BindingNormalExchange(Queue delayQueue2,DirectExchange normalExchange){return BindingBuilder.bind(delayQueue2).to(normalExchange).with("2");}// 死信队列@Beanpublic Queue deadLetterQueue(){return new Queue(DEAD_LETTER_QUEUE);}@Beanpublic Binding deadQueueBindingDeadExchange(Queue deadLetterQueue,DirectExchange deadLetterExchange){return BindingBuilder.bind(deadLetterQueue).to(deadLetterExchange).with("deadLetter");}}

4、创建死信队列的消费者

@Slf4j
@Component
public class DeadLetterQueueConsumer {//启动RabbitMQ监听器,监听指定队列是否有消息,有则消费@RabbitListener(queues = {"deadLetterQueue"})public  void receiveMessage(Message message, Channel channel){SimpleDateFormat sb = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");log.info("当前时间:{},收到死信队列信息 {}", sb.format(new Date()),new String(message.getBody()));}
}

5、创建生产者,发送消息

@Slf4j
@RestController
@RequestMapping("/delayQueue")
public class SendMessageController {@Autowiredprivate RabbitTemplate rabbitTemplate;@GetMapping("/{message}")public void sendMessage(@PathVariable String message){SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");log.info("当前时间: {} , 发送消息给延迟队列(交换机):{}",dateFormat.format(new Date()),message);// 正式发送给交换机,指定routingKeyrabbitTemplate.convertAndSend(TTLDelayQueueConfig.NORMAL_EXCHANGE,"1",message);rabbitTemplate.convertAndSend(TTLDelayQueueConfig.NORMAL_EXCHANGE,"2",message);}}

测试成功,消息延迟被消费

5、图解延迟队列

6、优化延迟队列

上述过程中,通过队列设置队列中消息的过期时间。如果想要灵活控制消息的过期时间,设置队列过期时间显然不可取。所有要通过生产者控制消息的过期时间。

新增一个队列

/*** 延迟队列优化* @return*/
// 延迟队列3
@Bean
public Queue delayQueue3(){HashMap<String, Object> params = new HashMap<>(2);params.put("x-dead-letter-exchange",DEAD_LETTER_EXCHANGE);params.put("x-dead-letter-routing-key","deadLetter");return QueueBuilder.durable("delayQueue3").withArguments(params).build();
}
@Bean
public Binding queue3BindingNormalExchange(Queue delayQueue3,DirectExchange normalExchange){return BindingBuilder.bind(delayQueue3).to(normalExchange).with("3");
}

增加一个消费接口

@GetMapping("/{message}/{time}")public void sendMessage(@PathVariable String message,@PathVariable Long time){SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");log.info("当前时间: {} , 发送消息给延迟队列(交换机):{}",dateFormat.format(new Date()),message);// 正式发送给交换机,指定routingKeyrabbitTemplate.convertAndSend(TTLDelayQueueConfig.NORMAL_EXCHANGE,"3",message, (msg)->{msg.getMessageProperties().setExpiration(String.valueOf(time*1000));return msg;});}

测试成功

问题:如果发送两天消息给队列,发现处理结果并不符合预期,发送了20s,和10s后过期的消息。消息却是20s后被处理。10s 后应该处理的消息,也是20s后处理。

原因:10s过期的消息,并没有被优先处理,rabbitMQ一直检查队列的第一个消息是否过期,而不会检查之后的消息

7、插件优化延迟队列

1、安装插件

在官网上下载 https://www.rabbitmq.com/community-plugins.html,下载rabbitmq_delayed_message_exchange 插件,然后解压放置到 RabbitMQ 的插件目录

cd /usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins

安装插件

rabbitmq-plugins enable rabbitmq_delayed_message_exchange

2、springboot中使用 插件的延迟队列

结构如下

代码如下

交换机和队列

/*** 插件配置延迟队列*/
@Configuration
public class PluginDelayQueueConfig {public static final String DELAYED_QUEUE_NAME = "delayed.queue";public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";public static final String DELAYED_ROUTING_KEY = "delayed.routingKey";/*** 配置延迟队列* @return*/@Beanpublic Queue delayQueue(){return new Queue(DELAYED_QUEUE_NAME);}/*** 自定义延迟交换机* 类型为: x-delayed-message*/@Beanpublic CustomExchange delayedExchange(){HashMap<String, Object> params = new HashMap<>();//自定义交换机的类型params.put("x-delayed-type", "direct");return  new CustomExchange(DELAYED_EXCHANGE_NAME,"x-delayed-message",true,false,params);}@Beanpublic Binding queueBindingDelayedExchange(Queue delayQueue,CustomExchange delayedExchange){return BindingBuilder.bind(delayQueue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();}}

消费者

@Slf4j
@Component
public class DelayedQueueConsumer {@RabbitListener(queues = {"delayed.queue"})public void receiveMessage(Message message, Channel channel){SimpleDateFormat sb = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");log.info("当前时间:{} ,接收到消息: {}",sb.format(new Date()),new String(message.getBody()));}}

生产者

@GetMapping("/delayExchange/{message}/{time}")public void sendDelayedMessage(@PathVariable String message,@PathVariable Integer time){SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");log.info("当前时间: {} , 发送消息给延迟交换机:{}",dateFormat.format(new Date()),message);// 正式发送消息给延迟交换机,指定routingKeyrabbitTemplate.convertAndSend(DELAYED_EXCHANGE_NAME, DELAYED_ROUTING_KEY,message, (correlationData)->{correlationData.getMessageProperties().setDelay(time*1000);return correlationData;});}

运行以后,发现延迟交换机出现了

测试结果, 先发30s过期的消息,后发10s过期的消息。10s消息以过期,就会被处理,不需要等到第一个消息过期后处理。

13、发布确认高级(异步回调)

在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 RabbitMQ 重启期间生产者消息投递失败, 导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢? 特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理呢

1、springboot 进行发布确认

1、队列和交换机

@Configuration
public class ConfirmConfig {public static final String CONFIRM_EXCHANGE = "confirm.exchange";public static final String CONFIRM_QUEUE = "confirm.queue";// 声明队列并创建队列@Beanpublic Queue confirmQueue(){return QueueBuilder.durable(CONFIRM_QUEUE).build();}// 声明并创建交换机@Beanpublic DirectExchange confirmExchange(){return new DirectExchange(CONFIRM_EXCHANGE);}@Beanpublic Binding queueBindingExchange(Queue confirmQueue,DirectExchange confirmExchange){return BindingBuilder.bind(confirmQueue).to(confirmExchange).with("key1");}}

2、生产者和等待触发的回调函数

@RequestMapping("/confirm")
public class ProducerController {public static final String CONFIRM_EXCHANGE = "confirm.exchange";/*** 发送信息的 template*/@Autowiredprivate RabbitTemplate rabbitTemplate;/*** 确定消息的回调函数,有broker发送消息调用*/@Autowiredprivate RabbitTemplate.ConfirmCallback confirmCallback;/*** 设置确认回调函数(告诉rabbitMQ回调函数)*/@PostConstructcpublic void init(){crabbitTemplate.setConfirmCallback(confirmCallback);}@GetMapping("/sendMessage/{message}")public void sendMessage(@PathVariable String message){//指定消息id 为 1CorrelationData correlationData = new CorrelationData("1");rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE,"key1",message,correlationData);log.info("消息内容:{}, 发送完毕, 对应id {}",message,correlationData.getId());//指定消息id 为 2CorrelationData correlationData2 = new CorrelationData("2");rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE,"key2",message,correlationData2);log.info("消息内容:{}, 发送完毕, 对应id {}",message,correlationData2.getId());}}
/*** 自定以实现rabbitMQ 回调接口*/
@Slf4j
@Component
public class ConfirmCallback implements RabbitTemplate.ConfirmCallback {/*** 交换机是否接收到消息,都会发送信息,调用回调接口* correlationData: 消息相关数据* ack: 交换机是否接收到消息*/@Overridepublic void confirm(CorrelationData correlationData, boolean ack, String cause) {if(ack){log.info("交换机已经接收到id为:{} 的消息",correlationData.getId());}else{log.info("交换机没有接收到对应 id 的消息");}}
}

3、确认队列的消费者

@Slf4j
@Component
public class ConfirmConsumer {public static final String CONFIRM_QUEUE = "confirm.queue";/*** 监听指定的队列,接收消息,并消费*/@RabbitListener(queues = {CONFIRM_QUEUE})public void receive(Message message, Channel channel){log.info("消费者,收到确认队列的消息 {} ",new String(message.getBody()));}
}

4、测试结果

发送两条消息,交换机接收到之后,异步会触发生产者回调函数,并指明消息 ,交换机接收到没有。交换机接收到的消息会发送给指定的队列通过routingKey

2、交换机回退消息(返回无法被路由的消息)

在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息如果发现该消息不可路由,那么消息会被直接丢弃,此时生产者是不知道消息被丢弃这个事件的。那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置 mandatory 参数可以在当消息传递过程中不可达目的地时将消息返回给生产者。

Mandatory 参数: 当消息要被路由到指定queue时,由于没有该队列等原因。消息无法被路由到指定的queue,要求将无法路由的消息返回给生产者

returnCallback:处理返回消息的回调函数

1、修改上面的 生产者,新增 处理返回消息的回调函数

@Slf4j
@RestController
@RequestMapping("/confirm")
public class ProducerController {public static final String CONFIRM_EXCHANGE = "confirm.exchange";/*** 发送信息的 template*/@Autowiredprivate RabbitTemplate rabbitTemplate;/*** 确定消息的回调函数,有broker发送消息调用*/@Autowiredprivate RabbitTemplate.ConfirmCallback confirmCallback;/****/@Autowiredprivate RabbitTemplate.ReturnsCallback returnsCallback;@PostConstructpublic void init(){// 设置确认回调函数(告诉rabbitMQ回调函数)rabbitTemplate.setConfirmCallback(confirmCallback);/***true: 交换机无法路由消息时,将消息通过返回回调函数,返回给生产者* false: 交换机无法路由消息时,将消息丢弃*/rabbitTemplate.setMandatory(true);// 将返回的消息,交由回调函数处理rabbitTemplate.setReturnsCallback(returnsCallback);}@GetMapping("/sendMessage/{message}")public void sendMessage(@PathVariable String message){//指定消息id 为 1CorrelationData correlationData = new CorrelationData("1");rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE,"key1",message,correlationData);log.info("消息内容:{}, 发送完毕, 对应id {}",message,correlationData.getId());//指定消息id 为 2CorrelationData correlationData2 = new CorrelationData("2");rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE,"key2",message,correlationData2);log.info("消息内容:{}, 发送完毕, 对应id {}",message,correlationData2.getId());}}
/*** 消息无法到达指定的路由,返回消息的回调函数*/
@Slf4j
@Component
public class ReturnCallback implements RabbitTemplate.ReturnsCallback {@Overridepublic void returnedMessage(ReturnedMessage returned) {String exchange = returned.getExchange();String routingKey = returned.getRoutingKey();Message message = returned.getMessage();String replyText = returned.getReplyText();log.info("消息 {} ,被 {} 交换机退回,原因:{} 。消息的routingKey: {}",new String(message.getBody()),exchange,replyText,routingKey);}
}

2、测试结果

未被路由的消息,被返回

3、备份交换机(处理无法被路由的消息)

有了 mandatory 参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会更加麻烦而且容易出错。而且设置 mandatory 参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?

前面在设置死信队列的文章中,我们提到,可以为队列设置死信交换机来存储那些处理失败的消息,可是这些不可路由消息根本没有机会进入到队列,因此无法使用死信队列来保存消息。

在 RabbitMQ 中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为 RabbitMQ 中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时, 就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为 Fanout,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者来进行监测和报警。

1、修改创建队列,和交换机的的配置文件

普通交换机要绑定备份交换机

@Configuration
public class ConfirmConfig {public static final String CONFIRM_EXCHANGE = "confirm.exchange";public static final String CONFIRM_QUEUE = "confirm.queue";public static final String BACKUP_EXCHANGE = "backup.exchange";public static final String BACKUP_QUEUE = "backup.queue";public static final String WARNING_QUEUE = "warning.queue";// 声明并创建确认队列@Beanpublic Queue confirmQueue(){return QueueBuilder.durable(CONFIRM_QUEUE).build();}// 声明并创建确认交换机 , 并为当前交换机绑定备份交换机@Beanpublic DirectExchange confirmExchange(){ExchangeBuilder exchangeBuilder = ExchangeBuilder.directExchange(CONFIRM_EXCHANGE).durable(true).withArgument("alternate-exchange", BACKUP_EXCHANGE);return (DirectExchange) exchangeBuilder.build();}// 关系绑定@Beanpublic Binding queueBindingExchange(Queue confirmQueue,DirectExchange confirmExchange){return BindingBuilder.bind(confirmQueue).to(confirmExchange).with("key1");}// 声明备份交换机@Beanpublic FanoutExchange backupExchange(){return new FanoutExchange(BACKUP_EXCHANGE);}// 声明备份队列@Beanpublic Queue backupQueue(){return QueueBuilder.durable(BACKUP_QUEUE).build();}// 声明警告队列@Beanpublic Queue warningQueue(){return new Queue(WARNING_QUEUE);}// 关系绑定@Beanpublic Binding backupQueueBindingExchange(Queue backupQueue,FanoutExchange backupExchange){return BindingBuilder.bind(backupQueue).to(backupExchange);}@Beanpublic Binding warningQueueBindingExchange(Queue warningQueue,FanoutExchange backupExchange){return BindingBuilder.bind(warningQueue).to(backupExchange);}
}

2、配置 两个备份队列,警告队列消费者**

@Slf4j
@Component
public class BackupConsumer {public static final String BACKUP_QUEUE = "backup.queue";@RabbitListener(queues = {BACKUP_QUEUE})public void receive(Message message,Channel channel){String msg = new String(message.getBody());log.error("备份队列消费真正在处理不可路由消息:{}", msg);}
}
@Slf4j
@Component
public class WarningConsumer {public static final String WARNING_QUEUE = "warning.queue";@RabbitListener(queues = {WARNING_QUEUE})public void receive(Message message, Channel channel){String msg = new String(message.getBody());log.error("报警发现不可路由消息:{}", msg);}
}

3、测试结果

尽管消费者,配置了mandatory参数,和returnCallback处理无法路由的消息,但是由于我们备份了交换机,交换机优先级更高,导致returnCallback无法被触发

14、RabbitMQ幂等性

用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。

举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常, 此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等

1、消息重复消费

消费者在消费 MQ 中的消息时,MQ 已把消息发送给消费者,消费者在给MQ 返回 ack 时网络中断, 故 MQ 未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息。

解决思路

MQ 消费者的幂等性的解决一般使用全局 ID 或者写个唯一标识比如时间戳 或者 UUID 或者订单消费者消费 MQ 中的消息也可利用 MQ 的该 id 来判断,或者可按自己的规则生成一个全局唯一 id,每次消费消息时用该 id 先判断该消息是否已消费过。

2、消费端的幂等性保障

在海量订单生成的业务高峰期,生产端有可能就会重复发送了消息,这时候消费端就要实现幂等性, 这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:a. 唯一 ID+指纹码机制,利用数据库主键去重, b.利用 redis 的原子性去实现

2.1、唯一ID+ 指纹码

指纹码: 我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个 id 是否存在数据库中,

优势就是实现简单就一个拼接,然后查询判断是否重复;

劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式。

2.2、Redis原子性

利用 redis 执行 setnx 命令,天然具有幂等性。从而实现不重复消费

15、优先级队列

使用场景

在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,tmall 商家对我们来说,肯定是要分大客户和小客户的对吧,比如像苹果,小米这样大商家一年起码能给我们创造很大的利润,所以理应当然,他们的订单必须得到优先处理,而曾经我们的后端系统是使用 redis 来存

放的定时轮询,大家都知道 redis 只能用 List 做一个简简单单的消息队列,并不能实现一个优先级的场景,

所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级, 否则就是默认优先级。

如何指定队列的优先级

1、管理界面添加

2、队列中添加

// 声明备份队列@Beanpublic Queue backupQueue(){Map<String, Object> params = new HashMap<>();params.put("x-max-priority",10);return QueueBuilder.durable(BACKUP_QUEUE).withArguments(params).build();}

3、消息设计优先级

AMQP.BasicProperties().builder().priority(5).build();
channel.basicPublish("", QUEUE_NAME, properties, message.getBytes());

16、惰性队列(消息被使用才取出)

**RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。**当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了。

默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中, 这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法, 但是效果始终不太理想,尤其是在消息量特别大的时候。

两种模式

队列具备两种模式:default 和 lazy。默认的为 default 模式,在 3.6.0 之前的版本无需做任何变更。lazy 模式即为惰性队列的模式,可以通过调用 channel.queueDeclare 方法的时候在参数中设置,也可以通过Policy 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policy 的方式具备更高的优先级。如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的。

在队列声明的时候可以通过“x-queue-mode”参数来设置队列的模式,取值为“default”和“lazy”。下面示例中演示了一个惰性队列的声明细节:

Map<String, Object> args = new HashMap<String, Object>();
args.put("x-queue-mode", "lazy");
channel.queueDeclare("myqueue", false, false, false, args);

两种模式的内存开销

在发送 1 百万条消息,每条消息大概占 1KB 的情况下,普通队列占用内存是 1.2GB,而惰性队列仅仅占用 1.5MB

17、RabbitMQ集群

1、为什么使用集群

最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?

单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢

购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键.

2、搭建集群

1、修改3台机器的主机名称

vim /etc/hostname

2、配置各个节点的 hosts 文件,让各个节点都能互相识别对方

vim /etc/hosts

10.211.55.74 node1

10.211.55.75 node2

10.211.55.76 node3

3、 以确保各个节点的 cookie 文件使用的是同一个值在 node1 上执行远程操作命令

scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie

4、 启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务(在三台节点上分别执行以下命令)

rabbitmq-server -detached

5、在节点 2 执行

rabbitmqctl stop_app(rabbitmqctl stop 会将Erlang 虚拟机关闭,rabbitmqctl stop_app 只关闭 RabbitMQ 服务) rabbitmqctl resetrabbitmqctl join_cluster rabbit@node1rabbitmqctl start_app(只启动应用服务)

6、 在节点 3 执行

rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node2
rabbitmqctl start_app

7、集群状态

rabbitmqctl cluster_status

8.需要重新设置用户

创建账号rabbitmqctl add_user admin 123设置用户角色rabbitmqctl set_user_tags admin administrator设置用户权限rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"

9.解除集群节点(node2 和 node3 机器分别执行) rabbitmqctl stop_app

rabbitmqctl resetrabbitmqctl start_app rabbitmqctl cluster_statusrabbitmqctl forget_cluster_node rabbit@node2(node1 机器上执行)

3、镜像队列

如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable 属性也设置为true, 但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘, 尽管如此,一般不希望遇到因单点故障导致的服务不可用。

引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。

1、启动三台集群节点

2、随便找一个节点添加 policy

3、 在 node1 上创建一个队列发送一条消息,队列存在镜像队列

4、 停掉 node1 之后发现 node2 成为镜像队列

5、就算整个集群只剩下一台机器了 依然能消费队列里面的消息说明队列里面的消息被镜像队列传递到相应机器里面了

18、Haproxy+Keepalive 实现高可用负载均衡

1、整体架构图

2、Haproxy 实现负载均衡

HAProxy 提供高可用性、负载均衡及基于TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括 Twitter,Reddit,StackOverflow,GitHub 在内的多家知名互联网公司在使用。HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。

扩展 nginx,lvs,haproxy 之间的区别: http://www.ha97.com/5646.html

3、搭建步骤

1、下载 haproxy(在 node1 和 node2)

 yum -y install haproxy

2、修改 node1 和 node2 的 haproxy.cfg

vim /etc/haproxy/haproxy.cfg
需要修改红色 IP 为当前机器 IP

3、在两台节点启动 haproxy

haproxy -f /etc/haproxy/haproxy.cfg
ps -ef | grep haproxy

4、访问地址

http://10.211.55.71:8888/stats

4、Keepalived 实现双机(主备)热备

试想如果前面配置的 HAProxy 主机突然宕机或者网卡失效,那么虽然 RbbitMQ 集群没有任何故障但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的为了确保负载均衡服务的可靠性同样显得十分重要,这里就要引入 Keepalived 它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现故障转移.

1、 下载 keepalived

yum -y install keepalived

2、节点 node1 配置文件

vim /etc/keepalived/keepalived.conf

把资料里面的 keepalived.conf 修改之后替换

3、节点 node2 配置文件

需要修改global_defs 的 router_id,如:nodeB

其次要修改 vrrp_instance_VI 中 state 为"BACKUP"; 最后要将priority 设置为小于 100 的值

4、添加 haproxy_chk.sh

(为了防止 HAProxy 服务挂掉之后 Keepalived 还在正常工作而没有切换到 Backup 上,所以

这里需要编写一个脚本来检测 HAProxy 务的状态,当 HAProxy 服务挂掉之后该脚本会自动重启

HAProxy 的服务,如果不成功则关闭 Keepalived 服务,这样便可以切换到 Backup 继续工作) vim /etc/keepalived/haproxy_chk.sh(可以直接上传文件)

修改权限 chmod 777 /etc/keepalived/haproxy_chk.sh

5、启动 keepalive 命令(node1 和 node2 启动)

systemctl start keepalived

6、观察 Keepalived 的日志

tail -f /var/log/messages -n 200

7、观察最新添加的 vip ip add show

8、 node1 模拟 keepalived 关闭状态

systemctl stop keepalived

9、使用 vip 地址来访问 rabbitmq 集群

19、Federation Exchange

1、为什么要使用Federation Exchange

broker 北京),(broker 深圳)彼此之间相距甚远,网络延迟是一个不得不面对的问题。有一个在北京的业务(Client 北京) 需要连接(broker 北京),向其中的交换器 exchangeA 发送消息,此时的网络延迟很小, (Client 北京)可以迅速将消息发送至 exchangeA 中,就算在开启了 publisherconfirm 机制或者事务机制的情况下,也可以迅速收到确认信息。此时又有个在深圳的业务(Client 深圳)需要向 exchangeA 发送消息, 那么(Client 深圳) (broker 北京)之间有很大的网络延迟,(Client 深圳) 将发送消息至 exchangeA 会经历一定的延迟,尤其是在开启了 publisherconfirm 机制或者事务机制的情况下,(Client 深圳) 会等待很长的延迟时间来接收(broker 北京)的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的阻塞。

将业务(Client 深圳)部署到北京的机房可以解决这个问题,但是如果(Client 深圳)调用的另些服务都部署在深圳,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,那么容灾又何以实现? 这里使用 Federation 插件就可以很好地解决这个问题.

2、搭建

1、 需要保证每台节点单独运行

2、在每台机器上开启 federation 相关插件

rabbitmq-plugins enable rabbitmq_federationrabbitmq-plugins enable rabbitmq_federation_management

3、原理图(先运行 consumer 在 node2 创建 fed_exchange)

4、在 downstream(node2)配置 upstream(node1)

5、添加policy

Federation Queue

1、为什么要使用Federation Queue

联邦队列可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列(upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。

2、搭建

2、添加 upstream(同上)

3、添加policy

20、Shovel

1、为什么要使用Shovel

Federation 具备的数据转发功能类似,Shovel 够可靠、持续地从一个 Broker 中的队列(作为源端,即source)拉取数据并转发至另一个 Broker 中的交换器(作为目的端,即 destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为"铲子", 是一种比较形象的比喻,这个"铲子"可以将消息从一方"铲子"另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。

2、搭建

1、开启插件(需要的机器都开启)

rabbitmq-plugins enable rabbitmq_shovelrabbitmq-plugins enable rabbitmq_shovel_management

2、原理图(在源头发送的消息直接回进入到目的地队列)

3、添加shovel源和目的地

个人博客:https://www.xiaoxuya.top/

rabbitmq 使用与理解全流程相关推荐

  1. docker 使用理解 全流程

    1.docker是什么 docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制 ...

  2. MMOCR: OpenMMLab 全流程的文字检测识别理解工具箱

    号外号外,继 港中文-商汤OpenMMLab开源全景图!之后,OpenMMLab 又有新成员加入咯-       01       MMOCR 特点 全流程:支持文字检测.文字识别以及其下游任务,比如 ...

  3. 从生产到理解分发,第三届“马栏山杯”算法大赛带你了解视频平台AI全流程...

    点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 从生产到理解分发 第三届"马栏山杯"算法大赛 带你了解视频平台AI全流程       -立足现有业务,朝元宇宙出发 ...

  4. 渗透测试 ( 1 ) --- 相关术语、必备 工具、导航、全流程总结、入侵网站思路

    From:https://zhuanlan.zhihu.com/p/401413938 渗透测试实战教学:https://www.zhihu.com/column/c_1334810805263515 ...

  5. Blender 3.0机器人硬面建模材质渲染全流程学习课程

    学习在Blender中建模硬表面机器人角色 你会学到什么 Blender 3.0建模工具 Blender 3.0硬面人物造型 机器人角色的UV展开 如何在Blender中渲染 MP4 |视频:h264 ...

  6. Blender+Substance Painter全流程制作真实的机器人学习教程

    MP4 |视频:h264,1280×720 |音频:AAC,44.1 KHz,2 Ch 语言:英语+中英文字幕(根据原英文字幕机译更准确) |时长:44节课(10h 52m) |大小解压后:9.9 G ...

  7. 一文搞定深度学习建模预测全流程(Python)

    作者 | 泳鱼 来源 | 算法进阶 本文详细地梳理及实现了深度学习模型构建及预测的全流程,代码示例基于python及神经网络库keras,通过设计一个深度神经网络模型做波士顿房价预测.主要依赖的Pyt ...

  8. 记录一次生产环境中Redis内存增长异常排查全流程!

    作者:z小赵 ★ 一枚用心坚持写原创的"无趣"程序猿,在自身受益的同时也让朋友们在技术上有所提升. 最近 DBA 反馈线上的一个 Redis 资源已经超过了预先设计时的容量,并且已 ...

  9. 面试官:说说Kafka处理请求的全流程

    今天来讲讲 Kafka Broker端处理请求的全流程,剖析下底层的网络通信是如何实现的.Reactor在kafka上的应用. 再说说社区为何在2.3版本将请求类型划分成两大类,又是如何实现两类请求处 ...

最新文章

  1. ASP.NET Core 2.2中的Endpoint路由
  2. 媲美Pandas?一文入门Python的Datatable操作
  3. linux ie 插件目录在哪个文件夹里,Linux下的IE浏览器使用方法[图]
  4. apply,call,bind区别
  5. qt log4qt 输出到oracle,Log4Qt 输出地
  6. jQuery之end()和pushStack()
  7. 高效使用PC需要记住的快捷键
  8. php对外发包引发服务器崩溃的终极解决方法分享
  9. 一些css3简单的练习
  10. Javaslang 3.0之路
  11. Deploy简单配置记录
  12. 基于51单片机LCD1602电子时钟实物制作
  13. 打表(1215)七夕节
  14. html5 下拉树,HTML5拖拽API实现vue树形拖拽组件
  15. 2.10 数值分析: 条件数的定义及计算
  16. 2019年全国大学生电子设计竞赛G题解决方案-双路语音同传的无线收发系统
  17. Nature、science、cell旗下刊物
  18. Grown Up Digital: How the Net Generation is Changing Your World
  19. Http远程控制App
  20. Excel导入后的后台响应数据前端已经接收但是响应不出来

热门文章

  1. SN74LVCC3245ADBR
  2. HTML期末大作业~玄幻情缘游戏官网静态html模板
  3. 白话数字签名(3)—Web程序中的数字签名
  4. Linux系统中more和less命令的区别
  5. 求职指南~面试技巧篇
  6. Anchor Free检测算法之FCOS
  7. 初学者如何查阅自然语言处理(NLP)领域学术资料
  8. MYSQL 根据身份证号找出年龄大于60岁的人
  9. pycharm 激活码2018年9月22日亲测有效
  10. 2019杭州西溪龙舟文化节在西安大明宫举行