面试官:在MQ的整个消息生产消费过程中,如何保障消息100%被消费?

候选人:MQ有个ACK机制,确保消息100%被消费。

面试官:好吧,可以回去等通知了……

这道面试题在考察MQ组件时算是老生常谈了,不知道你是如何回答的?

我们平时都在使用MQ,但使用技术框架只是第一步,去弄明白它的底层原理、深挖技术真相,才是每一位IT从业者的基操

这里说明一点,想要回答好面试官的问题,最好还是要有金字塔思维——金字塔思维就是从不同维度上来思考问题的一种方式,不重不漏,集体穷尽

MQ作为异步通讯的消息中间件,其功能除了解耦生产者与消费者,还能用于大流量的削峰填谷,解决业务的最终一致性问题,那么消息的“可靠性”就显得尤为重要了,比如说商品出库后的库存数据通过MQ同步到财务系统,如果消息的可靠性没有保障,那财务系统的存货成本分析数据就无法有效支撑财务团队。

准确来说,我们需要保障MQ消息的可靠性,需要从三个层面/维度解决:生产者100%投递、MQ持久化、消费者100%消费,这里的100%消费指的是消息不少消费,也不多消费。

由于MQ是基础网络通讯的中间件,网络通讯必然因丢包、网络抖动等原因产生数据丢失,MQ组件本身也会由于宕机或软件崩溃而中止服务,从而造成数据丢失,那么我们就需要从这两个根本原因着手补偿,这里科普一下RabbitMQ和Kafka是怎么解决的。

RabbitMQ

这里我必须先提一提RabbitMQ的消息协议——AMQP(Advanced Message Queuing Protocol,高级消息队列协议),在面试时我经常问候选人一个问题:RabbitMQ用的是什么消息协议?大部分候选人是回答不出来AMQP的,更不用说AMQP模型是如何设计的了。

在服务器中,三个主要功能模块连接成一个处理链完成预期的功能:

  1. Exchange:接收发布应用程序发送的消息,并根据一定的规则将这些消息路由到消息队列

  2. Queue:存储消息,直到这些消息被消费者安全处理完为止

  3. Binding:定义了exchange和queue之间的关联,提供路由规则

使用这个模型我们可以很容易地模拟出存储转发队列和主题订阅这些典型的消息中间件概念。

接下来我们看看RabbitMQ的消息确认机制是如何保障消息可靠性的。

一、生产者端

  • 通过API将信道(channel)设置为confirm模式,则每条消息会被分配一个唯—ID

  • 如果消息投递成功,也就是说消息已经到达broker了,信道会发送ack给生产者,回调ConfirmCallback接口,带上唯一ID

  • 如果发生错误导致消息丢失,比如通过某个RoutingKey无法路由到某个Queue,则会发送nack给生产者,回调ReturnCallback接口,并带上唯一ID和异常信息

  • ack和nack只有一个被触发,只触发一次,而且是异步执行,意味着生产者不需要等待,可以继续发送新消息

二、消费者端

  • 声明队列时,指定noack=false, 表示消费者不会自动提交ack,broker会等待消费者手动返回ack、才会删除消息,否则立刻删除

  • broker的ack没有超时机制,只会判断链接是否断开,如果断开了(比如消费者处理消息过程中宕机),消息会被重新发送,所以消费者要做好消息幂等性处理

此外,RabbitMQ除了消息确认机制,还有另一种方式——使用事务消息:消息生产端发送commit命令,MQ同步返回commit ok命令,这种方式由于需要同步阻塞等待MQ返回是否投递成功,才能执行别的操作,性能较差,因此不推荐使用。

三、MQ本身

通常来说,消息是在内存中存储通讯的,而基于内存的都是会有数据丢失的问题产生,服务一重启,数据就随之销毁。

在RabbitMQ中对数据的持久化有三方面:交换机持久化、队列持久化、消息持久化

  1. 交换机持久化:exchange_declare创建交换机时通过参数durable=true指定,如:channel.exchangeDeclare(exchangeName, “direct/topic/header/fanout”, true);第三个参数就是设置durable值

  2. 队列持久化:queue_declare创建队列时通过参数durable=true指定,如:channel.queueDeclare("queue.persistent.name", true, false, false, null),第二个参数就是设置durable值

  3. 消息持久化:new AMPQMessage创建消息时通过参数指定,如:channel.basicPublish("exchange.persistent", "persistent", MessageProperties.PERSISTENT_TEXT_PLAIN, "persistent_test_message".getBytes()),或者设置参数deliveryMode=2来指定:AMQP.BasicProperties.Builder builder = new AMQP.BasicProperties.Builder();builder.deliveryMode(2);

上面只是说了API层的实现,那RabbitMQ底层又是怎么做消息持久化的呢?

如果指定了持久化参数,它们会以append的方式写文件,会根据文件大小(默认16M)自动切割,生成新的文件,RabbitMQ启动时会创建两个进程,一个负责持久化消息的存储,另一个负责非持久化消息的存储(当内存不够时会用到)。

消息存储时,会在一个叫ets的表中记录消息在文件中的映射以及相关信息(包括ID、偏移量、有效数据、左边文件、右边文件),消息读取时根据该信息到文件中读取,同时更新信息。

消息删除时只从ets删除,变为垃圾数据,当垃圾数据超出比例(默认50%),并且文件数达到3个,就会触发垃圾回收:锁定左右两个文件,整理左边文件有效数据、将左边文件有效数据写入左边,更新文件信息,删除右边,完成合并;当一个文件的有效数据等于0时,删除该文件。

写入文件前先写入buffer缓冲区,如果buffer已满,则写入文件,注意,此时只是操作系统的页存,还没落盘。

每隔25ms刷一次磁盘(比如Linux中的fsync命令),不管buffer(fd的读、写缓存区)满没满,都将buffer和页存中的数据落盘。

还有另外一种落盘机制:每次消息写入后,如果没有后续写入请求,则直接刷盘。

Kafka

Kafka在MQ领域以性能高、吞吐能力强、消息堆积能力强等等优势称著,常常用于日志收集、消息系统、用户活动跟踪、运营指标、流式处理等等场景,讲之前先简单聊聊Kafka的架构设计:

  • Consumer Group:消费者组,消费者组内每个消费者负责消费不同分区的数据,提高消费能力,这是逻辑上的一个订阅者。

  • Topic:可以理解为一个队列,Topic将消息分类,生产者和消费者面向的是同一个Topic。

  • Partition:为了实现扩展性,提高并发能力,一个Topic以多个Partition的方式分布到多个Broker上,每个Partition是一个有序的队列,一个Topic的每个Partition都有若干个副本(Replica),一个Leader和若干个Follower;生产者发送数据的对象,以及消费者消费数据的对象,都是通过Leader,Follower负责实时从Leader中同步数据,保持和Leader数据的同步;当Leader发生故障时,某个Follower还会成为新的Leader。

一、生产者端

Kafka消息发送端有个ACK机制。

  • 设置ack参数:ack=0,表示不重试,Kafka不需要返回ack,极有可能各种原因造成丢失;ack=1,表示Leader写入成功就返回ack了,Follower不一定同步成功;ack=all或ack=-1,表示ISR列表中的所有Follower同步完成再返回ack。

  • 设置参数unclean.leader.election.enable: false,禁止选举ISR以外的Follower为Leader,只能从ISR列表中的节点中选举Leader;可能会牺牲Kafka的可用性,但是能够提高消息的可靠性。

  • 重试机制,设置tries > 1,表示消息重发次数。

  • 设置最小同步副本数min.insync.replicas > 1,没满足该值前,Kafka不提供读写服务,写操作会异常。

通过设置最小同步副本数和ACK机制,可以让MQ在性能与可靠性上达到平衡。

二、消费者端

手工提交offset(偏移量):Kafka消费者在拉取消息后,默认会自动提交offset,由于消费者每次都会根据offset来消费消息的,如果消费者处理业务失败,实际上我们是要重新消费的,所以我们要在消息处理成功后再手工提交offset,确认消息能够成功消费。

同样地,消费者的业务代码也要做好幂等性校验。

三、MQ本身

很简单,通过减小broker刷盘间隔来实现高可靠

要深究其原理,得从Kafka的持久化机制来看。

  • 磁盘的顺序读写:与RabbitMQ不同,Kafka是基于磁盘读写的,那为什么Kafka的吞吐量还这么大呢?原因是Kafka的读写是用顺序读写的,不需要寻址随机读写,而由于是用磁盘来写数据,消息堆积能力必然比内存型的RabbitMQ更强

  • 利用了操作系统的零拷贝技术:避免CPU将数据从一块存储拷贝到另外一块存储,关于零拷贝这里不详述,与Java应用不同,Kafka的消息不需要在用户缓冲区处理磁盘数据再返回,所以才能用零拷贝技术

  • 分区分段+索引:Kafka的消息实际上分布存储在一个一个小的segment中的,每次文件读写也是直接操作segment,为了进一步优化查询,Kafka又默认为分段后的数据文件建立了索引文件(就是文件系统上的.index文件),这种分区分段+索引的设计,不仅提升了数据读取的效率,同时也提高了数据操作的并行度(类似ConcurrentHashMap的分段锁机制)。

  • 批量压缩&批量读写:多条消息一起压缩进行传输(比如gzip格式)与读写,节省带宽

  • 直接操作page cache:虽然Kafka是Java写的,也基于JVM运行,但Kafka的消息读写是直接操作操作系统页存的,而不是在JVM的堆内存,这样就避免JVM的GC耗时及对象创建耗时,且读写速度更高,JVM进程重启缓存也不会丢失

理解了Kafka的持久化机制是直接读写页存+定时刷盘的方式,我们只需要设置刷盘策略即可在性能与可靠性上权衡。

Kafka提供3个参数来优化刷盘机制:

  1. log.flush.interval.messages //多少条消息刷盘1次

  2. log.flush.interval.ms //隔多长时间刷盘1次

  3. log.flush.scheduler.interval.ms //周期性的刷盘。

总结一下

关于框架类的面试题,最重要是得掌握技术框架的底层实现原理、适用场景,基本上回答出这两方面就OK了,其它奇奇怪怪的细节问题要是答不出来,咱就引导面试官说出自己对框架的理解即可,毕竟细节的问题太多了。

那怎么才算掌握呢?起码能通过框架的特性,根据需要实现一个简易版本,比如说自己实现一个Spring框架、实现一个MQ组件等等。

由浅入深,化难为易。

有道无术,术可成;有术无道,止于术

欢迎大家关注Java之道公众号

好文章,我在看❤️

面试基操:MQ怎么保障消息可靠性?相关推荐

  1. 面试基操:微服务拆分需要考虑什么因素?

    面试官:微服务如何拆分?需要考虑什么因素? 候选人:一般按照功能拆分 面试官:还有吗? 候选人:唔-- 要拆分微服务,首先我们要了解微服务拆了会有什么问题?怎么合理拆服务? 拆分服务会带来什么问题? ...

  2. java rabbitmq 并发_RabbitMQ消息中间件 高级篇二 高并发情况下保障消息投递可靠性...

    RabbitMQ消息中间件技术精讲9 高级篇二 高并发场景下,消息的延迟投递做二次确认进行回调检查来保障生产者消息投递成功的可靠性 在上一篇文章中,我们介绍了BAT大厂中一种方式保障生成者消息投递可靠 ...

  3. 唠一唠 消息可靠性保障消息幂等性处理 (RabbitMQ实际应用问题)

    ♨️本篇文章记录的为RabbitMQ知识中企业级项目中消息可靠性保障相关内容,适合在学Java的小白,帮助新手快速上手,也适合复习中,面试中的大佬

  4. Spring Cloud Alibaba基础入门,一周学会基操!

    Spring Cloud Alibaba基础入门,一周学会基操! 服务拆分: 1.不同微服务,不要重复开发相同业务 2.微服务数据独立,不要访问其它微服务的数据库 3.微服务可以将自己的业务暴露为接口 ...

  5. 阿里一面:如何保障消息100%投递成功、消息幂等性?

    点击关注公众号,Java干货及时送达来源:toutiao.com/i6672235084336071179 前言 我们小伙伴应该都听说够消息中间件MQ,如:RabbitMQ,RocketMQ,Kafk ...

  6. RabbitMQ,Springboot整合RabbitMQ实现 消息可靠性投递,Consumer ACK,TTL,死信队列,使用TTL+死信队列=延迟队列

    搭建SpringBoot项目,用于演示 springboot版本 <!-- spring boot --><dependency><groupId>org.spri ...

  7. 漫谈 MQ:要消息队列(MQ)有什么用?

    大家好,我是煎鱼. 最近我有一个朋友公司踩了不少消息队列(MQ)的坑,让人无奈不已.因此计划写 MQ 系列的技术文章,来科普更多这块的知识. 目前 MQ 也是互联网应用中非常常用的基础组件了,面试特爱 ...

  8. 如何保障消息100%投递成功、消息幂等性?

    前言 我们小伙伴应该都听说够消息中间件MQ,如:RabbitMQ,RocketMQ,Kafka等.引入中间件的好处可以起到抗高并发,削峰,业务解耦的作用. 如上图: (1)订单服务投递消息给MQ中间件 ...

  9. 面试总结(四):消息队列

    问题导读: 1.什么是异步处理? 2.P2P的特点是什么? 3.如何防止消息丢失? 二.消息队列 消息队列中间件是分布式系统中重要的组件,主要解决应用耦合,异步消息,流量削锋等问题 实现高性能,高可用 ...

最新文章

  1. 华为手机连电脑_手机装进电脑里 华为MateBook X Pro 2020款升级多屏协同
  2. 清华理工男,跳了7年舞,来华为一年当了PL,这什么小哥哥
  3. IDEA中SVN未提交代码,更新时有冲突接受其它怎么办
  4. [蓝桥杯2016决赛]一步之遥-枚举
  5. SEO|搜索引擎优化(如何让你的网站排名靠前)
  6. js 快速集成开发:easyui 时间控件格式化
  7. matlab用regress方法求ln函数_高中数学必背50条秒杀型公式和方法!高一高二高三都要看!...
  8. SQL之正则表达式的简单使用
  9. 自助图书馆系统-Tkinter界面和openpyxl表格综合设计案例
  10. 阿里云 OSS + CDN 部署静态网站配置
  11. 个人公众号成长记 - 如何涨粉?
  12. Oracle 语句大全,确实不错,赶紧转走!
  13. 2019113_房价预测
  14. python中main.py是什么意思_python 模块中的 __init__.py __main__.py的作用
  15. Python可视化|matplotlib05-绘图风格大全
  16. subDomainsBrute 子域名工具 源码分析
  17. 长尾分布(long-tail distribution)和长尾效应
  18. three.js 加载obj+mtl模型
  19. python参数估计_最小二乘与最大似然参数估计及Python实现
  20. PEST分析顺丰服务需求_顺丰快递网络优化与设计

热门文章

  1. WEB安全基础-HTML+PHP实践
  2. python中or关键字在变量赋值时的用法
  3. linux mysql使用
  4. mysql large_【转】mysql对large page的支持
  5. dnf会修改跨区服务器吗,dnf新跨区系统上线之后,整个游戏只有9个大区
  6. python自学行_有编程基础Python自学行吗?
  7. 计算机台式右上角三个灯作用,键盘右上角的三个灯是什么?有什么用
  8. 计算机网络之物理层:7、物理层设备(中继器、集线器)
  9. 如何使用strace+pstack利器分析程序性能
  10. 64位MinGW和MSYS的安装