关于我们在学习kafka中的一些问题及架构,我想在这里浅谈一下我个人的理解;

之所以说这个kafka呢,主要还是最近做实时的项目中大量用到了kafka这个消息中间件,可以说kafka是我们大数据实时项目中一个代表性的一个主要起到缓存数据的一个消息中间件;说到消息,kafka里的消息队列就不得不提:

一 、Kafka

1.1消息队列(Message Queue)

        1.1.1 传统消息队列的应用场景

使用消息队列的好处

1)解耦:

  允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。

2)冗余:

消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的"插入-获取-删除"范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。

3)扩展性:

因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可。

4)灵活性 & 峰值处理能力:

在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

5)可恢复性:

系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。

6)顺序保证:

在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。(Kafka保证一个Partition内的消息的有序性)

7)缓冲:

有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息的处理速度不一致的情况。

8)异步通信:

很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们

1.1.2  消息队列的两种模式

1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)

消息生产者生产消息发送到Queue中,然后消息消费者从Queue中取出并且消费消息。

消息被消费以后,queue中不再有存储,所以消息消费者不可能消费到已经被消费的消息。Queue支持存在多个消费者,但是对一个消息而言,只会有一个消费者可以消费。

2)发布/订阅模式(一对多,消费者消费数据之后不会清除消息)

消息生产者(发布)将消息发布到topic中,同时有多个消息消费者(订阅)消费该消息。和点对点方式不同,发布到topic的消息会被所有订阅者消费。

两种模式的优势和劣势:

  1. 点对点模式:可以保证每条消息都是被消费的,按照顺序处理
  2. 发布订阅模式:可以一次性将数据分发给多个消费者,有可能出现消息顺序不对

1.2 定义

Apache Kafka是一个开源消息系统,最初是由LinkedIn公司开发,并于2011年初开源。采用Scala语言开发的一个多分区、多副本并且基于Zookeeper协调的分布式消息系统,现在已经捐献给了Apache基金会。在流式计算中,Kafka一般用来缓存数据,Storm通过消费Kafka的数据进行计算。

  1. Kafka是一个分布式的基于发布/订阅模式消息队列(Message Queue),主要应用于大数据实时处理领域。
  2. Kafka对消息保存时根据Topic进行归类,发送消息者称为Producer,消息接受者称为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)称为broker。
  3. 无论是kafka集群,还是consumer都依赖于zookeeper集群保存一些meta信息,来保证系统可用性。

1.3 Kafka基础架构

Cluster:集群  服务端

1)Zookeeper:Zookeeper负责保存broker集群元数据,并对控制器进行选举等操作

2)Producer 生产者消息生产者,就是向kafka broker发消息的客户端。

3)Consumer消费者消息消费者,向kafka broker取消息的客户端

4)Topic :可以理解为一个队列。是一个逻辑的存在,生产者和消费者面向的都是一个topic;

10

9

8

7

6

5

4

3

2

1

5)Consumer Group (CG):消费者组,由多个consumer组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。同一个组的消费者消费同一个主题数据的时候,不能消费相同分区的数据    如果需要实现广播,只要每个consumer有一个独立的CG就可以了。要实现单播只要所有的consumer在同一个CG。

6)Broker中间件一台kafka服务器就是一个broker。一个集群由多个broker组成。一个broker可以容纳多个topic。

Replication:备份   message :消息

7)Partition分区)(物理存在为了实现扩展性,一个非常大的topic可以分布到多个broker(即服务器)上,一个topic可以分为多个partition,每个partition是一个有序的队列。partition中的每条消息都会被分配一个有序的id(offset)。kafka只保证按一个partition中的顺序将消息发给consumer,不保证一个topic的整体(多个partition间)的顺序。

8)Offset偏移量kafka的存储文件都是按照offset.kafka来命名,用offset做名字的好处是方便查找。例如你想找位于2049的位置,只要找到2048.kafka的文件即可。当然the first offset就是00000000000.kafka

9)Replication:副本,为保证集群中的某个节点发生故障时,该节点上的partition数据不丢失,且kafka仍然能够继续工作,kafka提供了副本机制,一个topic的每个分区都有若干个副本,一个leader和若干个follower

10)leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是leader。

11)follower:每个分区多个副本中的“从”,实时从leader中同步数据,保持和leader数据的同步。leader发生故障时,某个follower会成为新的leader。

12)Record:实际写入kafka中并可以被读取到的消息记录。每个record包含了key、value、和timestamp。

1.4使用场景

  1. 日志收集:一个公司可以用kafka收集各种服务的log,通过kafka以统一接口服务的方式开放给各种consumer,例如Hadhoop、Hbase、Sorl等
  2. 消息系统:解耦和生产者和消费者、缓存消息等
  3. 用户活动跟踪:kafka经常被用来记录web用户或者app用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到kafka的topic中,然后订阅者通过订阅这些topic来做实时的监控分析,或者装载到hadoop、数据仓库中做离线分析和挖掘
  4. 运营指标:kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告
  5. 流式处理:比如spark streaming和storm

Zookeeper

zookeeper是一个分布式协调服务。所谓分布式协调主要是来解决分布式系统中多个进程之间的同步限制,防止出险脏读,例如我们常说的分布式锁。

zookeeper中的数据是存储在内存当中的,因此它的效率十分高效。它内部的存储方式十分类似于文件存储结构,采用了分层存储结构。但是它和文件存储结构的区别是,它的各个节点中是允许存储数据的,需要注意的是zk的每个节点存储数据不能超过1M。它的内存数据结果如下图:

zookeeper中可以通过不同路径访问到不同节点,因为是分层结构,也可以通过父节点访问到该节点下的所有子节点信息。

zk简单api:

1)create:创建一个新节点,通过指定路径的方式创建节点,例如创建路径为/A/A1/demo,则会在A1节点下创建一个demo节点;

2)delete:删除节点,通过路径的方式删除节点,如果删除路径为/A/A1/demo,则会删除A1节点下的demo节点;

3)exists:判断指定路径下的节点是否存在,例如判断路径为/A/A1/demo,则会判断A1节点下的demo节点是否存在;

4)get:获取指定路径下某个节点的值是什么,例如获取路径为/A/A1/demo,则会获取A1节点下的demo节点的值什么;

5)set:为指定路径的节点进行赋值操作,例如修改路径为/A/A1/demo,则会修改A1节点下的demo节点的值;

6)get children:获取指定路径节点下的子节点信息,例如获取路径为/A,则会获取A节点下的A1和A2节点;

7)sync:获取到同步数据,这个涉及到了zk的原理,zk集群属于最终一致性,调用该方法,可以获取到最终的结果值,如果不使用该方法,在查询的时候可能获取到的值是中间值;

zk中创建的节点分为两种:永久性节点和临时性节点。永久性节点即创建以后,在不执行delete命令的前提下,该节点是永久存在的;而临时节点与session有关,每个客户端与zk建立链接的时候会生成一个session,这个session不会因为链接zk服务器节点的变化而变化,只有当客户端断开连接以后,该session才会消失,而临时节点会随着session的消失而消失。

zk拥有watch机制,也就是监视机制,可以支持响应式编程模式,它可以对某个路径的终节点及其子节点的变更进行监视,当其发生变更以后,会调用注册的callback方法,然后进行具体的业务逻辑。例如监测路径为/A/A1,那么它会加测A1节点,以及附属于A1的所有子节点,这个子不单单只一层子节点,是指所有层的子节点。

zk拥有以下几个重要特性:

1)顺序一致性:来自客户端的相关指令会按照顺序执行,不会出现乱序的情况,客户端发送到服务的指令1->2->3->4,那个这些指令就会按照顺序执行;

2)原子性:更新只有成功和失败,没有中间状态;

3)可靠性:也可以称之为持久性,节点更新以后,在下次更新之前,它的数据不会发生变更;

4)准实时性:也可以称之为最终一致性,在zk集群中,一个客户端修改了其中的一个节点,一定时间以后,所有可用的服务对应的节点都会变成更新以后的值。

zk的选举机制原理——过半选举

        三个核心选举原则:

                (1)Zookeeper集群中只有超过半数以上的服务器启动,集群才能正常工作;

(2)在集群正常工作之前,myid小的服务器给myid大的服务器投票,直到集群正常工作,选出Leader;

(3)选出Leader之后,之前的服务器由Looking改变为Following,以后的服务器都是Follower;

过程:

假设有五台服务器组成的Zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。

假设这些服务器从id1-5,依序启动:

因为一共5台服务器,只有超过半数以上,即最少启动3台服务器,集群才能正常工作。

(1)服务器1启动,发起一次选举。

服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成;

服务器1状态保持为LOOKING;

(2)服务器2启动,再发起一次选举。

服务器1和2分别投自己一票,此时服务器1发现服务器2的id比自己大,更改选票投给服务器2;

此时服务器1票数0票,服务器2票数2票,不够半数以上(3票),选举无法完成;

服务器1,2状态保持LOOKING;

(3)服务器3启动,发起一次选举。

与上面过程一样,服务器1和2先投自己一票,然后因为服务器3id最大,两者更改选票投给为服务器3;

此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数(3票),服务器3当选Leader。

服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING;

(4)服务器4启动,发起一次选举。

此时服务器1,2,3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为1票。

此时服务器4服从多数,更改选票信息为服务器3;

服务器4并更改状态为FOLLOWING;

(5)服务器5启动,同4一样投票给3,此时服务器3一共4票,服务器5为1票;

服务器5并更改状态为FOLLOWING;

最终Leader是服务器3,状态为LEADING;

其余服务器是Follower,状态为FOLLOWING。

引用资料:

zookeeper详解_、风筝的博客-CSDN博客_zookeeper

zookeeper选举机制——过半选举 - black9 - 博客园

Kaka与Zookeeper的爱恨情仇(——zookeeper过半选举机制)相关推荐

  1. 深入Java虚拟机之 --- JVM的爱恨情仇

    (本文参考深入理解JAVA虚拟机第二版第2章) 系列文章: 深入Java虚拟机之 - JVM的爱恨情仇 JAVA 垃圾回收机制(一) - 对象回收与算法初识 JAVA 垃圾回收机制(二) - GC回收 ...

  2. 产品经理和程序员的爱恨情仇

    产品经理跪求程序员,程序员跪求程序成功上线! 前几天纯银V在微博上发了一条微博「很多人吐槽"人人都是产品经理"这句话,其实在我看来,这句话的正确理解是"人人都应该学习产品 ...

  3. 深度解析单例与序列化之间的爱恨情仇

    转载自 深度解析单例与序列化之间的爱恨情仇 本文将通过实例+阅读Java源码的方式介绍序列化是如何破坏单例模式的,以及如何避免序列化对单例的破坏. 单例模式,是设计模式中最简单的一种.通过单例模式可以 ...

  4. mysql 唯一索引 死锁_MySQL 死锁套路:唯一索引 S 锁与 X 锁的爱恨情仇

    毫不夸张的说,有一半以上的死锁问题由唯一索引贡献,后面介绍的很多死锁的问题都跟唯一索引有关.这次我们讲一段唯一索引 S 锁与 X 锁的爱恨情仇 我们来看一个简化过的例子 # 构造数据 CREATE T ...

  5. 那些大学简称背后的“爱恨情仇”:东西南北中,就剩北大没人抢了

    春节期间,免不了要被亲戚问在哪读大学? >>>> 我:华中大啦 亲戚:?有这大学 我:华中科技大学 亲戚:奥~华科啊,华科就华科,华中大是啥啊 我:委屈啊,学校官方简称是华中大 ...

  6. mysql insert s锁_MySQL 死锁套路:唯一索引 S 锁与 X 锁的爱恨情仇

    在初学者从源码理解MySQL死锁问题中介绍了使用调试 MySQL  源码的方式来查看死锁的过程,这篇文章来讲讲一个常见的案例. 毫不夸张的说,有一半以上的死锁问题由唯一索引贡献,后面介绍的很多死锁的问 ...

  7. 除了love和hate,还能怎么表达那些年的“爱恨情仇”?

    实用英语 帮你全面提高英语水平 关注 童鞋们每次刷美剧的时候,相信都会被CP感满满的男女主角虐得体无完肤吧. 可是,一到我们自己表达爱意或者恨意的时候,却苦于词穷,只会用love, like, hat ...

  8. 三次握手与四次挥手的爱恨情仇

    三次握手与四次挥手的爱恨情仇---你与他(她)的爱情故事 前言 一.三次握手 二.四次挥手 为什么建立连接是三次握手,关闭连接确是四次挥手呢? 如果已经建立了连接,但是客户端突然出现故障了怎么办? 总 ...

  9. 初识angular.js之爱恨情仇

    angular.js Angular.JS 是一组用来开发Web页面的框架.模板以及数据绑定和丰富UI组件.它支持整个开发进程,提供web应用的架构,无需进行手工DOM操作. AngularJS很小, ...

最新文章

  1. SpringMVC工作环境搭建 配置文件
  2. 双调整!清华大学迎来新任书记、校长
  3. Oracle Proc开发之Makefile的编写模板
  4. mongoudb 等于_MongoDB常用操作
  5. Android 如何在App中启动系统闹钟
  6. 05 hex 格式_SREC、Hex、Bin等烧录文件格式完全解读
  7. flume快速入门及应用
  8. Spark精华问答 | 为什么要学Spark?
  9. springboot日志的实现方式(两种log4j2.properties和log4j2.yml)
  10. 寒假打工去,不能继续写博客,表示好心痛啊。。。
  11. 廖雪峰python教程答案-廖雪峰老师Python3教程练习整理
  12. 信号与系统郭宝龙版 第二章 连续系统的时域分析 思维导图
  13. 快学Big Data -- Hadoop(十三)
  14. AQSW公司OA系统需求分析
  15. 可以结束一个循环的关键字是python_Python中的循环关键字
  16. 【前端】Ajax-form表单与模板引擎
  17. 射频电路设计——传输线理论(Transmission Line Analysis) 【下】
  18. 三 创建纵断面图和纵断面
  19. 计算机毕业设计-基于SSM+Vue的公交路线管理系统-java公交管理系统代码
  20. 访问修饰符的真正理解

热门文章

  1. Maven 如何引入本地jar包
  2. 【56期分享】4款毕业答辩PPT模板免费下载
  3. 计算机相关书单汇总:基础、理论、网络、编码、C/C++、其他编程语言
  4. 女人不成熟的10大表现
  5. 精通linux内核年薪,最新IT人才薪酬体系一览表
  6. 无限互联iOS视频教程及课件PPT源码--献给初学者
  7. matlab与amesim,amesim与matlab联合仿真步骤(自己总结)(精)
  8. 光纤宽带接入工程设计降本增效方案集(2)
  9. MicroBlaze软核处理器简介
  10. 运维常用单词-会持续更新