1 kafka简介

1.1 什么是kafka

kafka是一个分布式、高吞吐量、高扩展性的消息队列系统。kafka最初是由Linkedin公司开发的,后来在2010年贡献给了Apache基金会,成为了一个开源项目。主要应用在日志收集系统和消息系统,相信大家之前也听说过其他的消息队列中间件,比如RabbitMQ、AcitveMQ,其实kafka就是这么一个东西,也可以叫做KafkaMQ。总之,Kafka比其他消息队列要好一点,优点也比较多,稳定性和效率都比较高,大家都说好,那就是真的好。

1.2 Kafka中的相关概念

在理解Kafka的相关概念之前,我们先来看一张图,这张图基本上包括了Kafka所有的概念,对于我们理解Kafka十分有帮助。

上图中包含了2个Producer(生产者),一个Topic(主题),3个Partition(分区),3个Replica(副本),3个Broker(Kafka实例或节点),一个Consumer Group(消费者组),其中包含3个Consumer(消费者)。下面我们逐一介绍这些概念。

1.2.1 Producer(生产者)

生产者,顾名思义,就是生产东西的,也就是发送消息的,生产者每发送一个条消息必须有一个Topic(主题),也可以说是消息的类别,生产者源源不断的向kafka服务器发送消息。

1.2.2 Topic(主题)

每一个发送到Kafka的消息都有一个主题,也可叫做一个类别,类似我们传统数据库中的表名一样,比如说发送一个主题为order的消息,那么这个order下边就会有多条关于订单的消息,只不过kafka称之为主题,都是一样的道理。

1.2.3 Partition(分区)

生产者发送的消息数据Topic会被存储在分区中,这个分区的概念和ElasticSearch中分片的概念是一致的,都是想把数据分成多个块,好达到我们的负载均衡,合理的把消息分布在不同的分区上,分区是被分在不同的Broker上也就是服务器上,这样我们大量的消息就实现了负载均衡。每个Topic可以指定多个分区,但是至少指定一个分区。每个分区存储的数据都是有序的,不同分区间的数据不保证有序性。因为如果有了多个分区,消费数据的时候肯定是各个分区独立开始的,有的消费得慢,有的消费得快肯定就不能保证顺序了。那么当需要保证消息的顺序消费时,我们可以设置为一个分区,只要一个分区的时候就只能消费这个一个分区,那自然就保证有序了。

1.2.4 Replica(副本)

副本就是分区中数据的备份,是Kafka为了防止数据丢失或者服务器宕机采取的保护数据完整性的措施,一般的数据存储软件都应该会有这个功能。假如我们有3个分区,由于不同分区中存放的是部分数据,所以为了全部数据的完整性,我们就必须备份所有分区。这时候我们的一份副本就包括3个分区,每个分区中有一个副本,两份副本就包含6个分区,一个分区两份副本。Kafka做了副本之后同样的会把副本分区放到不同的服务器上,保证负载均衡。讲到这我们就可以看见,这根本就是传统数据库中的主从复制的功能,没错,Kafka会找一个分区作为主分区(leader)来控制消息的读写,其他的(副本)都是从分区(follower),这样的话读写可以通过leader来控制,然后同步到副本上去,保证的数据的完整性。如果有某些服务器宕机,我们可以通过副本恢复数据,也可以暂时用副本中的数据来使用。

1.2.5 Broker(实例或节点)

这个就好说了,意思就是Kafka的实例,启动一个Kafka就是一个Broker,多个Brokder构成一个Kafka集群,这就是分布式的体现,服务器多了自然吞吐率效率啥的都上来了。

1.2.6 Consumer Group(消费者组)和 Consumer(消费者)

Consume消费者来读取Kafka中的消息,可以消费任何Topic的数据,多个Consume组成一个消费者组,一般的一个消费者必须有一个组(Group)名,如果没有的话会被分一个默认的组名。

1.3 Kafka的架构与设计

一般的来说,一个Kafka集群包含一个或多个的Producer,一个或多个的Broker,一个或多个的Consumer Group,和一个Zookeeper集群。Kafka通过Zookeeper管理集群配置,管理集群在运行过程中负责均衡、故障转移和恢复什么的。Producer使用Push(推送)的方式将消息发布到Broker,Consumer使用Pull(拉取)的方式从Broker获取消息,两者都是主动操作的。

1.3.1 Topic和Partition

Kafka最初设计初衷就是高吞吐率、速度快。所以在对Topic和Partition的设计中,把Topic分成一个或者多个分区,每个Partition在物理磁盘上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文件。当我们创建一个Topic时,同时可以指定分区数据,数目越多,吞吐量越大,但是消耗的资源也越多,当我们向Kafka发送消息时,会均衡的将消息分散存储在不同的分区中。在存储的过程中,每条消息都是被顺序写到磁盘上的。(顺序写磁盘的时候比随机写内存的效率还高,这也是Kafka快的一个原因之一)。

下面是Kafka的写入原理图,可以看出下列消息都是顺序的,消费者消费的时候也是按着顺序来消费的。

对于传统的MQ而言,一般经过消费后的消息都会被删除,而Kafka却不会被删除,始终保留着所有的消息,只记录一个消费者消费消息的offset(偏移量)作为标记,可以允许消费者可以自己设置这个offset,从而可以重复消费一些消息。但不删除肯定不行,日积月累,消息势必会越来越多,占用空间也越来越大。Kafka提供了两种策略来删除消息:一是基于时间,二是基于Partition文件的大小,可以通过配置来决定用那种方式。不过现在磁盘那么廉价,空间也很大,隔个一年半载删除一次也不为过。

1.3.2 Producer

生产者发送消息时,会根据Partition的策略来决定存到那个Partition中,一般的默认的策略是Kafka提供的均衡分布的策略,即实现了我们所要的负载均衡。一般的,当我们的消息对顺序没有要求的话那就多设置几个分区,这样就能很好地负载均衡增加吞吐量了。分区的个数可以手动配置,也可以在创建Topic的时候就事先指定。发送消息的时候,需要指定消息的key值,Producer会根据这个key值和Partition的数量来决定这个消息发到哪个分区,可能里边就是一个hash算法。

1.3.3 Consumer Group 和 Consumer

我们知道传统的消息队列有两种传播消息的方式,一种是单播,类似队列的方式,一个消息只被消费一次,消费过了,其他消费者就不能消费了;另一种是多播,类似发布-订阅的模式,一个消息可以被多个消费者同时消费。Kafka通过消费者组的方式来实现这两种方式,在一个Consumer Group中,每一个Topic中的消息只能被这个组中的一个Consumer消费,所以对于设置了多分区的Topic来说,分区的个数和消费者的个数应该是一样的,一个消费者消费一个分区,这样每个消费者就成了单播形式,类似队列的消费形式。所以说,一个消费者组里边的消费者不能多于Topic的分区数,一旦多于,多出来的消费者就不能消费到消息。另外,不同的消费者组可以同时消费一个消息,这样就实现了多播,类似发布-订阅的模式。我们可以设置每个组中一个消费者的方式来实现发布-订阅的模式。当我们有多个程序都要对消息进行处理时,我们就可以把他们设置到不同的消费者组中,来实现不同的功能。

2 kafka服务

2.1 安装配置

在下载地址中找到编译好的版本(不要下载源码),可以直接使用

下载后解压并进入目录

tar -zxvf kafka_2.11-2.3.0.tgz
cd kafka_2.11-2.3.0/

在kafka解压目录下下有一个config的文件夹,里面放置的是我们的配置文件

  • consumer.properites 消费者配置,这个配置文件用于配置消费者,此处我们使用默认的即可
  • producer.properties 生产者配置,这个配置文件用于配置生产者,此处我们使用默认的即可
  • server.properties kafka服务器的配置,此配置文件用来配置kafka服务器,目前仅介绍几个最基础的配置
  • broker.id 申明当前kafka服务器在集群中的唯一ID,需配置为integer,并且集群中的每一个kafka服务器的id都应是唯一的,我们这里采用默认配置即可
  • listeners 申明此kafka服务器需要监听的端口号,如果是在本机上跑虚拟机运行可以不用配置本项,默认会使用localhost的地址,如果是在远程服务器上运行则必须配置,例如:listeners=PLAINTEXT://192.168.180.128:9092。并确保服务器的9092端口能够访问
  • zookeeper.connect 申明kafka所连接的zookeeper的地址 ,需配置为zookeeper的地址,由于本次使用的是kafka高版本中自带zookeeper,使用默认配置即可,zookeeper.connect=localhost:2181

2.2 启动服务

cd进入kafka解压目录,输入

bin/zookeeper-server-start.sh config/zookeeper.properties
bin/kafka-server-start.sh config/server.properties

我在运行时报错如下

bin/kafka-run-class.sh: line 299: exec: java: not found

是因为机器上没有安装java,安装方法如下

sudo apt install default-jre

如果想要后台运行,则运行以下语句

nohup bin/zookeeper-server-start.sh config/zookeeper.properties &
nohup bin/kafka-server-start.sh config/server.properties &

3 简单使用

3.1 安装方法

pip install kafka-python

3.2 消费端

from kafka import KafkaConsumerconsumer = KafkaConsumer('my_topic', group_id='group2', bootstrap_servers=['localhost:9092'])
for msg in consumer:print(msg)
  • 第1个参数为 topic的名称
  • group_id : 指定此消费者实例属于的组名,可以不指定
  • bootstrap_servers : 指定kafka服务器

3.3 生产端

from kafka import KafkaProducerproducer = KafkaProducer(bootstrap_servers=['localhost:9092'])
future = producer.send('my_topic', key= b'my_key', value= b'my_value', partition= 0)
result = future.get(timeout=10)
print(result)

producer.send函数为发送消息

  • 第1个参数为 topic名称,必须指定
  • key : 键,必须是字节字符串,可以不指定(但key和value必须指定1个),默认为None
  • value : 值,必须是字节字符串,可以不指定(但key和value必须指定1个),默认为None
  • partition : 指定发送的partition,由于kafka默认配置1个partition,固为0

future.get函数等待单条消息发送完成或超时,经测试,必须有这个函数,不然发送不出去,或用time.sleep代替

3.4 消息解析

运行上述两个脚本,消费端接收到的消息如下

ConsumerRecord(topic='my_topic', partition=0, offset=5, timestamp=1570679336596, timestamp_type=0, key=b'my_key', value=b'my_value', headers=[], checksum=None, serialized_key_size=6, serialized_value_size=8, serialized_header_size=-1)
  • topic:话题名称
  • partition:分区名称
  • offset : 这条消息的偏移量
  • timestamp : 时间戳
  • timestamp_type : 时间戳类型
  • key : key值,字节类型
  • value : value值,字节类型
  • checksum : 消息的校验和
  • serialized_key_size : 序列化key的大小
  • serialized_value_size : 序列化value的大小,可以看到value=None时,大小为-1

4 高级使用

在实际使用的时候,我们不会只是简单的发送接收一个字节字符串数据,而是将消息打包成其它格式,如json、msgpack等格式,有时候还希望调用回调函数来完成其它功能,这时候可以参考官网如下的写法来实现

4.1 生产端

from kafka import KafkaProducer
from kafka.errors import KafkaErrorproducer = KafkaProducer(bootstrap_servers=['broker1:1234'])# 默认为异步
future = producer.send('my-topic', b'raw_bytes')# 异步发送模块
try:record_metadata = future.get(timeout=10)
except KafkaError:# Decide what to do if produce request failed...log.exception()pass# 发送成功后返回分配的分区和偏移量
print (record_metadata.topic)
print (record_metadata.partition)
print (record_metadata.offset)# 产生秘钥消息来启用哈希分区
producer.send('my-topic', key=b'foo', value=b'bar')# 通过msgpack的格式来编码消息
producer = KafkaProducer(value_serializer=msgpack.dumps)
producer.send('msgpack-topic', {'key': 'value'})# 通过json的格式来编码消息
producer = KafkaProducer(value_serializer=lambda m: json.dumps(m).encode('ascii'))
producer.send('json-topic', {'key': 'value'})# 异步发送
for _ in range(100):producer.send('my-topic', b'msg')# 发送成功的回调函数
def on_send_success(record_metadata):print(record_metadata.topic)print(record_metadata.partition)print(record_metadata.offset)# 发送失败的回调函数
def on_send_error(excp):log.error('I am an errback', exc_info=excp)# handle exception# 带有回调函数的异步发送
producer.send('my-topic', b'raw_bytes').add_callback(on_send_success).add_errback(on_send_error)# 阻塞,直到发送完所有消息
producer.flush()# 配置重复尝试的次数
producer = KafkaProducer(retries=5)

4.2 消费端

from kafka import KafkaConsumer# 获取最新的消息,并且自动提交偏移量
consumer = KafkaConsumer('my-topic',group_id='my-group',bootstrap_servers=['localhost:9092'])
for message in consumer:# 消息默认是原始字节,必要时需要解码操作# 例如对于unicode: `message.value.decode('utf-8')`print ("%s:%d:%d: key=%s value=%s" % (message.topic, message.partition,message.offset, message.key,message.value))# 获取最早的可用消息,不提交偏移量
KafkaConsumer(auto_offset_reset='earliest', enable_auto_commit=False)# 获取json格式的数据
KafkaConsumer(value_deserializer=lambda m: json.loads(m.decode('ascii')))# 获取msgpack格式的数据
KafkaConsumer(value_deserializer=msgpack.unpackb)# 1s后没有消息则停止迭代
KafkaConsumer(consumer_timeout_ms=1000)# 订阅正则表达式的一类主题
consumer = KafkaConsumer()
consumer.subscribe(pattern='^awesome.*')# 在不同的服务器/进程/CPU上可同时使用多个消费者
consumer1 = KafkaConsumer('my-topic',group_id='my-group',bootstrap_servers='my.server.com')
consumer2 = KafkaConsumer('my-topic',group_id='my-group',bootstrap_servers='my.server.com')

在使用过程中,可根据自己的情形具体搭配,更详细的操作可参考kafka API

Python之kafka消息队列操作入门相关推荐

  1. 使用kafka消息队列中间件实现跨进程,跨服务器的高并发消息通讯

    作者 | 陈屹       责编 | 欧阳姝黎 近来工作上接收到一项任务,实现c++后台服务器程序,要求它能承载千万级别的DAU读写请求.目前实现千万级高并发海量数据请求的服务器设计在"套路 ...

  2. SpringBoot集成Kafka消息队列

    1.说明 Spring可以方便的集成使用 Kafka消息队列 , 只需要引入依赖包spring-kafka, 注意版本兼容问题, 本文详细介绍SpringBoot集成Kafka的方法, 以及生产者和消 ...

  3. kafka消息队列使用场景

    一.消息队列概述 消息队列中间件是分布式系统中重要的组件,主要解决应用解耦,异步消息,流量削锋等问题,实现高性能,高可用,可伸缩和最终一致性架构.目前使用较多的消息队列有ActiveMQ,Rabbit ...

  4. 19 kafka消息队列

    文章目录 19 kafka消息队列 一.kafka介绍 1.消息队列基本介绍 2.常用的消息队列介绍 3.消息队列的应用场景 4.消息队列的两种模式 5.kafka的基本介绍 6.kafka的架构介绍 ...

  5. kafka 消息队列

    kafka 消息队列 kafka 架构原理 大数据时代来临,如果你还不知道Kafka那就真的out了!据统计,有三分之一的世界财富500强企业正在使用Kafka,包括所有TOP10旅游公司,7家TOP ...

  6. Kafka 消息队列的使用

    本篇概要: 1. 消息队列相关概念: 2. Kafka 消息队列: 3. 安装 Kafka 服务: 4. 安装PHP的 Kafka 扩展 rdkafka: 5. 编写 Kafka 的生产者方法: 6. ...

  7. Kafka消息队列的搭建与基础使用

    一.Kafka消息队列 1.为什么需要消息队列? 解耦 冗余 扩展性 灵活性 & 峰值处理能力 可恢复性 顺序保证 缓冲 异步通信 2.消息队列的模式 1.点对点模式 一对一,消费者主动拉取数 ...

  8. Kafka消息队列简介

    Kafka消息队列简介 1 基本概念 Broker Kafka集群包含一个或多个服务器,这种服务器被称为broker Topic 每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic. ...

  9. kafka消息队列系统

    学习目标: 掌握kafka消息队列 学习内容: 概述 数据缓冲队列,同时提高可扩展性,具有峰值处理能力,使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷请求而完成崩溃 kafka是 ...

最新文章

  1. 关于大脑未必是破解智能和意识之谜的钥匙探讨
  2. 线代总结2 矩阵代数
  3. 怎么判断前轮左右的位置_汽车上主要传感器的安装位置,你知道多少?
  4. tcpdump -i eth0 -n -vvv src or dst port 443
  5. java中程序执行顺序
  6. centos 静态拨号
  7. mysql如何给表字段加密_Mysql 字段加密
  8. python tkinter的基础用法
  9. 【Express】 —利用 Express 托管静态文件
  10. html5+桌面推送,HTML5 Web Notifications 桌面推送小记
  11. 打开计算机管理提示找不到文件,Win8系统打开计算机管理提示找不到文件怎么解决...
  12. 20.10 for循环 20.11/20.12 while循环 20.13 break跳出循环 20.14 continue结束本次循环 20.15 exit退出整个脚本...
  13. C/C++——C++中new与malloc的10点区别
  14. ezcad旋转轴标刻参数_激光打标机软件ezcad中的曲线圆弧排文本参数说明及设置...
  15. Xshell 6安装和使用教程
  16. java设置excel表头_设置Java导出Excel表头
  17. 2019年保研夏令营时间经验汇总
  18. 解决:ipad QQ可以联网,浏览器不能联网
  19. Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields【菜鸟读者】
  20. tensorflow XLA 笔记

热门文章

  1. 6JS库-前端框架(库)-jQuery选择器
  2. 绿豆pro前端APP源码v5.1.7编译教程,后端配置全开源安装搭建全图文操作萝卜白菜app通用说明带视频教程_多啦咪
  3. 中测康苑——企业文化
  4. ubuntu20.04关闭内核自动更新
  5. linux上搭建集群环境
  6. 第一个单片机程序(C语言编写)
  7. 使用OpenGL实现场景构建
  8. `LINK : fatal error LNK1104: 无法打开文件“***.dll”`的问题解决
  9. C#--集合添加数据(ArrayList and list)
  10. 用Python做一个会旋转的五彩风筝