Kafka 基础架构


1)Producer :消息生产者,就是向kafka broker 发消息的客户端;
2)Consumer :消息消费者,向kafka broker 取消息的客户端;
3)Consumer Group (CG):消费者组,由多个consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。
4)Broker :一台kafka 服务器就是一个broker。一个集群由多个broker 组成。一个broker可以容纳多个topic。
5)Topic :可以理解为一个队列,生产者和消费者面向的都是一个topic;
6)Partition:为了实现扩展性,一个非常大的topic 可以分布到多个broker(即服务器)上,一个topic 可以分为多个partition,每个partition 是一个有序的队列;
7)Replica:副本,为保证集群中的某个节点发生故障时,该节点上的partition 数据不丢失,且kafka仍然能够继续工作 kafka提供了副本机制,一个 topic的每个分区都有若干个副本,一个 leader和若干个 follower。
8)leader 每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。
9)follower 每个分区多个副本中的“从”,实时从 leader中同步数据,保持和 leader数据的同步。 leader发生故障时,某个 follower会成为新的 follower。

kafka-clients使用

pom.xml引入kafka-clients如下:

     <dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>2.8.0</version></dependency>

AdminClient

基本Admin操作如下:

package com.lwy.it;import org.apache.kafka.clients.admin.AdminClient;
import org.apache.kafka.clients.admin.AdminClientConfig;
import org.apache.kafka.clients.admin.CreatePartitionsResult;
import org.apache.kafka.clients.admin.CreateTopicsResult;
import org.apache.kafka.clients.admin.DeleteTopicsResult;
import org.apache.kafka.clients.admin.DescribeTopicsResult;
import org.apache.kafka.clients.admin.ListTopicsOptions;
import org.apache.kafka.clients.admin.ListTopicsResult;
import org.apache.kafka.clients.admin.NewPartitions;
import org.apache.kafka.clients.admin.NewTopic;
import org.apache.kafka.clients.admin.TopicDescription;
import org.junit.jupiter.api.DisplayName;
import org.junit.jupiter.api.Test;import java.util.Arrays;
import java.util.Collections;
import java.util.HashMap;
import java.util.Map;
import java.util.Properties;
import java.util.Set;
import java.util.concurrent.ExecutionException;public class KafkaAdminTest {/*** 创建AdminClient** @return AdminClient*/public static AdminClient initAdminClient() {Properties properties = new Properties();// 指定连接IP和端口号properties.setProperty(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.3.99:9092");AdminClient adminClient = AdminClient.create(properties);return adminClient;}/*** 创建Topic* 注意防火墙:https://www.cnblogs.com/hellocjr/p/11431230.html* ./bin/kafka-topics.sh --create --zookeeper 192.168.3.99:2181 --replication-factor 1 --partitions 1 --topic test-topic*/@Test@DisplayName("创建Topic")public void createTopic_test() {AdminClient adminClient = initAdminClient();// 指定分区数量、副本数量NewTopic newTopic = new NewTopic("test-topic", 2, (short) 1);CreateTopicsResult createTopicsResult = adminClient.createTopics(Arrays.asList(newTopic));try {// KafkaFuture等待创建,成功则不会有任何报错createTopicsResult.all().get();} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}}/*** 列举Topic列表* ./bin/kafka-topics.sh --list --zookeeper 192.168.3.99:2181*/@Test@DisplayName("列举Topic列表")public void listTopic_test() {AdminClient adminClient = initAdminClient();ListTopicsOptions listTopicsOptions = new ListTopicsOptions();// 是否查看内部TopiclistTopicsOptions.listInternal(false);ListTopicsResult listTopicsResult = adminClient.listTopics(listTopicsOptions);Set<String> set = Collections.emptySet();try {set = listTopicsResult.names().get();} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}set.forEach(System.out::println);}/*** 删除Topic* ./bin/kafka-topics.sh --zookeeper 192.168.3.99:2181 --delete --topic test-topic*/@Test@DisplayName("删除Topic")public void deleteTopic_test() {AdminClient adminClient = initAdminClient();DeleteTopicsResult deleteTopicsResult = adminClient.deleteTopics(Arrays.asList("test-topic"));try {deleteTopicsResult.all().get();} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}}/*** 查看某个Topic详情* ./bin/kafka-topics.sh --describe --zookeeper 192.168.3.99:2181 --topic test-topic*/@Test@DisplayName("查看某个Topic详情")public void describeTopics_test() {AdminClient adminClient = initAdminClient();DescribeTopicsResult describeTopicsResult = adminClient.describeTopics(Arrays.asList("test-topic"));Map<String, TopicDescription> stringTopicDescriptionMap = Collections.emptyMap();try {stringTopicDescriptionMap = describeTopicsResult.all().get();} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}stringTopicDescriptionMap.forEach((topicName, topicDescription) -> {System.out.println("name:" + topicName + ",desc:" + topicDescription);});}/*** 增加分区数量* ./bin/kafka-topics.sh --alter --zookeeper 192.168.3.99:2181 --partitions 5 --topic test-topic* WARNING: If partitions are increased for a topic that has a key, the partition logic or ordering of the messages will be affected* 如果当主题中的消息包含有key时(即key不为null)根据key来计算分区的行为就会有所影响消息的顺序性* 注意:kafka中的分区数量智能增加不能减少*/@Test@DisplayName("增加分区数量")public void createPartitions_test() {Map<String, NewPartitions> map = new HashMap<>();NewPartitions newPartitions = NewPartitions.increaseTo(3);map.put("test-topic", newPartitions);AdminClient adminClient = initAdminClient();CreatePartitionsResult createPartitionsResult = adminClient.createPartitions(map);try {createPartitionsResult.all().get();} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}}
}

KafkaProducer

生产者常见配置

官方文档:https://kafka.apache.org/documentation/#producerconfigs

#kafka地址,即broker地址
bootstrap.servers#当producer向leader发送数据时,可以通request.required.acks参数来设置数据可靠性的级别,分别是0,1,all。
acks#请求失败,生产者会自动重试,指定是0次,如果启用重试,则会有重复消息的可能性
retries#每个分区未发送消息总字节大小,单位:字节,超过设置的值就会提交数据到服务器,默认是16kb
batch.size#消息在缓冲区保留的时间,超过设置的值就会提交到服务端。默认值就是0,消息是立刻发送的,即使batch.size缓冲空间还没满,如果想减少请求的数量,可以设置linger.ms大于0。满足batch.size缓冲区填满或linger.ms时间其中一个消息就会被发送
linger.ms#buffer.memory是用来约束kafka producer能够使用的内存缓冲的大小,默认值32MB。如果buffer.memory设置的太小,可能导致消息快速的写入内容缓冲里,但是Sender线程来不及吧消息发送到Kafka服务器会造成内存缓冲很快被写满,而一旦写满,就会阻塞用户线程,不让继续往kafka写消息了。buffer.memory要大于batch.size,否则会报申请内存不足的错误,不要超过物理内存,根据实际情况调整
buffer.memory#Key的序列化器,将用户提供的key和value对象ProducerRecord进行序列化处理,key.serializer必须被设置,即使消息中没有指定key,序列化器必须是一个实现org.apache.kafka.common.serialization.Serializer接口的类,将key序列化成字节数组
key.serializer
value.serializer

Producer核心API使用如下:

package com.lwy.it;import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import org.junit.jupiter.api.DisplayName;
import org.junit.jupiter.api.Test;import java.util.Properties;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.Future;public class KafkaProduceTest {/*** Producer 属性配置** @return Properties*/public static Properties initProperties() {Properties properties = new Properties();// 指定连接IP和端口号properties.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.3.99:9092");// 当producer向leader发送数据时,可以通request.required.acks参数来设置数据可靠性的级别,分别是0,1,all。properties.put(ProducerConfig.ACKS_CONFIG, "all");// 请求失败,生产者会自动重试,指定是0次,如果启用重试,则会有重复消息的可能性properties.put(ProducerConfig.RETRIES_CONFIG, 0);// 每个分区未发送消息总字节大小,单位:字节,超过设置的值就会提交数据到服务器,默认是16kbproperties.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);// 消息在缓冲区保留的时间,超过设置的值就会提交到服务端properties.put(ProducerConfig.LINGER_MS_CONFIG, 1);// 用来约束kafka producer能够使用的内存缓冲的大小,默认值32MBproperties.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);// Key的序列化器,将用户提供的key和value对象ProducerRecord进行序列化处理,key.serializer必须被设置properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");// value的序列化器properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");return properties;}/*** send()方法是异步的,添加消食到缓冲区等待发送,并立即返回* 生产者将单个的消息批量在一起发送来提高效率,即batch.size和linger.ms结合* <p>* 实现同步发送:一条消息发送之后,会阻塞当前线程,直至返回ack* 发送消息后返回一个Future对象,调用get()即可* <p>* 消息发送主要是两个线程:一个是Main用户主线程,一个是Sender的线程* 1.main线程主要发送消息到RecordAccumulator即返回* 2.sender线程从RecordAccumulator拉去信息发送到broker* 3.batch.size和linger.ms两个参数可以影响sender线程发送次数*/@Test@DisplayName("生产者发送消息")public void producer_send_test() {Properties properties = initProperties();Producer<String, String> producer = new KafkaProducer<String, String>(properties);ProducerRecord<String, String> stringStringProducerRecord = new ProducerRecord<>("test-topic", "key", "value");Future<RecordMetadata> future = producer.send(stringStringProducerRecord);try {// 同步阻塞// 不关心发送结果不需写这行RecordMetadata recordMetadata = future.get();// RecordMetadata格式:topic + "-" + partition + "@" + offset;System.out.println("发送状态:" + recordMetadata.toString());} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}// 关闭producer.close();}}

ProducerRecord介绍和key的作用:

发送给Kafka Broker的key/value值对,封装基础数据信息。

    /*** 创建要发送到指定主题和分区的记录* 参数:* topic – 记录将附加到的主题名字* partition – 记录应发送到的分区(可选)* key – 将包含在记录中的密钥(可选)* value – 记录内容*/public ProducerRecord(String topic, Integer partition, K key, V value) {this(topic, partition, null, key, value, null);}

key默认是null,大多数应用程序会用到key

  • 如果key为空,kafka使用默认的partitioner,使用RoundRobin算法将消息均衡地分布在跟个partition上
  • 如果key不为空,kafka使用自己实现的hash算法对key进行哈希处理,决定消息该被写到Topic的哪个partition上,拥有相同key的消息会被写到同一个partition,实现顺序消息

生产者发消息是异步调用,怎么知道是否有异常?

  • 发送消息配置回调函数即可,该回调方法会在Producer收到ack时被调用,为异步调用
  • 回调函数有两个参数,RecordMetadata和Exception,如果Exception为null,则消息发送成功,否则失败
    /*** 生产者发消息是异步调用,怎么知道是否有异常?* <p>* - 发送消息配置回调函数即可,该回调方法会在Producer收到ack时被调用,为异步调用* - 回调函数有两个参数,RecordMetadata和Exception,如果Exception为null,则消息发送成功,否则失败*/@Test@DisplayName("生产者发送消息,并且回调")public void producer_send_callback_test() {Properties properties = initProperties();Producer<String, String> producer = new KafkaProducer<String, String>(properties);ProducerRecord<String, String> stringStringProducerRecord = new ProducerRecord<>("test-topic", "key", "value");Future<RecordMetadata> future = producer.send(stringStringProducerRecord, new Callback() {@Overridepublic void onCompletion(RecordMetadata metadata, Exception exception) {if (Objects.isNull(exception)) {System.out.println("发送状态:" + metadata.toString());} else {exception.printStackTrace();}}});// 关闭producer.close();}

KafkaConsumer

简介:Consumer消费者机制和分区策略

Kafka的Consumer消费者机制和分区策略讲解

消费者根据什么模式从broker获取数据的?

  • 消费者采用pull拉取方式,从broker的partition获取数据

为什么是pull模式,而不是broker主动push?

  • pull模式则可以根据consumer的消费能力进行自己调整,不同的消费者性能不一样,如果broker没有数据,consumer可以配置timeout时间,阻塞等待一段时间之后再返回
  • 如果是broker主动push,优点是可以快速处理消息,但是容易造成消费者处理不过来,消息堆积和延迟。

消费者从哪个分区进行消费?一个topic有多个partition,一个消费者组里面有多个消费者,那是怎么分配的?

  • 一个主题topic可以有多个消费者,因为里面有多个partition分区(leader分区)
  • 一个partition leader可以由一个消费者组中的一个消费者进行消费

一个topic有多个partition,所以有多个partition leader,给多个消费者消费,那分配策略如何?

消费者从哪个分区进行消费?——两个策略

  1. 顶层接口
org.apache.kafka.clients.consumer.internals.AbstractPartitionAssignor
  1. round-robin(RoundRobinAssignor非默认策略)轮询

【按照消费者组】进行轮训分配,同个消费者组监听不同主题也一样,是把所有的partition和所有的consumer都列出来,所以消费者组里面订阅的主题是一样的才行,主题不一样则会出现分配不均问题

例如如下有7个分区,同组内2个消费者:

topic-p0 / topic-p1 / topic-p2 / topic-p3 / topic-p4 / topic-p5 / topic-p6
c-1:topic-p0 / topic-p2 / topicp4 / topic-p6
c-2:topic-p1 / topic-p3 / topicp5

弊端:如果同一消费者组内,所订阅的消息是不相同的,在执行分区分配的时候不是轮询分配,可能会导致分
区分配的不均匀

如上图:有3个消费者C0、C1和C2,他们共订阅了3个主题:topic0、topic1和topic2

topic0有1个分区(P0),topic1有两个分区(P0、P1),topic2有3个分区(P0、P1、P2)

消费者C0订阅的是主题topic0,消费者C1订阅的是主题topic0和topic1,消费者C2订阅的是主题topic0、topic1和topic2

range(RangeAssignor默认策略)范围

【按照主题】进行分配,如果不平均分配,则第一个消费者会分配比较多分区,一个消费者监听不同主题也不影响,例如7个分区,同组内2个消费者

topic-p0 / topic-p1 / topic-p2 / topic-p3 / topic-p4 / topic-p5 / topic-p6
c-1:topic-p0 / topic-p1 / topicp2 / topic-p3
c-2:topic-p4 / topic-p5 / topicp6

弊端:

  • 只是针对1个topic而言,c-1多消费一个分区影响不大
  • 如果有N多个topic,那么针对每个topic,消费者C-1都将多消费1个分区,topic越多则消费的分区
    也越多,则性能有所下降

简介:Consumer消费者重新分配策略和offset维护机制

什么是Rebalance操作?

  • kafka怎么均匀地分配某个topic下的所有partition到各个消费者从而使得消息的消费速度达到最快,这就
    是平衡(balance),前面讲了Range范围分区和RoundRobin轮询分区,也支持自定义分区策略。
  • 而rebalance(重平衡)其实就是重新进行partition的分配,从而使得partition的分配重新达到平衡状态

假如有7个分区,2个消费者(先启动一个消费者,后续再启动一个消费者),这个会怎么分配?

Kafka会进行一次分区分配操作,即Kafka消费者端的Rebalance操作,下面都会发生rebalance操作

  • 当消费者组内的消费者数量发生变化(增加或者减少),就会产生重新分配patition
  • 分区数量发生变化时(即topic的分区数量发生变化时)

当消费者在消费过程突然宕机了,重新恢复后是从哪里消费,会有什么问题?

消费者会记录offset,故障恢复后从这里继续消费。

这个offset记录在哪里?

记录在zk里面和本地、新版默认将offset保证在kafka的内置topic中,名称是__consumer offsets

  • 该Topic默认有50个Partition,每个Partition有3个副本,分区数量由参数offset.topic.num.partition配置
  • 通过groupId的哈希值和该参数取模的方式来确定某个消费者组已消费的offset保存到__consumer offsets主题的哪个分区中
  • 消费者组名+主题+分区,确定唯一的offset的key,从而获取对应的值
  • 三元组:group.id+topic+分区号,而value就是offset的值

消费者配置

#消费者分组ID,分组内的消费者只能消费该消息一次,不同分组内的消费者可以重复消费该消息
group.id#为true则自动提交偏移量
enable.auto.commit#自动提交offset周期
auto.commit.interval.ms#重置消费偏移量策略,消费者在读取一个没有偏移量的分区或者偏移量无效情况下(因消费者长时间失效、包含偏移量的记录已经过时并被删除)该如何处理
auto.offset.reset#序列化器
key.deserializer
package com.lwy.it;import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.Consumer;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.OffsetAndMetadata;
import org.apache.kafka.clients.consumer.OffsetCommitCallback;
import org.apache.kafka.common.TopicPartition;
import org.junit.jupiter.api.DisplayName;
import org.junit.jupiter.api.Test;import java.time.Duration;
import java.util.Arrays;
import java.util.Map;
import java.util.Objects;
import java.util.Properties;@Slf4j
public class KafkaConsumerTest {public static Properties initProperties() {Properties properties = new Properties();// broker地址properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.3.99:9092");// 消费者分组ID,分组内的消费者只能消费该消息一次,不同分组内的消费者可以重复消费该消息properties.put(ConsumerConfig.GROUP_ID_CONFIG, "group-3");// 开启自动提交offsetproperties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");// 自动提交offset延迟时间properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "10000");// 默认是latest,如果需要从头开始消费partition消息,需改为earliest,且消费者组名变更才生效properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");// 反序列化properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");return properties;}@Test@DisplayName("消费者消费消息")public void consumer_pull_test() {Properties properties = initProperties();Consumer<String, String> consumer = new KafkaConsumer<>(properties);// 订阅主题consumer.subscribe(Arrays.asList("test-topic"));while (true) {// 100ms阻塞超时时间ConsumerRecords<String, String> consumerRecords = consumer.poll(Duration.ofMillis(100));consumerRecords.forEach((ConsumerRecord<String, String> consumerRecord) -> {System.out.println("~~~~~~~~~~~~~~~~~~~~~");log.info("Topic is {},Offset is {},Key is {},Value is {}", consumerRecord.topic(), consumerRecord.offset(), consumerRecord.key(), consumerRecord.value());System.out.println("~~~~~~~~~~~~~~~~~~~~~");});// 非空才手工提交if (!consumerRecords.isEmpty()) {// commitSync同步阻塞当前线程(自动失败重试)// consumer.commitSync();// commitAsync异步不会阻塞当前线程,没有失败重试,回调callback函数获取提交信息,记录日志consumer.commitAsync(new OffsetCommitCallback() {@Overridepublic void onComplete(Map<TopicPartition, OffsetAndMetadata> offsets, Exception exception) {if (Objects.isNull(exception)) {System.out.println("手工提交Offset成功:" + offsets.toString());} else {System.out.println("手工提交Offset失败:" + offsets.toString());exception.printStackTrace();}}});}}}
}

理论知识

简介:分布式应用核心CAP知识

CAP定理:指的是在一个分布式系统中,Consistency(一致性)、Availability(可用性)、Partition tolerance(分区容错性),三者不可同时获得

  • 一致性(C):所有节点都可以访问到最新的数据;锁定其他节点,不一致之前不可读
  • 可用性(A):每个请求都是可以得到响应的,不管请求是成功还是失败;被节点锁定后无法响应
  • 分区容错性(P):除了全部整体网络故障,其他故障都不能导致整个系统不可用;节点间通信可能失败,无法避免

CAP理论就是说在分布式存储系统中,最多只能实现上面的两点。而由于当前的网络硬件肯定会出现延迟丢包等问题,所以分区容忍性是我们必须需要实现的。所以我们只能在一致性和可用性之间进行权衡。

  • CA:如果不要求P(不允许分区),则C(强一致性)和(可用性)是可以保证的。但放弃P的同时也就意味着放弃了系统的扩展性,也就是分布式节点受限,没办法部署子节点,这是违背分布式系统设计的初衷的

  • CP:如果不要求A(可用),每个请求都需要在服务器之间保持强一致,而P(分区)会导致同步时间无限延长(也就是等待数据同步完才能正常访问服务),一旦发生网络故障或者消息丢失等情况,就要牺牲用户的体验,等待所有数据全部一致了之后再让用户访问系统

  • AP:要高可用并允许分区,则需放弃一致性。一旦分区发生,节点之间可能会失去联系,为了高可用,每个节点只能用本地数据提供服务,而这样会导致全局数据的不一致性。

分布式系统中P肯定要满足,所以只能在CA中二选一

没有最好的选择,最好的选择是根据业务场景来进行架构设计:

  • CP:适合支付、交易类,要求数据强一致性,宁可业务不可用,也不能出现脏数据
  • AP:互联网业务,比如信息流架构,不要求数据强一致,更想要服务可用

简介:Kafka数据可靠性保证原理之副本机制Replica介绍

Partition什么时间发送ack确认机制(要追求高吞吐量,那么就要放弃可靠性)?

当producer向leader发送数据时,可以通过 request.required.acks 参数来设置数据可靠性的级别

副本数据同步策略,ack有3个可选值:分别是0,1,all。

ack=0

  • producer发送一次就不再发送了,不管是否发送成功
  • 发送出去的消息还在半路,或者还没写入磁盘Partition Leader所在Broker就直接挂了,客户端认为消息发送成功了,此时就会导致这条消息就丢失

ack=1(默认)

  • 只要Partition Leader接收到消息而且写入【本地磁盘】,就认为成功了,不管他其他的Follower有没有
    同步过去这条消息了
  • 问题点:万一Partition Leader刚刚接收到消息,Follower还没来得及同步过去,结果Leader所在的broker宕机了

ack=all(即-1)

  • producer只有收到分区内所有副本的成功写入全部落盘的通知才认为推送消息成功

  • 备注:leader会维持一个与其保持同步的replica集合,该集合就是ISR,leader副本也在isr里面

  • 问题一:如果在follower同步完成后,broker发送ack之前,leader发生故障,那么会造成数据重复。

    • 数据发送到leader后,部分ISR的副本同步,leader此时挂掉。比如follower1和follower2都有可能变成新的leader,producer端会得到返回异常,producer端会重新发送数据,数据可能会重复
  • 问题二:acks=all就可以代表数据一定不会丢失了吗?

    • Partition只有一个副本,也就是一个Leader,任何Follower都没有接收完消息后宕机,也会导致数据丢失,acks=all,必须跟ISR列表里至少有2个以上的副本配合使用
    • 在设置request.required.acks=1的同时,也要 min.insync.replicas 这个参数设定ISR中的最小副本数
      是多少,默认值为1,改为>=2,如果ISR中的副本数少于 min.insync.replicas 配置的数量时,客户端会返回异常

简介:Kafka数据可靠性保证原理之ISR机制讲解

  • 什么是ISR(in-sync replica set)

    • leader会维持一个与其保持同步的replica集合,该集合就是ISR,每一个leader partition都有一个ISR,leader动态维护,要保证kafka不丢失message,就要保证ISR这组集合存活(至少有一个存活),并且消息 commit成功
    • Partition leader保持同步的Partition Follower集合,当ISR中的Partition Follower完成数据的同步之后就会给leader发送ack
    • 如果Partition follower长时间(replica.lag.time.max.ms)未向leader同步数据,则该Partition Follower将被
      踢出ISR
    • Partition Leader发生故障之后,就会从ISR中选举新的Partition Leader。
  • OSR(out-of-sync-replicas)

    • 与leader副本分区同步滞后过多的副本集合
  • AR(Assign Replicas)

    • 分区中所有副本统称为AR

简介:Kafka的HighWatermark的作用

背景broker故障后

ACK保障了【生产者】的投递可靠性

partition的多副本保障了【消息存储】的可靠性

备注:重复消费问题需要消费者自己处理

HW(HighWatermark)作用:保证消费数据的一致性和副本数据的一致性

Follower故障:

Follower发生故障后会被临时踢出ISR(动态变化),待该follower恢复后,follower会读取本地的磁盘记录的上次的HW,并将该log文件高于HW的部分截取掉,从HW开始向leader进行同步,等该follower的LEO大于等于该Partition的hw,即follower追上leader后,就可以重新加入ISR

Leader故障:

Leader发生故障后,会从ISR中选出一个新的leader,为了保证多个副本之间的数据一致性,其余的follower会先将各自的log文件高于hw的部分截掉(新leader自己不会截掉),然后从新的leader同步数据

SpringBoot-Kafka

引入pom.xml文件:

        <dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka</artifactId></dependency>

application.properties文件配置:

spring.kafka.bootstrap-servers=192.168.3.99:9092
# Kafka生产者配置
# 消息重发的次数 配置事务的话,如果用户显示地指定了 retries 参数,那么值必须大于0
spring.kafka.producer.retries=0
# 一个批次可以使用的内存大小
spring.kafka.producer.batch-size=16384
# 设置生产者内存缓冲区的大小
spring.kafka.producer.buffer-memory=33554432
# key序列化方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
# value序列化方式
spring.kafka.producer.value-serializer=org.springframework.kafka.support.serializer.JsonSerializer
# 数据可靠性的级别
spring.kafka.producer.acks=all
# 事务ID前缀
spring.kafka.producer.transaction-id-prefix=book-transaction# Kafka消费者配置
# 自动提交的时间间隔,在Spring Boot 2 版本 值的类型是Duration 需要复核特定的格式,例如:1S,1M,2H,5D
spring.kafka.consumer.auto-commit-interval=1S
# 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该如何处理
spring.kafka.consumer.auto-offset-reset=earliest
# 是否自动提交偏移量,默认是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
spring.kafka.consumer.enable-auto-commit=false
# key序列化方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
# value序列化方式
spring.kafka.consumer.value-deserializer=org.springframework.kafka.support.serializer.JsonDeserializer
# 手工ack,调用ack后立即提交offset
spring.kafka.listener.ack-mode=manual_immediate
# 容器运行的线程数
spring.kafka.listener.concurrency=4
# 避免主题未创建时报错
spring.kafka.listener.missing-topics-fatal=false
# kafka信任的包路径,避免序列化错误(自定义的消息对象不在kafka信任的包路径下)
spring.kafka.consumer.properties.spring.json.trusted.packages=com.lwy.it.*

生产者单元测试:

package com.lwy.it.spring.kafka;import com.lwy.it.book.vo.BookVO;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;
import org.springframework.kafka.core.KafkaTemplate;@SpringBootTest
public class KafkaTemplateTest {private final String topicName = "book-topic";@Autowiredprivate KafkaTemplate<String, Object> kafkaTemplate;@Testpublic void produceMessage() {BookVO bookVO = new BookVO();bookVO.setBookName("MySQL");bookVO.setBookAuthor("Author");bookVO.setBookPrice(99.99);kafkaTemplate.send(topicName, "book", bookVO).addCallback((success) -> {System.out.println("发送成功:" + success.getRecordMetadata());}, (failure) -> {System.out.println("发送失败:" + failure.getMessage());});}}

消费者:

package com.lwy.it.book.listener;import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.kafka.support.KafkaHeaders;
import org.springframework.messaging.handler.annotation.Header;
import org.springframework.stereotype.Component;@Component
public class BookListener {@KafkaListener(topics = {"book-topic"}, groupId = "1")public void receiveMessage(ConsumerRecord<?, ?> consumerRecord, Acknowledgment acknowledgment, @Header(KafkaHeaders.RECEIVED_TOPIC) String topic) {System.out.println("消费消息:" + consumerRecord.value());// 确认消费acknowledgment.acknowledge();}
}

生产者事务:

package com.lwy.it.book.controller;import com.lwy.it.book.vo.BookVO;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaOperations;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.transaction.annotation.Transactional;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;@RestController
public class BookController {@Autowiredprivate KafkaTemplate<String, Object> kafkaTemplate;private final String topicName = "book-topic";/*** 注解式事务** @param number*/@GetMapping("/tran/v1")@Transactional(rollbackFor = RuntimeException.class)public void transactionV1(@RequestParam("number") int number) {BookVO bookVO = new BookVO();bookVO.setBookPrice(9.9);bookVO.setBookName("消息:PostgreSQL");bookVO.setBookAuthor("PostgreSQL");kafkaTemplate.send(topicName, "book", bookVO).addCallback((success) -> {System.out.println("发送成功:" + success.getRecordMetadata());}, (failure) -> {System.out.println("发送失败:" + failure.getMessage());});if (number == 4) {throw new RuntimeException("运行时异常");}BookVO vo = new BookVO();vo.setBookName("消息:MySQL");vo.setBookAuthor("MySQL");vo.setBookPrice(99.99);kafkaTemplate.send(topicName, "book", vo).addCallback((success) -> {System.out.println("发送成功:" + success.getRecordMetadata());}, (failure) -> {System.out.println("发送失败:" + failure.getMessage());});}/*** 声明式事务** @param number*/@GetMapping("/tran/v2")public void transactionV2(@RequestParam("number") int number) {kafkaTemplate.executeInTransaction(new KafkaOperations.OperationsCallback<String, Object, Object>() {@Overridepublic Object doInOperations(KafkaOperations<String, Object> kafkaOperations) {BookVO bookVO = new BookVO();bookVO.setBookPrice(8.8);bookVO.setBookName("消息:Java");bookVO.setBookAuthor("Java");kafkaTemplate.send(topicName, "book", bookVO).addCallback((success) -> {System.out.println("发送成功:" + success.getRecordMetadata());}, (failure) -> {System.out.println("发送失败:" + failure.getMessage());});if (number == 4) {throw new RuntimeException("运行时异常");}BookVO vo = new BookVO();vo.setBookName("消息:Python");vo.setBookAuthor("Python");vo.setBookPrice(88.88);kafkaTemplate.send(topicName, "book", vo).addCallback((success) -> {System.out.println("发送成功:" + success.getRecordMetadata());}, (failure) -> {System.out.println("发送失败:" + failure.getMessage());});return true;}});}
}

再举例说明Spring Boot + Kafka:

配置如下:

############################################################
# Kafka 配置
############################################################
# kafka集群信息,多个用逗号间隔
spring.kafka.bootstrap-servers=192.168.3.100:9092# 生产者配置项
# 重试次数,设置大于0的值,则客户端会将发送失败的记录重新发送
spring.kafka.producer.retries=0
# 一个批次可以使用的内存大小,16K
spring.kafka.producer.batch-size=16384
# 设置生产者内存缓冲区的大小,32M
spring.kafka.producer.buffer-memory=33554432
# ack模式
spring.kafka.producer.acks=all
# Key的序列化方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
# Value的序列化方式
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer# 消费者配置项
# 消费者组
spring.kafka.consumer.group-id=consumer_1
# 自动提交的时间间隔 在Spring Boot 2.X版本中值的类型为Duration,需要符合特定的格式,如:1S,1M,1H,2D
spring.kafka.consumer.auto-commit-interval=1S
# 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理
# none:如果没有为消费者找到先前的offset的值,即没有自动维护偏移量,也没有手动维护偏移量,则抛出异常
# earliest:在各分区下有提交的offset时:从offset处开始消费;在各分区下无提交的offset时:从头开始消费
# latest:在各分区下有提交的offset时:从offset处开始消费;在各分区下无提交的offset时:从最新的数据开始消费
spring.kafka.consumer.auto-offset-reset=earliest
# 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
spring.kafka.consumer.enable-auto-commit=false
# Key的序列化方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
# Value的序列化方式
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer# record:当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
# batch:当每一批poll()的数据被ListenerConsumer处理之后提交
# time:当每一批poll()的数据被ListenerConsumer处理之后,距离上次提交时间大于TIME时提交
# count:当每一批poll()的数据被ListenerConsumer处理之后,被处理record数量大于等于COUNT时提交
# count_time:TIME或COUNT中有一个条件满足时提交
# manual:当每一批poll()的数据被ListenerConsumer处理之后, 手动调用Acknowledgment.acknowledge()后提交
# manual_immediate:手动调用Acknowledgment.acknowledge()后立即提交,一般推荐使用这种
spring.kafka.listener.ack-mode=manual_immediate
# 容器运行的线程数
spring.kafka.listener.concurrency=4

生产者单元测试:

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.producer.RecordMetadata;
import org.junit.jupiter.api.Test;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;
import org.springframework.kafka.core.KafkaTemplate;@SpringBootTest
@Slf4j
public class KafkaTest {private static final String TOPIC_NAME = "T_Test_Topic";@Autowiredprivate KafkaTemplate<String, Object> kafkaTemplate;@Testpublic void send_test() {kafkaTemplate.send(TOPIC_NAME, "消息Message123").addCallback(success -> {RecordMetadata recordMetadata = success.getRecordMetadata();log.info("发送成功,Topic:{},partition:{},offset:{}", recordMetadata.topic(), recordMetadata.partition(), recordMetadata.offset());}, failure -> {log.error("发送失败,原因:{}", failure.getMessage());});}
}

消费者逻辑:

import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.kafka.support.KafkaHeaders;
import org.springframework.messaging.handler.annotation.Header;
import org.springframework.stereotype.Component;@Component
@Slf4j
public class MQListener {@KafkaListener(topics = {"T_Test_Topic"}, groupId = "testGroupId")public void onMessage(ConsumerRecord<?, ?> consumerRecord, Acknowledgment acknowledgment, @Header(KafkaHeaders.RECEIVED_TOPIC) String topic) {log.info("消费消息:Topic:{},Partition:{},值为:{}", consumerRecord.topic(), consumerRecord.partition(), consumerRecord.value());acknowledgment.acknowledge();}}

Kafka 2.8.0 学习相关推荐

  1. Kafka 2.8.0发布,与ZooKeeper正式分手!

    平时关注 Kafka 的小伙伴要注意了,2021年4月19日,Kafka 2.8.0正式发布! 这次升级包括了很多重要的改动,其中最引人瞩目的就是kafka通过自我管理的仲裁来替代ZooKeeper, ...

  2. 支付宝、微信回应3D面具破解人脸识别;ofo 否认「发币」;Kafka 2.4.0 发布 | 极客头条...

    整理 | 屠敏 快来收听极客头条音频版吧,智能播报由标贝科技提供技术支持. 「极客头条」-- 技术人员的新闻圈! CSDN 的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注 ...

  3. flink1.12.0学习笔记第2篇-流批一体API

    flink1.12.0学习笔记第 2 篇-流批一体API flink1.12.0学习笔记第1篇-部署与入门 flink1.12.0学习笔记第2篇-流批一体API flink1.12.0学习笔记第3篇- ...

  4. flink1.12.0学习笔记第1篇-部署与入门

    flink1.12.0学习笔记第 1 篇-部署与入门 flink1.12.0学习笔记第1篇-部署与入门 flink1.12.0学习笔记第2篇-流批一体API flink1.12.0学习笔记第3篇-高级 ...

  5. mysql5.0镜像_Mysql5.0学习笔记(一)

    Mysql5.0学习笔记(一) -基本sql语句与支持字符集 1.登录 mysql -h localhost -u root 2.创建用户firstdb(密码firstdb)和数据库,并赋予权限于fi ...

  6. asp.net2.0学习历程 菜鸟到中级程序员的飞跃【月儿原创】

    asp.net2.0学习历程 菜鸟到中级程序员的飞跃 --30本好书点评 作者:清清月儿 主页:http://blog.csdn.net/21aspnet/           时间:2007.5.1 ...

  7. [EntLib]微软企业库5.0 学习之路——第五步、介绍EntLib.Validation模块信息、验证器的实现层级及内置的各种验证器的使用方法——上篇...

    本文是为后面的学习之路做铺垫,简单介绍下企业库中的Validation模块的一些相关知识,包括Validation模块的简介.用途.使用方法.默认提供的多种验证器的介绍等. 一.简介及用途 在实际的项 ...

  8. tensorflow 1.0 学习:参数和特征的提取

    tensorflow 1.0 学习:参数和特征的提取 在tf中,参与训练的参数可用 tf.trainable_variables()提取出来,如: #取出所有参与训练的参数 params=tf.tra ...

  9. ASP.NET MVC 3.0学习系列文章—Model in ASP.NET MVC 3.0

    系列文章 ASP.NET MVC 3.0学习系列文章-序 ASP.NET MVC 3.0学习系列文章--Razor and ASP.NET MVC 3.0 ASP.NET MVC 3.0学习系列文章- ...

最新文章

  1. c语言调用视频播放软件,C语言播放视频
  2. 提前半年博士毕业,一作发顶刊论文11篇,这位“科研学霸”的秘诀是?
  3. Django model层 mysql_Django模型层(models.py)之模型创建
  4. Python面向对象基础:设置对象属性
  5. 看FusionInsight Spark如何支持JDBCServer的多实例特性
  6. 30岁之前创业想成功必看
  7. EF Code First 中使用Jarek Kowalski's Provider的方法1
  8. 各个浏览器兼容性问题积累
  9. scrapy入门之创建爬虫项目+scrapy常用命令
  10. Jetson Xavier NX使用Yolov5+DeepStream+TensorRT实现CSI摄像头的目标识别及采坑记录
  11. MAC地址-集线器-ARP
  12. eclipse Strut2环境搭建
  13. itunes下载的app在哪里及如何查看iTunes下载的软件
  14. 微信小店不同类型店铺区别,以及开通资质要求是什么丨国仁网络资讯
  15. 2019.3 计算机考试资料大放送
  16. CSS表格和设置表格样式
  17. 测试参持之以恒兵勋章活动
  18. linux 桌面 v2ex,程序员:他人笑我桌面太凌乱,我笑他人看不穿
  19. python中优先级最高的运算符为_Python 运算符优先级
  20. HaaS600物联网开发板学习笔记(三)---使用amp工具远程更新js代码

热门文章

  1. LeetCode46:全排列(八皇后)
  2. 北京15家颜值爆表的餐厅!90%的妹纸来这里都不是为了吃饭
  3. 超硬核 | 一文带你入门用户画像
  4. python 图灵完备_图灵完备到底是个什么鬼?
  5. (三)单细胞数据分析——细胞亚群的表型特征刻画
  6. 漫话最短路径(二)--bellman-Ford(贝尔曼-福特)算法
  7. 世间什么才是最珍贵的?
  8. 下载FATSQ,读取10条序列并计算每条序列的长度和GC含量
  9. 新颖的 USB HUB快充方案助您无忧!!(兼容PD、QC、AFC等快充协议)
  10. 银行卡三要素实名认证接口