1 [yun@mini01 config]$ pwd

2 /app/kafka/config3 [yun@mini01 config]$ vim server.properties4 ############################# Server Basics #############################5 # 每一个broker在集群中的唯一标示★★★6 # 比如mini01 为0 mini02 为1 mini03 为27 broker.id=0

8

9 ############################# Socket Server Settings #############################10 # The address the socket server listens on. It will get the value returned from11 # java.net.InetAddress.getCanonicalHostName() ifnot configured.12 # FORMAT:13 # listeners = listener_name://host_name:port

14 # EXAMPLE:15 # listeners = PLAINTEXT://your.host.name:9092

16 # 启动kafka服务监听的ip和端口,默认为java.net.InetAddress.getCanonicalHostName()获取的ip17 #listeners=PLAINTEXT://:9092

18

19 # broker通知到producers和consumers的主机地址和端口号20 # 如果未设置,使用listeners的配置。否则,使用java.net.InetAddress.getCanonicalHostName()返回的值21 # 对于ipv4,基本就是localhost了 127.0.0.1最后就是访问失败22 #advertised.listeners=PLAINTEXT://your.host.name:9092

23 # 在不同的机器,名称不同 如mini01、mini02、mini03★★★24 advertised.listeners=PLAINTEXT://mini01:9092

25

26 # broker 处理消息的最大线程数,一般情况下不需要去修改27 num.network.threads=3

28

29 # broker处理磁盘IO 的线程数 ,数值应该大于你的硬盘数30 num.io.threads=8

31

32 # 发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能33 socket.send.buffer.bytes=102400

34

35 # kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘36 socket.receive.buffer.bytes=102400

37

38 # 这个参数是向kafka请求消息或者向kafka发送消息的请求的最大数,这个值不能超过java的堆栈大小39 socket.request.max.bytes=104857600

40

41 ############################# Log Basics #############################42 # kafka数据的存放地址,多个地址的话用逗号分割 /tmp/kafka-logs-1,/tmp/kafka-logs-2

43 log.dirs=/app/kafka/logs44

45 # 默认的分区数,一个topic默认1个分区数46 num.partitions=1

47

48 # 每个数据目录在启动时用于日志恢复和关闭时用于刷新的线程数。49 num.recovery.threads.per.data.dir=1

50

51 ############################# Internal Topic Settings #############################52 # 组元数据内部主题“__consumer_offset”和“__transaction_state”的复制因子53 # 对于开发测试之外的任何内容,建议使用大于1的值来确保可用性,比如3。54 offsets.topic.replication.factor=3

55 transaction.state.log.replication.factor=3

56 transaction.state.log.min.isr=3

57

58 ############################# Log Flush Policy #############################59 # 在持久化到磁盘前message最大接收条数60 #log.flush.interval.messages=10000

61 log.flush.interval.messages=10000

62

63 # 持久化的最大时间间隔64 #log.flush.interval.ms=1000

65 log.flush.interval.ms=3000

66

67 ############################# Log Retention Policy #############################68 # 默认消息的最大持久化时间,168小时,7天69 # segment 文件保留的最长时间,超时则被删除70 log.retention.hours=168

71

72 # 当分片的大小超过该值时,就会被删除。该功能不依赖于log.retention.hours。为 -1没有大小限制73 #log.retention.bytes=1073741824

74 log.retention.bytes=-1

75

76 # 滚动生成新的segment文件的最大时间77 log.roll.hours=168

78

79 # 单个分片的上限,达到该大小后会生成新的日志分片 1G80 log.segment.bytes=1073741824

81

82 # 日志分片的检测时间间隔,每隔该时间会根据log保留策略决定是否删除log分片83 log.retention.check.interval.ms=300000

84

85 # 默认为true 启用日志清理器进程在服务器上运行86 log.cleaner.enable=true

87

88 # 默认为true 【当前版本】 启用删除主题。 如果此配置已关闭,则通过管理工具删除主题将不起作用89 delete.topic.enable=true

90 ############################# Zookeeper #############################91 # Zookeeper connection string (see zookeeper docs fordetails).92 # This is a comma separated host:port pairs, each corresponding to a zk93 # server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".94 # You can also append an optional chroot stringto the urls to specify the95 # root directory forall kafka znodes.96 zookeeper.connect=mini01:2181,mini02:2181,mini03:2181,mini04:2181,mini05:2181

97

98 # Timeout in ms forconnecting to zookeeper99 zookeeper.connection.timeout.ms=6000

100

101

102 ############################# Group Coordinator Settings #############################103 # 在开发测试环境下该值设置为0,保证启动后马上可以使用。但在生产环境下,默认值3秒更适合104 group.initial.rebalance.delay.ms=3000

linux中kafka主题修改分区,kafka_2.11-2.0.0的部署与配置修改相关推荐

  1. 关于 Linux中逻辑卷/物理分区等知识的一些总结

    我的需求: 准备红帽考试,这块听课听得稀里糊涂的. 我是这样做的: 请教了公司大佬,书里找了些资料.这里整理笔记加以记忆,不足之处请小伙伴指出来.生活加油.2021.01.08 一,思维导图梳理关系 ...

  2. 在Linux中对硬盘进行分区、格式化和挂载

    在Linux中对硬盘进行分区.格式化和挂载 我最近有一个全新的4-TB硬盘加入我的电脑.所以我需要在Linux中安装它.为此,我需要执行以下操作: 分区 格式化 挂载 检查是否已安装硬盘驱动器 分区 ...

  3. linux对磁盘进行分区_如何在Linux中对磁盘进行分区

    linux对磁盘进行分区 在Linux中创建和删除分区是一种常规做法,因为在使用存储设备(如硬盘驱动器和USB驱动器)之前,必须先对其进行某种结构化. 在大多数情况下,大型存储设备被分为称为parti ...

  4. Kafka系列之:深入理解Kafka 主题、分区、副本、LEO、ISR、HW、Kafka的主写主读和分区leader选举

    Kafka系列之:深入理解Kafka 主题.分区.副本.LEO.ISR.HW.Kafka的主写主读和分区leader选举 一.Kafka重要知识点提炼 二.详细介绍Kafka 主题.分区.副本.LEO ...

  5. linux中oracle静默安装失败,oracle 11 Linux 静默安装 步骤及错误解决(更新中)

    oracle 11 Linux 静默安装 步骤及错误解决(更新中) oracle 11 Linux 静默安装 步骤及错误解决(更新中) [待更新] oracle成功安装完成后 显示的页面如下 : 此时 ...

  6. linux 中kafka发送数据,C++ 向kafka中发送数据

    kafka是一个分布式流处理的平台,通过kafka我们可以发布和订阅流式记录.有关kafka的介绍可以参考官网或者这篇文章https://juejin.im/post/6844903495670169 ...

  7. linux+4t分区+扩容lvm,Linux中利用LVM实现分区动态扩容

    LVM的全称为Logical Volume Manager,它是Linux环境下对磁盘分区进行管理的一种机制,LVM是建立在硬盘和分区之上的一个逻辑层,来提高磁盘分区管理的灵活性.通过LVM系统管理员 ...

  8. linux下访问windows分区,[浅议Linux中如何对Windows分区进行访问]Windows分区

    摘 要:使用Linux系统的用户日渐增多,实现Linux与Windows系统间互访就十分值得讨论.该文在举例的基础上,讨论了如何在Linux系统下实现对Windows的挂载. 关键词:挂载:Linux ...

  9. 如何在 Linux 中扩展 XFS 根分区

    在某些情况下,/ 分区在 Linux 中磁盘空间不足.即使压缩和删除旧的日志文件也无济于事,因此在这种情况下,我们别无选择,只能扩展 / 文件系统.在本文中,我们将演示如何在 Linux 系统中扩展不 ...

最新文章

  1. 卫星图片重建洛杉矶3D模型,效果就像谷歌地球,港中大团队提出CityNeRF
  2. 国外创意网站设计欣赏的200佳网站推荐(系列十)
  3. python安装不了bs4_怎么在python安装bs4
  4. react 和 lodash 完美结合命令
  5. 1 vmware 如何联网,以及行命令令初步
  6. Git 操作笔记/pip换源
  7. vuex保存用户信息_Vuex状态管理
  8. 加勒比海兔_加勒比海海洋物种趋势
  9. 【转】WebServices:WSDL的结构分析
  10. 面试精讲之面试考点及大厂真题 - 分布式专栏 16 数据库如何做分库分表,读写分离
  11. Jenkins - 持续集成环境搭建【转】
  12. 机器学习初级入门(二)KNN
  13. PyTorch:模型层和nn container
  14. Sublime Text下载使用
  15. [ALAPI]免费聚合视频无水印接口分享
  16. Alibaba珍藏版mybatis手写文档,值得一读!
  17. Autocad 2022版本插件开发基础1
  18. outlook自定义快捷键_如何在Outlook中自定义待办事项窗格
  19. [luogu]P1852跳跳棋
  20. [转载] 晓说——第32期:抗战史上最悲壮一幕 淞沪战役(上)

热门文章

  1. Tomcat中的零停机部署(和回滚); 演练和清单
  2. filter过滤后重新添加_Spring Boot 2.X(十):自定义注册 Servlet、Filter、Listener
  3. html 元素的属性
  4. QPW 点评表(tf_appraise)
  5. 入门案例Maven搭建SpringBoot工程
  6. 镜像电流源特点_模电中的电流源电路
  7. pytorch中unsqueeze()函数理解
  8. windows查看器无法打开图片_关于windows微软商城无法打开 错误代码0x80004003问题...
  9. cmake 安装mysql5.6_CMAKE安装MYSQL 5.6.10
  10. python学什么版本2020年_2020年了居然还有人在学Python?学python有什么用?