单机版kafka集群有什么作用

练习上手用。

搭建zookeeper集群首先下载zookeeper解压 apache zookeeper

tar -zxvf apache-zookeeper-3.5.5-bin.tar.gz将zookeeper复制三份,分别命名为zookeeper-1,zookeeper-2,zookeeper-3

将zookeeper-1中的zoo.example.cfg文件复制一份改名为: zoo.cfg

修改config/zoo.cfg文件修改端口: clientPort=2181

修改数据目录: dataDir=/ashura/zookeeper-1/datalog

增加以下配置:

server.1=localhost.:2887:3887 server.2=localhost.:2888:3888 server.3=localhost.:2889:3889 admin.serverPort=8000

完成的配置文件如下:

# The number of milliseconds of each tick

tickTime=2000

# The number of ticks that the initial

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

# do not use /tmp for storage, /tmp here is just

# example sakes.

dataDir=/ashura/zookeeper-1/datalog

# the port at which the clients will connect

clientPort=2181

# the maximum number of client connections.

# increase this if you need to handle more clients

#maxClientCnxns=60

#

# Be sure to read the maintenance section of the

# administrator guide before turning on autopurge.

#

# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance

#

# The number of snapshots to retain in dataDir

#autopurge.snapRetainCount=3

# Purge task interval in hours

# Set to "0" to disable auto purge feature

#autopurge.purgeInterval=1

server.1=localhost.:2887:3887

server.2=localhost.:2888:3888

server.3=localhost.:2889:3889将这份zoo.cfg分别复制到zookeeper-2,zookeeper-3的config目录下.修改zookeeper2的zoo.cfg中clientPort=2183,dataDir=/ashura/zookeeper-2/datalog

修改zookeeper3的zoo.cfg中clientPort=2184,dataDir=/ashura/zookeeper-3/datalog

创建刚才在配置文件中写的目录

mkdir /ashura/zookeeper-1/datalog

mkdir /ashura/zookeeper-2/datalog

mkdir /ashura/zookeeper-3/datalog分别{-- 在datalog目录下 --}执行以下命令,写入myid。

echo "1" > /ashura/zookeeper-1/datalog/myid

echo "2" > /ashura/zookeeper-2/datalog/myid

echo "3" > /ashura/zookeeper-3/datalog/myid最后分别启动zookeeper集群

/ashura/zookeeper-1/bin/zkServer.sh start

/ashura/zookeeper-2/bin/zkServer.sh start

/ashura/zookeeper-3/bin/zkServer.sh start

使用如下命令判断是否启动成功

/ashura/zookeeper-1/bin/zkServer.sh status

/ashura/zookeeper-2/bin/zkServer.sh status

/ashura/zookeeper-3/bin/zkServer.sh status

搭建Kafka集群

下载

开始安装解压

tar -zxvf kafka_2.11-2.2.1.tgz将config/server.properties复制三份,分别命名为server1.properties,server2.properties,server3.properties。

修改server1.propertiesbroker.id=1

listeners=PLAINTEXT://:9092

advertised.listeners=PLAINTEXT://10.1.14.159:9092(其中10.1.14.159是我本机的ip)

log.dirs=/ashura/kafka_2.11-2.2.1/logs/kafka1-logs

zookeeper.connect=localhost:2181,localhost:2182,localhost:2183

同理,修改server2.propertiesbroker.id=2

listeners=PLAINTEXT://:9093

advertised.listeners=PLAINTEXT://10.1.14.159:9093(其中10.1.14.159是我本机的ip)

log.dirs=/ashura/kafka_2.11-2.2.1/logs/kafka2-logs

zookeeper.connect=localhost:2181,localhost:2182,localhost:2183同理,修改server3.propertiesbroker.id=3

listeners=PLAINTEXT://:9094

advertised.listeners=PLAINTEXT://10.1.14.159:9094(其中10.1.14.159是我本机的ip)

log.dirs=/ashura/kafka_2.11-2.2.1/logs/kafka3-logs

zookeeper.connect=localhost:2181,localhost:2182,localhost:2183

然后执行以下命令

nohup /ashura/kafka_2.11-2.2.1/bin/kafka-server-start.sh /ashura/kafka_2.11-2.2.1/config/server3.properties > /ashura/kafka_2.11-2.2.1/logs/kafka3-logs/startup.log 2>&1 &

nohup /ashura/kafka_2.11-2.2.1/bin/kafka-server-start.sh /ashura/kafka_2.11-2.2.1/config/server2.properties > /ashura/kafka_2.11-2.2.1/logs/kafka2-logs/startup.log 2>&1 &

nohup /ashura/kafka_2.11-2.2.1/bin/kafka-server-start.sh /ashura/kafka_2.11-2.2.1/config/server1.properties > /ashura/kafka_2.11-2.2.1/logs/kafka1-logs/startup.log 2>&1 &通过startup.log,或者同级目录下的server.log查看是否有报错即可。

检测创建主题:./kafka-topics.sh --bootstrap-server 127.0.0.1:9092 --create --topic fxb_test1 --replication-factor 3 --partitions 3

启动消费者: ./kafka-console-producer.sh --broker-list 10.1.14.159:9092 --topic fxb_test1

新开窗口个,启动生产者: kafka-console-producer.sh --bootstrap-server 127.0.0.1 --create --topic fxb_test1 在生产者窗口中输入消息,查看消费者的窗口,是否有消息产生。

参考文档

使用java client进行测试引入依赖

org.apache.kafka

kafka-clients

2.3.0

创建生产者

package com.fxb.learn.kafka.producer;

import org.apache.kafka.clients.producer.KafkaProducer;

import org.apache.kafka.clients.producer.Producer;

import org.apache.kafka.clients.producer.ProducerConfig;

import org.apache.kafka.clients.producer.ProducerRecord;

import java.util.Properties;

/***

* 生产者

*/

public class ProducerDemo {

public static void main(String[] args) {

Properties props = new Properties();

props.put("bootstrap.servers", "10.127.138.75:9092");

props.put("acks", "all");

props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

// props.put(ProducerConfig.Re)

Producer producer = new KafkaProducer<>(props);

for (int i = 0; i < 10; i++) {

producer.send(new ProducerRecord("fxb_test1", Integer.toString(i), Integer.toString(i)));

System.out.println("has sent msg [" + i + "]");

}

producer.close();

}

}创建消费者

package com.fxb.learn.kafka.consumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;

import org.apache.kafka.clients.consumer.ConsumerRecords;

import org.apache.kafka.clients.consumer.KafkaConsumer;

import java.time.Duration;

import java.util.Arrays;

import java.util.Properties;

/***

* 消费者

*/

public class ConsumerDemo {

public static void main(String[] args) {

Properties props = new Properties();

props.setProperty("bootstrap.servers", "10.127.138.75:9092");

props.setProperty("group.id", "test");

props.setProperty("enable.auto.commit", "true");

props.setProperty("auto.commit.interval.ms", "1000");

props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

KafkaConsumer consumer = new KafkaConsumer<>(props);

consumer.subscribe(Arrays.asList("fxb_test1", "bar"));

while (true) {

ConsumerRecords records = consumer.poll(Duration.ofMillis(100));

for (ConsumerRecord record : records)

System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());

}

}

}

单机 搭建kafka集群 本地_10分钟搭建单机Kafka集群相关推荐

  1. 大数据原生集群本地测试环境搭建六

    本篇软件版本 Kylin2.5.1!!!!强烈建议不要和我一样原因下面解释 Datax MongDB_linux-x86_64-4.0.10 clickhouse20.8.3.18-1 集群最后完善 ...

  2. 大数据原生集群本地测试环境搭建一

    前言 写这个微博的目的主要是有两点,一是这是我自己在用的测试环境,虽然也有自己总结文档,但是还是在网上保留一份,以防那天文档丢失,其次另一个原因也是想和大家分享一下我自己的测试环境搭建方式,如果大家有 ...

  3. kafka 集群_10分钟搭建单机Kafka集群

    单机版kafka集群有什么作用 练习上手用. 搭建zookeeper集群 首先下载zookeeper apache zookeeper官网 apache zookeeper下载地址 apache zo ...

  4. 大数据原生集群本地测试环境搭建三

    本篇安装软件 Hive1.2 hue-3.9.0-cdh5.14.0 Zookeeper3.4 Kafka2.11-0.10 redis3.0.0 elasticsearch-6.6.2 elasti ...

  5. 单机 搭建kafka集群 本地_Kafka单机环境搭建简记

    最近在搞kettle整合kafka producer插件,于是自己搭建了一套单机的kafka环境,以便用于测试.现整理如下的笔记,发上来和大家分享.后续还会有kafka的研究笔记,依然会与大家分享! ...

  6. 10分钟搭建服务器集群——Windows7系统中nginx与IIS服务器搭建集群实现负载均衡...

    10分钟搭建服务器集群--Windows7系统中nginx与IIS服务器搭建集群实现负载均衡 原文:10分钟搭建服务器集群--Windows7系统中nginx与IIS服务器搭建集群实现负载均衡 分布式 ...

  7. 本地连接服务器搭建的 Redis 集群

    本地连接服务器搭建的 Redis 集群 在实际运行测试中,存在两个问题 安全组或防火墙开放端口 主要开放+10000端口. 如果要连接 Redis集群的应用服务不和 Redis集群在一个局域网下,会出 ...

  8. [转]redis 5.0.5 5分钟搭建redis集群

    环境:centos 7 1:下载并安装redis ​​​​​​​$ wget http://download.redis.io/releases/redis-5.0.5.tar.gz$ tar xzf ...

  9. Redis集群环境之linux搭建多机版---已完结,跟着一步一步来你就可以集群成功

    上一篇踩着各种坑写了Redis集群环境之linux搭建单机版,这一篇准备就多机版集群进行搭建,主要目的一来是在上一篇的基础上进行精华提粹总结,二来是把单机版与多机版的区别进行记录. 首先软硬件环境: ...

最新文章

  1. 脚本标记 - 异步和延迟
  2. parquet文件格式——本质上是将多个rows作为一个chunk,同一个chunk里每一个单独的column使用列存储格式,这样获取某一row数据时候不需要跨机器获取...
  3. python装饰器使用多吗_对于Python装饰器使用的一些建议
  4. react 网易云音乐实战项目笔记
  5. Linux系统编程26:进程间通信之进程间通信的基本概念
  6. Extjs chart 总结 reload-chart.js 修改
  7. mysql可视化创建外键说明_关于使用可视化图形工具navicat for mysql来创建外键的步骤...
  8. python适合自学编程吗-Python为什么这么火?小孩子适合学习python编程吗?
  9. English trip V2-B 5 Apartment Living 公寓生活 Teacher:Tom
  10. HDU1029 Ignatius and the Princess IV
  11. 开源的第二代旅游网站程序_旅游网站模板_旅游网站源码
  12. 美赛 5:评价类模型、插值与拟合模型(十大模型篇)
  13. word文档如何在方框内打钩
  14. 计算机网络蜂窝状拓扑结构,基于星型结构的计算机网络拓扑结构研究
  15. TiDB 在中国电信翼支付的大规模深度实践
  16. 20个基于DPDK开源项目,建议收藏
  17. Windows Identity Foundation-- Windows身份验证基本框架
  18. WordPress实现关注微信公众号回复关键字获取验证码查看网站隐藏内容
  19. 微信小程序与java语言mysql数据库
  20. 怎么录制明日之后游戏视频

热门文章

  1. 购物网站php模版,运动服装购物网站模板
  2. c# 多线程界面卡顿_优化electron客户端卡顿的几种方案
  3. C++新特性探究(18.1):C++11 shared_ptr智能指针
  4. 审计风险控制流程的起点_【经验分享】审计整改流程体系的优化措施
  5. linux中脚本循环语句,Shell脚本循环语句
  6. flock用法详解 linux_linux下C语言中的flock函数使用方法 .
  7. C语言 neutralize函数,关于因子数据处理函数中的中性化函数的几个问题
  8. c# oldb连接_(转)C#连接OleDBConnection数据库的操作
  9. 利用函数重载编写函数max_c++笔记(函数重载)
  10. 替换字符串_面试题精选:字符串替换