大数据集群搭建(12)——Flume和Kafka的整合
Flume和Kafka的整合
1.配置flume,在flume的conf目录下新建文件(flume_kafka.conf)并配置。
########################################################
##主要作用是监听目录中的新增数据,采集到数据之后,输出到kafka
## 注意:Flume agent的运行,主要就是配置source channel sink
## 下面的a1就是agent的代号,source叫r1 channel叫c1 sink叫k1
#########################################################
a1.sources = r1
a1.sinks = k1
a1.channels = c1
#具体定义source
a1.sources.r1.type = spooldir
#先创建此目录,保证里面空的
a1.sources.r1.spoolDir = /logs
#sink到kafka里面
a1.sinks.k1.channel = c1
a1.sinks.k1.type =org.apache.flume.sink.kafka.KafkaSink
#设置Kafka的Topic
a1.sinks.k1.kafka.topic = test3
#设置Kafka的broker地址和端口号
a1.sinks.k1.kafka.bootstrap.servers = master:9092,slaver1:9092,slaver2:9092
#配置批量提交的数量
a1.sinks.k1.kafka.flumeBatchSize = 20
a1.sinks.k1.kafka.producer.acks = 1
a1.sinks.k1.kafka.producer.linger.ms = 1
a1.sinks.ki.kafka.producer.compression.type= snappy
#对于channel的配置描述 使用文件做数据的临时缓存 这种的安全性要高
a1.channels.c1.type = file
a1.channels.c1.checkpointDir = /home/uplooking/data/flume/checkpoint
a1.channels.c1.dataDirs = /home/uplooking/data/flume/data
#通过channel c1将source r1和sink k1关联起来
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
2.启动
2.1.启动Zookeeper(3台)
[root@master bin]# ./zkServer.sh start
2.2.再启动kafka(3台)
./bin/kafka-server-start.sh -daemon config/server.properties &
2.3.如果没有主题创建主题
./bin/kafka-topics.sh --create --zookeeper master:2181,slaver1:2181,slaver2:2181 --replication-factor 3 --partitions 3 --topic 主题名
2.4.启动一个该主题的消费者
./bin/kafka-console-consumer.sh --bootstrap-server master:9092, slaver1:9092, slaver2:9092 --from-beginning --topic 主题名
2.5.启动flume
bin/flume-ng agent -n a1 -c conf -f conf/文件名 -Dflume.root.logger=INFO,console
2.6.向flume监听目录里面添加内容,观察消费者
大数据集群搭建(12)——Flume和Kafka的整合相关推荐
- 大数据集群搭建全部过程(Vmware虚拟机、hadoop、zookeeper、hive、flume、hbase、spark、yarn)
大数据集群搭建进度及问题总结 所有资料在评论区那里可以得到 第一章: 1.网关配置(参照文档) 注意事项:第一台虚拟机改了,改为centos 101 ,地址为192.168.181.130 网关依然是 ...
- 【大数据集群搭建-Apache】Apache版本进行大数据集群各组件环境部署
[大数据集群搭建-Apache]Apache版本进行大数据集群各组件环境部署 1)大数据环境统一 1.1.设置主机名和域名映射 1.2.关闭服务器防火墙和Selinux 1.3.服务器免密登陆 1.4 ...
- 全网最详细的Hadoop大数据集群搭建并进行项目分析(基于完全分布式)---终结篇
##所有需要的资料全部已上传到百度网盘上,请自行下载## 获取镜像,https://pan.baidu.com/s/1ho4hMrvIu1V6W4wWdH8nIA,提取码:ygyg 获取Xshell, ...
- 全网最详细的Hadoop大数据集群搭建并进行项目分析(基于完全分布式)---第二部分
##所有需要的资料全部已上传到百度网盘上,请自行下载## 获取镜像,https://pan.baidu.com/s/1ho4hMrvIu1V6W4wWdH8nIA,提取码:ygyg 获取Xshell, ...
- 全网最详细的Hadoop大数据集群搭建并进行项目分析(基于完全分布式)-----第一部分
##心路历程:这是大学时期做的项目,这个项目对我印象特别的深,当时没有记录在博客上,今后会积极分享自己做项目的历程与经验,希望能帮到需要的朋友,有什么问题或者建议欢迎在评论区留言,废话不多说,咱们就开 ...
- 1、大数据集群搭建之----jdk安装和zookeeper集群安装
这里废话不多说,上来就干.(如果配置不成功或遇到问题,可以留言,共同解决问题) 我的百度网盘里面有所有的用到的软件,永久有效无加密. https://pan.baidu.com/s/1pqW6bHxh ...
- 大数据集群搭建(一)虚拟机和Centos6的安装
文章目录 1.安装虚拟机 2.安装Centos6 3. Centos系统的网络配置 3.1关于IPADDR地址的由来: 4.将搭建好的虚拟机克隆出四台 4.1给四台节点配置独立的IP地址和主机名 1. ...
- 大数据集群搭建(jdk、hadoop、hive、mysql、spark、flume、zookeeper)
集群环境 各个机器安装的组件列表 大数据各个组件版本 192.168.248.10 192.168.248.11 192.168.248.12 jdk1.80 √ √ √ hadoop-2.6.1 √ ...
- 大数据集群搭建之节点的网络配置过程(二)
紧接着上一章来设置windows的vmnet8的ip地址和虚拟机中centos的ip地址. NAT虚拟网络的配置图如下图所示: 1.这里根据VMware中得到的网关地址去设置vmnet8的ip地址. ...
最新文章
- ubuntu 下搭建redis和php的redis的拓展
- 历届试题 快速排序:
- 大作文_p2_v1.0
- ABAP ALV 颜色设置(行,列,单元格)
- PyTorch JIT与TorchScript
- 空间皮肤代码_不废话,看我20行代码搞定色块提取与定位…….
- 敏捷项目管理流程-Scrum框架最全总结
- 用python代码画爱心,来自程序猿的浪漫
- 参考文献标号字体_论文参考文献字体大小
- 使用react-split-pane简单记录
- Sign签名生成与校验
- 程序员独特的浪漫:拿女朋友的照片做成动漫人物当头像
- 上海2021年高考成绩排位查询,2021年上海高考成绩排名查询系统,上海高考位次排名查询...
- 计算机不识别u盘咋办,电脑无法识别u盘如何修复,电脑不识别u盘怎么办
- 离散数学实验三则(关系元算,集合运算与操作,最短路)
- html和css的基本入门
- 孙正义万字访谈:未来30年一切将被重新定义
- kotlin的?.和!!.
- 七十七、Kettle的简介与安装部署
- RapidMiner数据挖掘