需要注意:参考的网站要与你的kafka的版本一致,因为里面的字段会不一致
例如:http://flume.apache.org/releases/content/1.6.0/FlumeUserGuide.html#kafka-sink
这是1.6版本的,如果需要查看1.9版本的直接就将1.6.0改为1.9.0即可

# avro-memory-kafka.conf
avro-memory-kafka.sources = avro-source
avro-memory-kafka.sinks = kafka-sink
avro-memory-kafka.channels = memory-channel# Describe/configure the source
avro-memory-kafka.sources.avro-source.type = avro
avro-memory-kafka.sources.avro-source.bind = hadoop000
avro-memory-kafka.sources.avro-source.port = 44444# Describe the sink
avro-memory-kafka.sinks.kafka-sink.type = org.apache.flume.sink.kafka.KafkaSink
avro-memory-kafka.sinks.kafka-sink.brokerList = hadoop000:9092
avro-memory-kafka.sinks.kafka-sink.topic = hello_topic
# batchSize 当达到5个日志才会处理,所以消费者出现的消息会慢
avro-memory-kafka.sinks.kafka-sink.batchSize = 5
avro-memory-kafka.sinks.kafka-sink.requiredAcks = 1# Use a channel which buffers events in memory
avro-memory-kafka.channels.memory-channel.type = memory# Bind the source and sink to the channel
avro-memory-kafka.sources.avro-source.channels = memory-channel
avro-memory-kafka.sinks.kafka-sink.channel = memory-channel
flume-ng agent \
--name avro-memory-kafka \
--conf $FLUME_HOME/conf \
--conf-file $FLUME_HOME/conf/avro-memory-kafka.conf \
-Dflume.root.logger=INFO,console
flume-ng agent  \
--name exec-memory-avro \
--conf $FLUME_HOME/conf \
--conf-file $FLUME_HOME/conf/exec-memory-avro.conf \
-Dflume.root.logger=INFO,console

启动消费者:
kafka-console-consumer.sh --zookeeper hadoop000:2181 --topic hello_topic

向data.log写入数据,发现消费者出现消息,成功

[hadoop@hadoop000 data]$ echo hellospark1111 >> data.log

整合Flume和Kafka完成实时数据采集相关推荐

  1. Flume与Kafka整合案例详解

    环境配置 名称 版本 下载地址 Centos 7.0 64x 百度 Zookeeper 3.4.5   Flume 1.6.0   Kafka 2.1.0   flume笔记 直接贴配置文件 [roo ...

  2. 【Kafka】测试Kafka整合Flume

    本文简单测试Kafka整合Flume,从而实现"日志 -> Flume -> Kafka". 操作环境: Kafka版本:1.0.1 Flume版本:1.6.0 测试前 ...

  3. 大数据———Flume与Kafka整合

    环境配置 名称 版本 下载地址 Centos 7.0 64x 百度 Flume 1.8.0 http://flume.apache.org/download.html Kafka 2.11 http: ...

  4. 大数据集群搭建(12)——Flume和Kafka的整合

    Flume和Kafka的整合 1.配置flume,在flume的conf目录下新建文件(flume_kafka.conf)并配置.  ################################# ...

  5. flume与kafka的整合

    案例1:syslog-memory-kafka 将flume采集到的数据落地到kafka上,即sink是kafka(生产者身份) vim syslog-mem-kafka.conf # 命名个组件 a ...

  6. kafka 的pom文件_基于SparkStreaming+Kafka+HBase实时点击流案例

    大数据技术与架构点击右侧关注,大数据开发领域最强公众号! 暴走大数据点击右侧关注,暴走大数据! 背景 Kafka实时记录从数据采集工具Flume或业务系统实时接口收集数据,并作为消息缓冲组件为上游实时 ...

  7. 大数据流处理:Flume、Kafka和NiFi对比

    在构建大数据流水线时,我们需要考虑处理数据的数量,种类和速度,这些数据通常出现在Hadoop生态系统的入口.在决定采用哪种工具来满足我们的要求时,都会考虑到可扩展性.可靠性.适应性.开发时间方面的成本 ...

  8. Kafka实战-Flume到Kafka

    1.概述 前面给大家介绍了整个Kafka项目的开发流程,今天给大家分享Kafka如何获取数据源,即Kafka生产数据.下面是今天要分享的目录: 数据来源 Flume到Kafka 数据源加载 预览 下面 ...

  9. Spark Stream整合flum和kafka,数据存储在HBASE上,分析后存入数据库

    开发环境:Hadoop+HBASE+Phoenix+flum+kafka+spark+MySQL 默认配置好了Hadoop的开发环境,并且已经安装好HBASE等组件. 下面通过一个简单的案例进行整合: ...

最新文章

  1. 【听课笔记】2009 Google OpenSocial-CSDN开放平台交流会笔记
  2. php 使用redis
  3. 安卓APP_ 控件(10)—— ListView可上下滑动的列表(重要)与ViewHolder优化
  4. gRPC快速入门记录
  5. 论文浅尝 | 基于对抗学习的弱监督知识图谱对齐
  6. 北师大计算机试题五答案,北京师范大学计算机软件及理论2022考研招生分析、参考书、真题等复习指导解析...
  7. supports-screens
  8. MySQL-快速入门(13)MySQL日志
  9. 最新xml注释顶格问题的解决方法
  10. 利用Python实现简单的相似图片搜索
  11. 三种加快计算机启动速度的办法,如何提高开机速度 几种提高开机速度的方法【图文】...
  12. 做一个项目的详细步骤
  13. 目标检测第5步-使用keras版YOLOv3训练
  14. php 监听条码枪输入,使用jQuery监听扫码枪输入并禁止手动输入的实现方法
  15. 噩梦射手(SurvivalShooter)教程(六)
  16. 动态爱心和3D旋转烟花代码
  17. arduino loar_采用ESP8266和Arduino设计基于IoT的患者健康监测系统
  18. 开放平台支持的签名算法
  19. 苏宁精准营销之生成人群包的演进
  20. easypoi 语法_语法微课初中英语语法复习大全

热门文章

  1. Activiti 监听器的配置使用
  2. PowerDesigner 表名、字段大小写转换
  3. Java基础篇(03):流程控制语句,和算法应用
  4. “数据门”事件频发如何避免人为因素导致数据泄露?
  5. Mybatis中接口和对应的mapper文件位置配置详解
  6. bootstrap-表格-普通表格
  7. RxJava系列(二)Scheduler线程调度器
  8. 《 自动化测试最佳实践:来自全球的经典自动化测试案例解析》一一1.3 建立自动化策略...
  9. 孙丕恕:应把云计算大数据融在一起 降低社会运营成本
  10. JAVA集合框架及其常用方法