2019独角兽企业重金招聘Python工程师标准>>>

1、推荐参考博客地址:http://blog.csdn.net/xiao_jun_0820/article/category/2399621

放在flume根目录conf文件夹下的代理配置文件写法:

a1.sources = r1
a1.sinks = k1
a1.channels = c1a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path=hdfs://localhost:9000/user/hadoop/flume
a1.sinks.k1.hdfs.fileType=DataStream
a1.sinks.k1.hdfs.writeFormat=Text
a1.sinks.k1.hdfs.rollInterval=0
a1.sinks.k1.hdfs.rollSize=10240
a1.sinks.k1.hdfs.rollCount=0
a1.sinks.k1.hdfs.idleTimeout=60  # Use a channel which buffers events in memorya1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

先进到hadoop的根目录下启动HDFS (命令./sbin/start-dfs.sh)

然后开启终端启动上面的代理文件,开启另一个终端测试端口连接。

可以参考本博此文:http://my.oschina.net/u/2478308/blog/731838

写入成功后会在终端中显示例如FlumeData.1470365774656.tmp的文件,该文件会根据设置的时间去除.tmp后缀。

事项:

1、HDFS的写入路径为 hdfs://namenodepath:namenodeport/自定义用户目录/自定义数据存储目录。对应目录需要提前创建,代理启动写入时不会自己创建目录。

2、需要切换到有hdfs写入权限的用户。

3、dfs.fileType=DataStream  hdfs.writeFormat=Text 使生成的文件可以读取。

4、flume写入hdfs后可以通过例如./bin/hdfs dfs -cat flume/FlumeData.1470365774656,查看hdfs中的文件内容。

5、可以连接http://localhost:50070中Utilities查看相关目录下的写入HDFS的文件。

转载于:https://my.oschina.net/u/2478308/blog/731882

测试Flume-1.6.0写入HDFS(Hadoop-2.7.2)的简单实例相关推荐

  1. Hive数据分析——Spark是一种基于rdd(弹性数据集)的内存分布式并行处理框架,比于Hadoop将大量的中间结果写入HDFS,Spark避免了中间结果的持久化...

    转自:http://blog.csdn.net/wh_springer/article/details/51842496 近十年来,随着Hadoop生态系统的不断完善,Hadoop早已成为大数据事实上 ...

  2. Hadoop 2.0(YARN/HDFS)学习资料汇总

    本文档整理了迄今为止Hadoop 2.0(包括YARN和HDFS2)相关的一些学习资料,包括文档.技术博客.Hadoop书籍等,欢迎大家补充,我将持续更新这个页面. 1. PDF资料 (1)" ...

  3. Flume 1.9.0用户指南

    概述 系统要求 架构 数据流模型 复杂的流程 可靠性 可恢复性 设置 设置 agent 配置单个组件 将各个部分连接在一起 启动 agent 一个简单的例子 在配置文件中使用环境变量 记录原始数据 基 ...

  4. hadoop2.2.0 分布式存储hdfs完全分布式搭建及功能测试记录(一)----架构及原理介绍...

    0.文档说明: 本文是围绕hadoop2.2的分布式文件系统hdfs进行分布式存储功能测试,形成的hdfs分布式存储功能测试报告,其中主要包括三大部分内容: 第一部分介绍了hdfs的基本原理: 第二部 ...

  5. Hhadoop-2.7.0中HDFS写文件源码分析(二):客户端实现(1)

    一.综述 HDFS写文件是整个Hadoop中最为复杂的流程之一,它涉及到HDFS中NameNode.DataNode.DFSClient等众多角色的分工与合作. 首先上一段代码,客户端是如何写文件的: ...

  6. HBase建表高级属性,hbase应用案例看行键设计,HBase和mapreduce结合,从Hbase中读取数据、分析,写入hdfs,从hdfs中读取数据写入Hbase,协处理器和二级索引

    1. Hbase高级应用 1.1建表高级属性 下面几个shell 命令在hbase操作中可以起到很到的作用,且主要体现在建表的过程中,看下面几个create 属性 1. BLOOMFILTER 默认是 ...

  7. 高可用性的HDFS—Hadoop分布式文件系统深度实践

    <高可用性的HDFS-Hadoop分布式文件系统深度实践> 基本信息 作者: 文艾 王磊 出版社:清华大学出版社 ISBN:9787302282587 上架时间:2012-5-14 出版日 ...

  8. Logstash读取Kafka数据写入HDFS详解

    强大的功能,丰富的插件,让logstash在数据处理的行列中出类拔萃 通常日志数据除了要入ES提供实时展示和简单统计外,还需要写入大数据集群来提供更为深入的逻辑处理,前边几篇ELK的文章介绍过利用lo ...

  9. java mapreduce 读hbase数据 写入hdfs 含maven依赖

    mapreduce 读hbase数据 写入hdfs java代码如下 import com.google.common.collect.Lists; import java.io.FileInputS ...

  10. Flume 监控kafka主题写HDFS小结

    Flume 监控kafka主题写HDFS小结 需求采集Flume采集kafka主题内容,往Hadoop集群上写HDFS,该机器没有安装Hadoop 这里的Flume版本是1.7.0,Hadoop版本是 ...

最新文章

  1. Java学习总结:25
  2. 第九周项目二-我的数组类
  3. golang 使用 http socks5 代理
  4. Springboot 连接数据库
  5. autojs定时可以选定日期吗_Excel工作表中的7个“一键完成”,你真的都了解、掌握吗?...
  6. php mysql增修删_PHP mysql PDO增、删、查、改
  7. 经典面试题(19):以下代码将输出的结果是什么?
  8. Linux tmux
  9. 实战MEF(4):搜索范围
  10. ea211css和cst,djm与ea211发动机对比
  11. html插入swf自动播放,html嵌入播放器,flv视频播放器 Flvplayer.swf 可自动播放参数说明...
  12. 项目经理的修炼,直面需求变更
  13. asp.net知识共享平台
  14. SolidWorks参数化设计中Excel的应用
  15. php报错_STORAGE_WRITE_ERROR_:./Application/Runtime/Cache/Admin/df12aa1edf6tt330187a6514aae4fda4.php
  16. win2016开启ntp_WindowsServer2016NTP服务端和客户端配置【NTP时间同步服务器】
  17. 基于SSM框架社交媒体实现
  18. php面试自我介绍结束语,面试自我介绍 结尾 社团招新面试自我介绍
  19. MAC格式化U盘/移动硬盘
  20. 安卓系统AOSP源码修改入门

热门文章

  1. LinkedList 注意事项
  2. IE 存在兼容元素归纳
  3. android 入门 (分析: 非匿名内部类 监听功能的实现)
  4. Gradle发布项目到 maven 之novoda/bintray-release(3)
  5. ASP.Net MVC-Web API使用Entity Framework时遇到Loop Reference
  6. 基于DevExpress XtraGrid控件实现的凭证式显示
  7. 几个阿里,美团,腾讯大佬的公众号!超级变态!
  8. module_param()函数
  9. redis内存数据的持久化方式
  10. -rw-r--r--@ what's @