测试Flume-1.6.0写入HDFS(Hadoop-2.7.2)的简单实例
2019独角兽企业重金招聘Python工程师标准>>>
1、推荐参考博客地址:http://blog.csdn.net/xiao_jun_0820/article/category/2399621
放在flume根目录conf文件夹下的代理配置文件写法:
a1.sources = r1
a1.sinks = k1
a1.channels = c1a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path=hdfs://localhost:9000/user/hadoop/flume
a1.sinks.k1.hdfs.fileType=DataStream
a1.sinks.k1.hdfs.writeFormat=Text
a1.sinks.k1.hdfs.rollInterval=0
a1.sinks.k1.hdfs.rollSize=10240
a1.sinks.k1.hdfs.rollCount=0
a1.sinks.k1.hdfs.idleTimeout=60 # Use a channel which buffers events in memorya1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
先进到hadoop的根目录下启动HDFS (命令./sbin/start-dfs.sh)
然后开启终端启动上面的代理文件,开启另一个终端测试端口连接。
可以参考本博此文:http://my.oschina.net/u/2478308/blog/731838
写入成功后会在终端中显示例如FlumeData.1470365774656.tmp的文件,该文件会根据设置的时间去除.tmp后缀。
事项:
1、HDFS的写入路径为 hdfs://namenodepath:namenodeport/自定义用户目录/自定义数据存储目录。对应目录需要提前创建,代理启动写入时不会自己创建目录。
2、需要切换到有hdfs写入权限的用户。
3、dfs.fileType=DataStream hdfs.writeFormat=Text 使生成的文件可以读取。
4、flume写入hdfs后可以通过例如./bin/hdfs dfs -cat flume/FlumeData.1470365774656,查看hdfs中的文件内容。
5、可以连接http://localhost:50070中Utilities查看相关目录下的写入HDFS的文件。
转载于:https://my.oschina.net/u/2478308/blog/731882
测试Flume-1.6.0写入HDFS(Hadoop-2.7.2)的简单实例相关推荐
- Hive数据分析——Spark是一种基于rdd(弹性数据集)的内存分布式并行处理框架,比于Hadoop将大量的中间结果写入HDFS,Spark避免了中间结果的持久化...
转自:http://blog.csdn.net/wh_springer/article/details/51842496 近十年来,随着Hadoop生态系统的不断完善,Hadoop早已成为大数据事实上 ...
- Hadoop 2.0(YARN/HDFS)学习资料汇总
本文档整理了迄今为止Hadoop 2.0(包括YARN和HDFS2)相关的一些学习资料,包括文档.技术博客.Hadoop书籍等,欢迎大家补充,我将持续更新这个页面. 1. PDF资料 (1)" ...
- Flume 1.9.0用户指南
概述 系统要求 架构 数据流模型 复杂的流程 可靠性 可恢复性 设置 设置 agent 配置单个组件 将各个部分连接在一起 启动 agent 一个简单的例子 在配置文件中使用环境变量 记录原始数据 基 ...
- hadoop2.2.0 分布式存储hdfs完全分布式搭建及功能测试记录(一)----架构及原理介绍...
0.文档说明: 本文是围绕hadoop2.2的分布式文件系统hdfs进行分布式存储功能测试,形成的hdfs分布式存储功能测试报告,其中主要包括三大部分内容: 第一部分介绍了hdfs的基本原理: 第二部 ...
- Hhadoop-2.7.0中HDFS写文件源码分析(二):客户端实现(1)
一.综述 HDFS写文件是整个Hadoop中最为复杂的流程之一,它涉及到HDFS中NameNode.DataNode.DFSClient等众多角色的分工与合作. 首先上一段代码,客户端是如何写文件的: ...
- HBase建表高级属性,hbase应用案例看行键设计,HBase和mapreduce结合,从Hbase中读取数据、分析,写入hdfs,从hdfs中读取数据写入Hbase,协处理器和二级索引
1. Hbase高级应用 1.1建表高级属性 下面几个shell 命令在hbase操作中可以起到很到的作用,且主要体现在建表的过程中,看下面几个create 属性 1. BLOOMFILTER 默认是 ...
- 高可用性的HDFS—Hadoop分布式文件系统深度实践
<高可用性的HDFS-Hadoop分布式文件系统深度实践> 基本信息 作者: 文艾 王磊 出版社:清华大学出版社 ISBN:9787302282587 上架时间:2012-5-14 出版日 ...
- Logstash读取Kafka数据写入HDFS详解
强大的功能,丰富的插件,让logstash在数据处理的行列中出类拔萃 通常日志数据除了要入ES提供实时展示和简单统计外,还需要写入大数据集群来提供更为深入的逻辑处理,前边几篇ELK的文章介绍过利用lo ...
- java mapreduce 读hbase数据 写入hdfs 含maven依赖
mapreduce 读hbase数据 写入hdfs java代码如下 import com.google.common.collect.Lists; import java.io.FileInputS ...
- Flume 监控kafka主题写HDFS小结
Flume 监控kafka主题写HDFS小结 需求采集Flume采集kafka主题内容,往Hadoop集群上写HDFS,该机器没有安装Hadoop 这里的Flume版本是1.7.0,Hadoop版本是 ...
最新文章
- Java学习总结:25
- 第九周项目二-我的数组类
- golang 使用 http socks5 代理
- Springboot 连接数据库
- autojs定时可以选定日期吗_Excel工作表中的7个“一键完成”,你真的都了解、掌握吗?...
- php mysql增修删_PHP mysql PDO增、删、查、改
- 经典面试题(19):以下代码将输出的结果是什么?
- Linux tmux
- 实战MEF(4):搜索范围
- ea211css和cst,djm与ea211发动机对比
- html插入swf自动播放,html嵌入播放器,flv视频播放器 Flvplayer.swf 可自动播放参数说明...
- 项目经理的修炼,直面需求变更
- asp.net知识共享平台
- SolidWorks参数化设计中Excel的应用
- php报错_STORAGE_WRITE_ERROR_:./Application/Runtime/Cache/Admin/df12aa1edf6tt330187a6514aae4fda4.php
- win2016开启ntp_WindowsServer2016NTP服务端和客户端配置【NTP时间同步服务器】
- 基于SSM框架社交媒体实现
- php面试自我介绍结束语,面试自我介绍 结尾 社团招新面试自我介绍
- MAC格式化U盘/移动硬盘
- 安卓系统AOSP源码修改入门
热门文章
- LinkedList 注意事项
- IE 存在兼容元素归纳
- android 入门 (分析: 非匿名内部类 监听功能的实现)
- Gradle发布项目到 maven 之novoda/bintray-release(3)
- ASP.Net MVC-Web API使用Entity Framework时遇到Loop Reference
- 基于DevExpress XtraGrid控件实现的凭证式显示
- 几个阿里,美团,腾讯大佬的公众号!超级变态!
- module_param()函数
- redis内存数据的持久化方式
- -rw-r--r--@ what's @