Apache Flume的介绍安装及简单案例
概述
Flume 是 一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。Flume 的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume 在删除自己缓存的数据。
Flume 支持定制各类数据发送方,用于收集各类型数据;同时,Flume 支持定制各种数据接受方,用于最终存储数据。一般的采集需求,通过对 flume 的简单配置即可实现。针对特殊场景也具备良好的自定义扩展能力。因此,flume 可以适用于大部分的日常数据采集场景。
运行机制
Flume 系统中核心的角色是 agent,agent 本身是一个 Java 进程,一般运行在日志收集节点。
每一个 agent 相当于一个数据传递员,内部有三个组件:
- Source:采集源,用于跟数据源对接,以获取数据;
- Sink:下沉地,采集数据的传送目的,用于往下一级 agent 传递数据或者往最终存储系统传递数据;
- Channel:agent 内部的数据传输通道,用于从 source 将数据传递到 sink;
在整个数据的传输的过程中,流动的是 event,它是 Flume 内部数据传输的最基本单元。event 将传输的数据进行封装。如果是文本文件,通常是一行记录,event 也是事务的基本单位。event 从 source,流向 channel,再到 sink,本身为一个字节数组,并可携带 headers(头信息)信息。event 代表着一个数据的最小完整单元,从外部数据源来,向外部的目的地去。
一个完整的 event 包括:event headers、event body、event 信息,其中event 信息就是 flume 收集到的日记记录。
Flume 采集系统结构图
简单结构(单个agent采集数据)
复杂结构(多级agent之间串联)
Flume的安装部署
安装
1,上传安装包到数据源所在节点
2,解压安装包 tar -zxvf apache-flume-xxxx-bin.tar.gz
采集方案部署
1,根据数据采集需求 配置采集方案,描述在conf文件夹 配置文件中(文件名可任意自定义)
2,指定采集方案配置文件,在相应的节点上启动 flume agent
简单方案部署:
1,采集文件目录到HDFS:
需求:服务器的某特定目录下,会不断产生新的文件,每当有新文件出现,就需要把文件采集到 HDFS 中去
根据需求,首先定义以下 3 大要素:
- 采集源,即 source——监控文件目录 : spooldir
- 下沉目标,即 sink——HDFS 文件系统 : hdfs sink
- source 和 sink 之间的传递通道——channel,可用 file channel 也可以用内存 channel
配置文件(spooldir-hdfs.conf)编写:
# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source ##注意:不能往监控目中重复丢同名文件 a1.sources.r1.type = spooldir a1.sources.r1.spoolDir = /root/logs2 a1.sources.r1.fileHeader = true# Describe the sink a1.sinks.k1.type = hdfs a1.sinks.k1.channel = c1 a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M/ a1.sinks.k1.hdfs.filePrefix = events- a1.sinks.k1.hdfs.round = true a1.sinks.k1.hdfs.roundValue = 10 a1.sinks.k1.hdfs.roundUnit = minute a1.sinks.k1.hdfs.rollInterval = 3 a1.sinks.k1.hdfs.rollSize = 20 a1.sinks.k1.hdfs.rollCount = 5 a1.sinks.k1.hdfs.batchSize = 1 a1.sinks.k1.hdfs.useLocalTimeStamp = true #生成的文件类型,默认是Sequencefile,可用DataStream,则为普通文本 a1.sinks.k1.hdfs.fileType = DataStream# Use a channel which buffers events in memory a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
然后启动
cd /export/servers/flume/ bin/flume-ng agent -c ./conf -f ./conf/spooldir-hdfs.conf -n a1 -Dflume.root.logger=INFO,console
这时,如果这个服务器节点下/root/logs2文件夹内有新文件产生,就会上传到HDFS上去。(当然前提你得启动hadoop的HDFS集群)
2,采集文件到HDFS
需求:比如业务系统使用 log4j 生成的日志,日志内容不断增加,需要把追加到日志文件中的数据实时采集到HDFS
根据需求,首先定义以下 3 大要素
- 采集源,即 source——监控文件内容更新 : exec 'tail -F file'
- 下沉目标,即 sink——HDFS 文件系统 : hdfs sink
- Source 和 sink 之间的传递通道——channel,可用 file channel 也可以用内存 channel
配置文件(tail-hdfs.conf)编写:
# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = exec a1.sources.r1.command = tail -F /root/logs/test.log a1.sources.r1.channels = c1# Describe the sink a1.sinks.k1.type = hdfs a1.sinks.k1.channel = c1 a1.sinks.k1.hdfs.path = /flume/tailout/%y-%m-%d/%H-%M/ a1.sinks.k1.hdfs.filePrefix = events- a1.sinks.k1.hdfs.round = true a1.sinks.k1.hdfs.roundValue = 10 a1.sinks.k1.hdfs.roundUnit = minute a1.sinks.k1.hdfs.rollInterval = 3 a1.sinks.k1.hdfs.rollSize = 20 a1.sinks.k1.hdfs.rollCount = 5 a1.sinks.k1.hdfs.batchSize = 1 a1.sinks.k1.hdfs.useLocalTimeStamp = true #生成的文件类型,默认是Sequencefile,可用DataStream,则为普通文本 a1.sinks.k1.hdfs.fileType = DataStream# Use a channel which buffers events in memory a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
然后启动
cd /export/servers/flume/ bin/flume-ng agent -c conf -f conf/tail-hdfs.conf -n a1
参数解析
rollInterval 默认值:30 HDFS sink 间隔多长将临时文件滚动成最终目标文件,单位:秒; 如果设置成 0,则表示不根据时间来滚动文件; 注:滚动(roll)指的是,hdfs sink 将临时文件重命名成最终目标文件,并新打开一个临时文件来写入数据。rollSize 默认值:1024 当临时文件达到该大小(单位:bytes)时,滚动成目标文件; 如果设置成 0,则表示不根据临时文件大小来滚动文件。rollCount 默认值:10 当 events 数据达到该数量时候,将临时文件滚动成目标文件; 如果设置成 0,则表示不根据 events 数据来滚动文件。round 默认值:false 是否启用时间上的“舍弃”,这里的“舍弃”,类似于“四舍五入”。roundValue 默认值:1 时间上进行“舍弃”的值;roundUnit 默认值:seconds 时间上进行"舍弃"的单位,包含:second,minute,hour
控制文件在hdfs上以何种方式滚动 a1.sinks.k1.hdfs.rollInterval = 3 根据时间间隔滚动 3s a1.sinks.k1.hdfs.rollSize = 20 根据文件大小滚动 a1.sinks.k1.hdfs.rollCount = 5 根据events数量控制滚动如果以上三个属性都有值 谁先满足谁触发滚动 若要求只按照某个属性滚动,只要把其他的设置为0 a1.sinks.k1.hdfs.rollInterval = 60 a1.sinks.k1.hdfs.rollSize = 0 a1.sinks.k1.hdfs.rollCount = 0 ------------------------------------------ 控制文件夹的滚动方式 如果是舍弃10分钟 意味着 10分钟一个目录 a1.sinks.k1.hdfs.round = true 是否开启时间上的舍弃 a1.sinks.k1.hdfs.roundValue = 10 a1.sinks.k1.hdfs.roundUnit = minute
转载于:https://www.cnblogs.com/blazeZzz/p/9680612.html
Apache Flume的介绍安装及简单案例相关推荐
- MAC下 Intellij IDEA GO语言插件安装及简单案例
MAC下 Intellij IDEA GO语言插件安装及简单案例 GoLang专有IDE GoLand : http://www.jetbrains.com/go/ 下载地址 Intellij IDE ...
- php mysql环境 xp_MySQL_XP环境下安装apache+php+mysql,Apache和mysql的安装较简单,主 - phpStudy...
XP环境下安装apache+php+mysql Apache和mysql的安装较简单,主要是安装前请保证80端口未被占用 比如 iis 以前安装过的apache mysql 先停止运行phpmyadm ...
- flume java_Flume的安装及简单的使用(一)
1.Flume简介 Flume是Cloudera提供的一个高可用.高可靠.分布式的海量日志采集.聚合和传输的系统.Flume支持在日志系统中定制各类数据发送方用于收集数据,同时Flume提供对数据的简 ...
- sqlite配置下载安装教程+简单案例
第一步: 首先去官网下载:https://www.sqlite.org/download.html 下载完成 第二步: 全部解压 第三步: 我的电脑右击->属性->高级系统设置->高 ...
- apache ab测试介绍
apache ab测试介绍 安装ab命令 环境为ubuntu16.04.2 LTS,安装的命令为: sudo apt-get install apache2-utils 使用说明 格式为:ab [op ...
- python性能测试可视化_locust安装及其简单使用----基于python的性能测试工具
1.已安装python3.6 ,安装步骤略 pip安装: pip install locust 检查locust是否安装成功 locust --help 2.安装 pyzmq If you inten ...
- 分布式日志收集系统Apache Flume的设计详细介绍
问题导读: 1.Flume传输的数据的基本单位是是什么? 2.Event是什么,流向是怎么样的? 3.Source:完成对日志数据的收集,分成什么打入Channel中? 4.Channel的作用是什么 ...
- [python知识] 爬虫知识之BeautifulSoup库安装及简单介绍
一. 前言 在前面的几篇文章中我介绍了如何通过Python分析源代码来爬取博客.维基百科InfoBox和图片,其文章链接如下: [python学习] 简单爬取维基百科程 ...
- Flume学习笔记(一)安装与简单使用
本文环境如下: 操作系统:CentOS 7.2.1511 64位 Flume版本:1.6.0 1. 系统需求 Flume需要Java 1.6及以上(推荐1.7),对Agent监控目录的读写权限. 2. ...
- Linner介绍、安装及简单Demo
Linner前端项目阐述 本篇文章目录 Linner前端项目阐述 项目结构 项目阐述 组件 图片.CSS.JS文件合并 仓库管理 实时监控文件变化并编译 config.yml文件配置详解 linner ...
最新文章
- CSS:CSS+DIV布局网页
- python t检验_A or B A/B测试-python独立双样本t检验
- Doctype的作用
- matplotlib绘图_使用matplotlib库绘图
- [BZOJ] 3231: [Sdoi2008]递归数列
- fullpage常用配置
- NVM区数据备份机制
- js_单例模式制作无限弹窗(3s内销毁)
- CrossOver Mac2022双系统虚拟机软件
- 用Squid和DNSPod打造自己的CDN详细教程
- 华硕固件无线打印机服务器设置,华硕路由器远程打印机LPD设置-Windows.pdf
- Codeforces Round #727 (Div. 2) B. Love Song
- win10可以上网但显示无法连接到Internet
- 【强化学习】《Easy RL》- Q-learning - CliffWalking(悬崖行走)代码解读
- 「兔了个兔」玉兔踏青,纯CSS实现瑞兔日历(附源码)
- SVPWM的一些参数
- 最美的公式:你也能懂的麦克斯韦方程组(微分篇)
- C++ vector去重 交集 并集
- Delphi 获取菜单高度、标题栏高度、边框高度函数GetSystemMetrics
- 嵌入式软件工程师能做什么!需要哪些专业技能!这些你了解吗?
热门文章
- 如何识别计算机病毒,怎样识别计算机病毒
- yolov3 python接口_darknetyolov3调用Python接口来检测和保存批处理图像,DarknetYoloV3,python,进行,批量,图片,并...
- Markdown(四)——绘图工具mermaid之状态图stateDiagram
- Const限定符与C++11Constexpr的区别
- Android逆向系列之ARM语法篇
- 理解与学习linux 文件系统的目录结构
- AC日记——可能的路径 51nod 1247
- MySQL生产库主从重新同步操作注意事项
- Android学习系列(7)--App轮询服务器消息
- EF的表连接方法Include() - nlh774