业务数据采集_零点漂移处理方法(Flume+Kafka+HDFS)
最近做了一个业务数据采集,总体架构就是
Flume-taildir source + kafka channel =>
Kafka =>
Flume-kafka source + memory channel + hdfs sink (标红的地方就是我们处理零点漂移的位置)
需求:采集用户行为数据到HDFS,以天为单位分文件.
分析:因为传输数据需要时间,可能23:59:58的日志,到hdfs已经第二天了.所以一不小心,就漂移了.
如果不考虑零点漂移,可以不使用kafka souce + memory channel的组合,直接使用kafka channel.
但是使用kafka channel有一个缺陷,就是没法写拦截器!
因为kafka channel读取数据,不需要有source端,但是拦截器是绑在source端上的,没有source就写不了拦截器.
在这里我就使用了一个拦截器,在每条event的Head上加上时间标记.
这样做有什么依据吗? 这合理吗?
那又要使用秘籍了! 直接flume.apache.org看看
这是flume官网上hdfs sink中的一行note.可以看到,要在header上加个时间戳!!!
ok,有官方撑腰,这我就不怕了,直接IDEA 启动!!!
先来说一下flume拦截器的书写点
首先实现Interceptor接口,然后重写其中方法,别忘记还要写一个静态内部类Builder!!
@Overridepublic Event intercept(Event event) {Map<String, String> headers = event.getHeaders();String log = new String(event.getBody(), StandardCharsets.UTF_8);JSONObject jsonObject = JSONObject.parseObject(log);String ts = jsonObject.getString("ts");headers.put("timestamp", ts);return event;}
重要的就是这个单个Event的intercept方法,毕竟另一个对List<Event>的方法其实就是反复调用这个
首先要先拿到event的header,然后将json格式的日志文件解析出来,将名为"ts"(timestamp)对应的数据添加到header中,即可!
现在来一个完整的拦截器代码~~
import com.alibaba.fastjson.JSONObject;
import org.apache.flume.Context;
import org.apache.flume.Event;
import org.apache.flume.interceptor.Interceptor;import java.nio.charset.StandardCharsets;
import java.util.List;
import java.util.Map;public class TimeStampInterceptor implements Interceptor {@Overridepublic void initialize() {}@Overridepublic Event intercept(Event event) {Map<String, String> headers = event.getHeaders();String log = new String(event.getBody(), StandardCharsets.UTF_8);JSONObject jsonObject = JSONObject.parseObject(log);String ts = jsonObject.getString("ts");headers.put("timestamp", ts);return event;}@Overridepublic List<Event> intercept(List<Event> events) {for (Event event : events) {intercept(event);}return events;}@Overridepublic void close() {}public static class Builder implements Interceptor.Builder {@Overridepublic Interceptor build() {return new TimeStampInterceptor();}@Overridepublic void configure(Context context) {}}
}
ok!这样就解决了咱零点漂移的问题!
业务数据采集_零点漂移处理方法(Flume+Kafka+HDFS)相关推荐
- flume+kafka+hdfs详解
flume架构图 单节点flume配置 flume-1.4.0 启动flume bin/flume-ng agent --conf ./conf -f conf/flume-conf.propert ...
- 数据仓库:如何解决ODS数据零点漂移问题
本篇文章讲解的是从业务库同步数据至数仓导致的零点漂移,查看flume+kafka同步数据导致的零点漂移参考该文章:业务数据采集_零点漂移处理方法(Flume+Kafka+HDFS) 一.数据零点漂移概 ...
- 零点漂移、零点补偿问题
零点漂移是什么意思_零点漂移怎么克服 来源:网络整理 作者 关键词:零点漂移放大电路 零点漂移概念(零漂)可描述为:指当放大电路输入信号为零(即没有交流电输入)时,由于受温度变化,电源电压不稳等因素的 ...
- 零点漂移 时间戳拦截器
零点漂移 原因:Sink端写入到HDFS时,如果按照时间生成文件,在未指定具体时间的情况下,会读取服务器时间作为创建文件的依据,从而导致日志产生错误 假设按天生成文件,一个文件在23:59:59产生, ...
- Flume实战-解决零点漂移-时间戳拦截器
对于日志,flume sink写入HDFS时,如果按照时间生成文件,在没有明确指定时间的情况下,会读取服务器时间作为创建文件的依据,这会导致日志的实际生成日期与文件不符. 这种情况下,可以通过拦截器在 ...
- 数据仓库之电商数仓-- 2、业务数据采集平台
目录 一.电商业务简介 1.1 电商业务流程 1.2 电商常识(SKU.SPU) 1.3 电商系统表结构 1.3.1 活动信息表(activity_info) 1.3.2 活动规则表(activity ...
- 电子电路复习之零点漂移现象
零点漂移现象(温漂):元件参数的变化.老化.电源电压波动.温度变化等等因素都会引起输出电压的变化,在阻容耦合电路中,漂移电压都会降落在耦合电容上,而在直接耦合的放大电路中,漂移电压则会传递到下一级进一 ...
- 5.1数据采集通道搭建之业务数据采集通道搭建
数据采集通道搭建之业务数据采集通道搭建 1.数据同步策略分析 1.1常见的数据同步策略 我们每天都需要从数据库中将业务数据同步到数据仓库当中,对于离线数仓来说,各项指标计算的周期一般为天,因此,我们数 ...
- 压力传感器零点漂移与零点漂移补偿
压力传感器零点漂移是指在规定的测试条件下,当输入压力为零时,输出值随时间正向.负向或上.下跳动超过规定指标.为了防潮.防雨水.防有害气体的侵蚀,压力传感器的电路板是按密封结构设计和制造的.如果没有把表 ...
最新文章
- 777后无效 执行chmod_厉害了!南航777机队和南航空姐在人民大会堂接受表彰!
- java-静态-单例-继承
- mysql经常问到的面试题_20道BAT面试官最喜欢问的JVM+MySQL面试题(含答案解析)...
- 华为mate9 android p,安卓手机为什么越用越卡?华为Mate9搭载EMUI 5.0告别卡顿
- 两种不同字符串比较方法的性能对比
- 050、动手实验:使用 jstat 摸清线上系统的JVM运行状况
- 政府会计制度——行政事业单位会计科目和报表(2019年1月1日施行)
- 机器学习优化算法:牛顿法以及海森矩阵
- java 农历公历转换_java 版本 农历 公历 转换
- AutoCad多层嵌套图块的颜色显示规则
- C++按键模拟/刷屏器
- Java-你知道String为什么不可变吗?
- 用javascript和jquery部分知识实现的打地鼠小游戏
- 景深决定照相机什么特性_相机的景深是什么
- 随笔-自控概率的大转盘抽奖
- 佟年计算机大赛,《亲爱的,热爱的》热播,吴白见到佟年第一眼,这眼神亮了!...
- Could not load dynamic library ‘libcusolver.so.11‘; dlerror: libcusolver.so.11: cannot open shared o
- 生活就是这样充满一些小插曲的2020.11.21日记
- 学生公寓管理系统-python+Django+Mysql(附视图代码)
- ThinkCMF知识点汇总