我们生产常有将实时数据流与 Hive 维表 join 来丰富数据的需求,其中 Hive 表是分区表,业务上需要关联上 Hive 最新分区的数据。上周 Flink 1.12 发布了,刚好支撑了这种业务场景,我也将 1.12 版本部署后做了一个线上需求并上线。对比之前生产环境中实现方案,最新分区直接作为时态表提升了很多开发效率,在这里做一些小的分享。

  • Flink 1.12 前关联 Hive 最新分区方案

  • Flink 1.12 关联 Hive 最新分区表

  • 关联Hive最新分区 Demo

  • Flink SQL 开发小技巧

Flink 1.12 前关联 Hive 最新分区方案

在分区时态表出来之前,为了定期关联出最新的分区数据,通常要写 DataStream 程序,在 map 算子中实现关联 Hive 最新分区表的逻辑,得到关联打宽后的 DataStream 对象,通过将该 DataStream 对象转换成 Table 对象后,再进行后续的 SQL 业务逻辑加工。

StreamTableEnvironment tblEnv = StreamTableEnvironment.create(env, streamSettings);  DataStream<Tuple2<MasterBean, HiveDayIndexBean>> indexBeanStream = masterDataStream.map(new IndexOrderJoin());  

map 算子中的主要逻辑: 将 T+2 的维度数据与实时数据关联,返回 Tuple2<MasterBean, HiveDimBean> 数据,因为离线数仓出数一般在凌晨 3 点,有时候由于集群资源不稳定导致数据产出慢,业务对实时性要求也不高,所以这里用的是 T+2 的数据。

public class IndexOrderJoin extends RichMapFunction<MasterBean, Tuple2<MasterBean, HiveDimBean>> {        private Map<Integer, Map<String, HiveDimBean>> map = null;      Logger logger;        @Override      public void open(Configuration parameters) throws Exception {          logger = LoggerFactory.getLogger(Class.forName("com.hll.util.IndexOrderJoin"));          map = new HashMap<>();     }    public Tuple2<MasterBean, HiveDayIndexBean> map(MasterBean masterBean) {        if (map.get(masterBean.getReportDate() - 2) == null) {            //如果map里没有T+2的维表数据则查询一次Hive,并将结果存入线程级别map,所以保证Task维表数据是全的            logger.info("initial hive data : {}", masterBean.getReportDate());            map.put(masterBean.getReportDate() - 2, getHiveDayIndex(masterBean.getReportDate() - 2));        }        //将的kafka数据与hive join后返回打宽数据        return new Tuple2<>(masterBean, map.get(masterBean.getReportDate() - 2).get(masterBean.getGroupID()));    }

基于关联打宽后的 DataStream 创建视图,然后再做后续的 SQL 业务逻辑查询。

tblEnv.createTemporaryView("index_order_master", indexBeanStream); tblEnv.sqlUpdate("select group_id, group_name, sum(amt) from index_order_master  group by group_id, group_name"); tblEnv.execute("rt_aggr_master_flink");

可以看出,在没有支持 Hive 最新分区做时态表的时候,简单的一个 join 便涉及到DataStream、map 算子,程序的代码量和维护成本会是比较大的。

Flink 1.12 关联 Hive 最新分区表

Flink 1.12 支持了 Hive 最新的分区作为时态表的功能,可以通过 SQL 的方式直接关联 Hive 分区表的最新分区,并且会自动监听最新的 Hive 分区,当监控到新的分区后,会自动地做维表数据的全量替换。通过这种方式,用户无需编写 DataStream 程序即可完成 Kafka 流实时关联最新的 Hive 分区实现数据打宽。

图片出自徐榜江(雪尽)在 FFA 2020 上的分享

  • 参数解释

■ streaming-source.enable 开启流式读取 Hive 数据。

■ streaming-source.partition.include

1.latest 属性: 只读取最新分区数据。 2.all: 读取全量分区数据 ,默认值为 all,表示读所有分区,latest 只能用在 temporal join 中,用于读取最新分区作为维表,不能直接读取最新分区数据。

■ streaming-source.monitor-interval 监听新分区生成的时间、不宜过短 、最短是1 个小时,因为目前的实现是每个 task 都会查询 metastore,高频的查可能会对metastore 产生过大的压力。需要注意的是,1.12.1 放开了这个限制,但仍建议按照实际业务不要配个太短的 interval。

■ streaming-source.partition-order 分区策略
主要有以下 3 种,其中最为推荐的是 partition-name:
1.partition-name 使用默认分区名称顺序加载最新分区 2.create-time 使用分区文件创建时间顺序 3.partition-time 使用分区时间顺序

  • 具体配置

使用 Hive 最新分区作为 Tempmoral table 之前,需要设置必要的两个参数:

'streaming-source.enable' = 'true',  'streaming-source.partition.include' = 'latest'

我们可以再创建一张基于 Hive 表的新表,在 DDL 的 properties 里指定这两个参数,也可以使用 SQL Hint 功能,在使用时通过 SQL Hint 指定 query 中表的参数。以使用 SQL Hint 为例,我们需要用 /* option */  指定表的属性参数,例如:

SELECT * FROM hive_table /*+ OPTIONS('streaming-source.enable'='true','streaming-source.partition.include' = 'latest') */;  

我们需要显示地开启 SQL Hint 功能, 在 SQL Client 中可以用 set 命令设置:


set table.dynamic-table-options.enabled= true;

在程序代码中,可以 通过 TableConfig 配置:

tblEnv.getConfig().getConfiguration().setString("table.dynamic-table-options.enabled", "true");  

Flink 官网也给出了一个详细的例子,这里也简单说明下。


--将方言设置为hive以使用hive语法  SET table.sql-dialect=hive;      CREATE TABLE dimension_table (        product_id STRING,        product_name STRING,        unit_price DECIMAL(10, 4),        pv_count BIGINT,        like_count BIGINT,        comment_count BIGINT,        update_time TIMESTAMP(3),        update_user STRING,        ...      ) PARTITIONED BY (pt_year STRING, pt_month STRING, pt_day STRING) TBLPROPERTIES (        -- 在创建hive时态表时指定属性        'streaming-source.enable' = 'true',        'streaming-source.partition.include' = 'latest',        'streaming-source.monitor-interval' = '12 h',        'streaming-source.partition-order' = 'partition-name',  -- 监听partition-name最新分区数据    );      --将方言设置为default以使用flink语法  SET table.sql-dialect=default;      CREATE TABLE orders_table (        order_id STRING,        order_amount DOUBLE,        product_id STRING,        log_ts TIMESTAMP(3),        proctime as PROCTIME()      ) WITH (...);      --将流表与hive最新分区数据关联  SELECT * FROM orders_table AS order     JOIN dimension_table FOR SYSTEM_TIME AS OF o.proctime AS dim    ON order.product_id = dim.product_id;

关联 Hive 最新分区 Demo

  • 工程依赖

将 Demo 工程中使用到的 connector 和 format 依赖贴到这里,方便大家本地测试时参考。

<dependencies>            <dependency>          <groupId>mysql</groupId>          <artifactId>mysql-connector-java</artifactId>          <version>${mysql.version}</version>          <!--<scope>provided</scope>-->      </dependency>        <dependency>          <groupId>org.apache.flink</groupId>          <artifactId>flink-connector-jdbc_2.12</artifactId>          <version>${flink.version}</version>      </dependency>       <dependency>          <groupId>org.apache.flink</groupId>          <artifactId>flink-sql-connector-kafka_2.11</artifactId>          <version>${flink.version}</version>          <scope>provided</scope>      </dependency>        <dependency>          <groupId>org.apache.flink</groupId>          <artifactId>flink-json</artifactId>          <version>${flink.version}</version>          <scope>provided</scope>      </dependency>        <dependency>          <groupId>org.apache.flink</groupId>          <artifactId>flink-connector-hive_${scala.binary.version}</artifactId>          <version>${flink.version}</version>          <scope>provided</scope>      </dependency>        <dependency>          <groupId>org.apache.hive</groupId>          <artifactId>hive-exec</artifactId>          <version>3.1.0</version>      </dependency>    </dependencies>  
  • 在 Sql Client 中注册 HiveCatalog:

vim conf/sql-client-defaults.yaml catalogs:   - name: hive_catalog     type: hive     hive-conf-dir: /disk0/soft/hive-conf/ #该目录需要包hive-site.xml文件  
  • 创建 Kafka 表

CREATE TABLE hive_catalog.flink_db.kfk_fact_bill_master_12 (      master Row<reportDate String, groupID int, shopID int, shopName String, action int, orderStatus int, orderKey String, actionTime bigint, areaName String, paidAmount double, foodAmount double, startTime String, person double, orderSubType int, checkoutTime String>,  proctime as PROCTIME()  -- PROCTIME用来和Hive时态表关联  ) WITH (   'connector' = 'kafka',   'topic' = 'topic_name',   'format' = 'json',   'properties.bootstrap.servers' = 'host:9092',   'properties.group.id' = 'flinkTestGroup',   'scan.startup.mode' = 'timestamp',   'scan.startup.timestamp-millis' = '1607844694000'  );  

Flink 事实表与 Hive 最新分区数据关联


dim_extend_shop_info 是 Hive 中已存在的表,所以我们下面用 table hint 动态地开启维表参数。

CREATE VIEW IF NOT EXISTS hive_catalog.flink_db.view_fact_bill_master as  SELECT * FROM   (select t1.*, t2.group_id, t2.shop_id, t2.group_name, t2.shop_name, t2.brand_id,        ROW_NUMBER() OVER (PARTITION BY groupID, shopID, orderKey ORDER BY actionTime desc) rn      from hive_catalog.flink_db.kfk_fact_bill_master_12 t1         JOIN hive_catalog.flink_db.dim_extend_shop_info        /*+ OPTIONS('streaming-source.enable'='true',             'streaming-source.partition.include' = 'latest',      'streaming-source.monitor-interval' = '1 h',    'streaming-source.partition-order' = 'partition-name') */ FOR SYSTEM_TIME AS OF t1.proctime AS t2 --时态表  ON t1.groupID = t2.group_id and t1.shopID = t2.shop_id      where groupID in (202042)) t  where t.rn = 1  
  • 结果数据 Sink 到 MySQL

CREATE TABLE hive_catalog.flink_db_sink.rt_aggr_bill_food_unit_rollup_flk (        report_date String,        group_id int,        group_name String,        shop_id int,        shop_name String,        brand_id BIGINT,        brand_name String,        province_name String,        city_name String,        foodcategory_name String,        food_name String,        food_code String,        unit String,        rt_food_unit_cnt double,        rt_food_unit_amt double,        rt_food_unit_real_amt double,      PRIMARY KEY (report_date, group_id, shop_id, brand_id, foodcategory_name, food_name, food_code, unit) NOT ENFORCED) WITH (      'connector' = 'jdbc',       'url' = 'jdbc:mysql://host:4400/db_name?autoReconnect=true&useSSL=false',      'table-name' = 'table-name',       'username' = 'username',       'password' = 'password'  )  insert into hive_catalog.flink_db_sink.rt_aggr_bill_food_unit_rollup_flk  select reportDate, group_id, group_name, shop_id, shop_name, brand_id, brand_name, province_name, city_name    , SUM(foodNumber)  rt_food_cnt     , sum(paidAmount)  rt_food_amt     , sum(foodAmount)  rt_food_real_amt     from  hive_catalog.flink_db.view_fact_bill_master     group by reportDate, group_id, group_name, shop_id, shop_name, brand_id, brand_name, province_name, city_name;
  • ORC format 的 BUG

在读取 ORC format 的表时,无法读取数据,我也向社区提了一个 Jira: https://issues.apache.org/jira/browse/FLINK-20576,读取其他 format 的表不存在问题,本地测试了读取 parquet 和 csv 都是正常的。

总结下上面的代码,只需通过 Flink SQL 便能实现 Kafka 实时数据流关联最新的 Hive 分区。同时我们结合了 HiveCatalog,可以复用 hive 的表和已经创建过的 kafka source 表,MySql sink 表,使得程序只需要关心具体的业务逻辑,无需关注 source/sink 表的创建,提高了代码的复用性以及可读性。对比之前的方案,纯 SQL 的开发显然降低了开发维护成本和用户门槛。

Flink SQL 开发小技巧

  • 结合 Hive catalog,持久化 source 与 sink 表,减少重复建表,使得代码只需关注逻辑 SQL。

  • 结合 Flink 视图,组织好业务加工逻辑,提高 SQL 的可读性。

  • 利用 SQL Client 调试 SQL,程序没问题后再打包上线,而不是直接提交到集群做测试。


专注大数据技术、架构、实战

关注我,带你不同角度看数据架构

戳我,下载嘉宾分享 PDF!

本文分享自微信公众号 - 大数据每日哔哔(bb-bigdata)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

​实战:Flink 1.12 维表 Join Hive 最新分区功能体验相关推荐

  1. mysql表分区join_​实战:Flink 1.12 维表 Join Hive 最新分区功能体验

    ​实战:Flink 1.12 维表 Join Hive 最新分区功能体验 余东@哗啦啦 Flink 中文社区 我们生产常有将实时数据流与 Hive 维表 join 来丰富数据的需求,其中 Hive 表 ...

  2. Flink 实时计算 - 维表 Join 解读

    Flink 实时计算 - 维表 Join 解读 前言 Flink 1.9 版本可以说是一个具有里程碑意义的版本,其内部合入了很多 Blink Table/SQL 方面的功能,同时也开始增强 Flink ...

  3. Flink SQL 功能解密系列 —— 维表 JOIN 与异步优化

    2019独角兽企业重金招聘Python工程师标准>>> 引子 流计算中一个常见的需求就是为数据流补齐字段.因为数据采集端采集到的数据往往比较有限,在做数据分析之前,就要先将所需的维度 ...

  4. flink sql 知其所以然(十四):维表 join 的性能优化之路(上)附源码

    看了那么多的技术文,你能明白作者想让你在读完文章后学到什么吗? 大数据羊说__的文章会让你明白 大数据羊说 用数据提升美好事物发生的概率~ 43篇原创内容 公众号 博主会阐明博主期望本文能给小伙伴们带 ...

  5. Flink实时数据处理实践经验(Flink去重、维表关联、定时器、双流join)

    Flink实时数据处理实践经验 文章目录 Flink实时数据处理实践经验 1. 数据输入与预处理 2. 实时数据处理 3. 实时数仓架构 4. 优化方案 Java.大数据开发学习要点(持续更新中-) ...

  6. flink中维表Join几种常见方式总结

    flink中维表Join 需求如下: 一个主流中数据是用户信息,字段包括用户姓名.城市id: 维表是城市数据,字段包括城市ID.城市名称. 要求用户表与城市表关联,输出为:用户名称.城市ID.城市名称 ...

  7. Blink中的维表join及优化

    我觉得本篇博客算是性能优化的一个补充,性能优化篇: Blink性能优化配置及原理 文章目录 双流john 维表join以及优化 维表join开启cache策略 缓存未命中 key Distribute ...

  8. 阿里云流计算中维表join VS 流join

    最近业务上使用blink进行清洗数据,使用到了双流join和维表join,今天有同学问我流join和维表join有什么区别.在此我做个简单的说明,描述不对的地方,欢迎大家纠正,后面补充. 流式计算过程 ...

  9. hive分区用2个字段有何限制_[特性]Hive动态分区功能使用

    [特性]Hive动态分区功能使用 2016-01-31 21:40 说明 Hive有两种分区,一种是静态分区,也就是普通的分区.另一种是动态分区.动态分区在数据导入时,会根据具体的字段值自行决定导入, ...

最新文章

  1. 机器学习中的一些概念
  2. 哈工大导师禁止实验室硕士出去实习,称「实习就像和35岁渣男试婚」,你怎么看?...
  3. selenium多个窗口
  4. Elastic 使用Heartbeat监测服务运行状态
  5. nginx php返回500错误,nginx环境thinkphp,500错误
  6. PHP序列化与反序列化(__sleep与__wakeup)
  7. Bitfinex推出ETH 2.0质押服务
  8. HDU 1085 Holding Bin-Laden Captive!
  9. ★LeetCode(175)——组合两个表(MySQL)
  10. iOS searchbar拼音和汉字搜索全国城市
  11. python编辑器是什么_python开发用什么编辑器
  12. Clojure 学习入门(8)- 连接mongodb
  13. BGP选择路由的策略
  14. hashmap java 排序_Java 对HashMap进行排序的三种常见方法
  15. 佳蓝php智能应答系统|在线客服 v1.0,佳蓝PHP智能应答系统|在线客服 v1.0
  16. 穷建站(一):申请免费的tk顶级域名
  17. ssm+微信小程序基于小程序的医院预约挂号系统毕业设计源码260839
  18. verdi/debussy的快捷键 以及基本操作
  19. nginx代理MySQL实现数据库远程办公
  20. 思维导图学习法 让孩子学习不再吃力

热门文章

  1. 商桥物流完成达晨创投领投2.5亿元A+轮融资,创建立体化零担物流网络
  2. Django系列:(1)PyCharm下创建并运行我们的第一个Django工程
  3. Tiny之7*24集群服务方案
  4. 北京大学2016年高等代数与解析几何考研试题
  5. centOS 6.0无法运行dump指令的解决方法
  6. Oracle系列:Oracle RAC集群体系结构
  7. 在Red Hat或CentOS上安装 MongoDB-4.x 社区版
  8. TypeScript 类(Class)
  9. Linux基本命令 -- grep参数说明及常用用法
  10. 分布式事物框架--EasyTransaction的入门介绍