​实战:Flink 1.12 维表 Join Hive 最新分区功能体验

余东@哗啦啦 Flink 中文社区

我们生产常有将实时数据流与 Hive 维表 join 来丰富数据的需求,其中 Hive 表是分区表,业务上需要关联上 Hive 最新分区的数据。上周 Flink 1.12 发布了,刚好支撑了这种业务场景,我也将 1.12 版本部署后做了一个线上需求并上线。对比之前生产环境中实现方案,最新分区直接作为时态表提升了很多开发效率,在这里做一些小的分享。

Flink 1.12 前关联 Hive 最新分区方案

Flink 1.12 关联 Hive 最新分区表

关联Hive最新分区 Demo

Flink SQL 开发小技巧

Flink 1.12 前关联 Hive 最新分区方案

在分区时态表出来之前,为了定期关联出最新的分区数据,通常要写 DataStream 程序,在 map 算子中实现关联 Hive 最新分区表的逻辑,得到关联打宽后的 DataStream 对象,通过将该 DataStream 对象转换成 Table 对象后,再进行后续的 SQL 业务逻辑加工。

StreamTableEnvironment tblEnv = StreamTableEnvironment.create(env, streamSettings);

DataStream> indexBeanStream = masterDataStream.map(new IndexOrderJoin());

map 算子中的主要逻辑: 将 T+2 的维度数据与实时数据关联,返回 Tuple2 数据,因为离线数仓出数一般在凌晨 3 点,有时候由于集群资源不稳定导致数据产出慢,业务对实时性要求也不高,所以这里用的是 T+2 的数据。

public class IndexOrderJoin extends RichMapFunction> {

private Map> map = null;

Logger logger;

@Override

public void open(Configuration parameters) throws Exception {

logger = LoggerFactory.getLogger(Class.forName("com.hll.util.IndexOrderJoin"));

map = new HashMap<>();

}

public Tuple2 map(MasterBean masterBean) {

if (map.get(masterBean.getReportDate() - 2) == null) {

//如果map里没有T+2的维表数据则查询一次Hive,并将结果存入线程级别map,所以保证Task维表数据是全的

logger.info("initial hive data : {}", masterBean.getReportDate());

map.put(masterBean.getReportDate() - 2, getHiveDayIndex(masterBean.getReportDate() - 2));

}

//将的kafka数据与hive join后返回打宽数据

return new Tuple2<>(masterBean, map.get(masterBean.getReportDate() - 2).get(masterBean.getGroupID()));

}

基于关联打宽后的 DataStream 创建视图,然后再做后续的 SQL 业务逻辑查询。

tblEnv.createTemporaryView("index_order_master", indexBeanStream); tblEnv.sqlUpdate("select group_id, group_name, sum(amt) from index_order_master group by group_id, group_name");

tblEnv.execute("rt_aggr_master_flink");

可以看出,在没有支持 Hive 最新分区做时态表的时候,简单的一个 join 便涉及到DataStream、map 算子,程序的代码量和维护成本会是比较大的。

Flink 1.12 关联 Hive 最新分区表

Flink 1.12 支持了 Hive 最新的分区作为时态表的功能,可以通过 SQL 的方式直接关联 Hive 分区表的最新分区,并且会自动监听最新的 Hive 分区,当监控到新的分区后,会自动地做维表数据的全量替换。通过这种方式,用户无需编写 DataStream 程序即可完成 Kafka 流实时关联最新的 Hive 分区实现数据打宽。

图片出自徐榜江(雪尽)在 FFA 2020 上的分享

参数解释

■ streaming-source.enable 开启流式读取 Hive 数据。

■ streaming-source.partition.include

1.latest 属性: 只读取最新分区数据。

2.all: 读取全量分区数据 ,默认值为 all,表示读所有分区,latest 只能用在 temporal join 中,用于读取最新分区作为维表,不能直接读取最新分区数据。

■ streaming-source.monitor-interval 监听新分区生成的时间、不宜过短 、最短是1 个小时,因为目前的实现是每个 task 都会查询 metastore,高频的查可能会对metastore 产生过大的压力。需要注意的是,1.12.1 放开了这个限制,但仍建议按照实际业务不要配个太短的 interval。

■ streaming-source.partition-order 分区策略

主要有以下 3 种,其中最为推荐的是 partition-name:

1.partition-name 使用默认分区名称顺序加载最新分区

2.create-time 使用分区文件创建时间顺序

3.partition-time 使用分区时间顺序

具体配置

使用 Hive 最新分区作为 Tempmoral table 之前,需要设置必要的两个参数:

1. 'streaming-source.enable' = 'true',

1. 'streaming-source.partition.include' = 'latest'

我们可以再创建一张基于 Hive 表的新表,在 DDL 的 properties 里指定这两个参数,也可以使用 SQL Hint 功能,在使用时通过 SQL Hint 指定 query 中表的参数。以使用 SQL Hint 为例,我们需要用 /option/ 指定表的属性参数,例如:

SELECT * FROM hive_table /*+ OPTIONS('streaming-source.enable'='true',

'streaming-source.partition.include' = 'latest') */;

我们需要显示地开启 SQL Hint 功能, 在 SQL Client 中可以用 set 命令设置:

set table.dynamic-table-options.enabled= true;

在程序代码中,可以通过 TableConfig 配置:

tblEnv.getConfig().getConfiguration().setString("table.dynamic-table-options.enabled",

"true");

Flink 官网也给出了一个详细的例子,这里也简单说明下。

--将方言设置为hive以使用hive语法

SET table.sql-dialect=hive;

CREATE TABLE dimension_table (

product_id STRING,

product_name STRING,

unit_price DECIMAL(10, 4),

pv_count BIGINT,

like_count BIGINT,

comment_count BIGINT,

update_time TIMESTAMP(3),

update_user STRING,

...

) PARTITIONED BY (pt_year STRING, pt_month STRING, pt_day STRING) TBLPROPERTIES (

-- 在创建hive时态表时指定属性

'streaming-source.enable' = 'true',

'streaming-source.partition.include' = 'latest',

'streaming-source.monitor-interval' = '12 h',

'streaming-source.partition-order' = 'partition-name', -- 监听partition-name最新分区数据

);

--将方言设置为default以使用flink语法

SET table.sql-dialect=default;

CREATE TABLE orders_table (

order_id STRING,

order_amount DOUBLE,

product_id STRING,

log_ts TIMESTAMP(3),

proctime as PROCTIME()

) WITH (...);

--将流表与hive最新分区数据关联

SELECT * FROM orders_table AS order

JOIN dimension_table FOR SYSTEM_TIME AS OF o.proctime AS dim

ON order.product_id = dim.product_id;

关联 Hive 最新分区 Demo

工程依赖

将 Demo 工程中使用到的 connector 和 format 依赖贴到这里,方便大家本地测试时参考。

mysql

mysql-connector-java

${mysql.version}

org.apache.flink

flink-connector-jdbc_2.12

${flink.version}

org.apache.flink

flink-sql-connector-kafka_2.11

${flink.version}

provided

org.apache.flink

flink-json

${flink.version}

provided

org.apache.flink

flink-connector-hive_${scala.binary.version}

${flink.version}

provided

org.apache.hive

hive-exec

3.1.0

在 Sql Client 中注册 HiveCatalog:

vim conf/sql-client-defaults.yaml

catalogs:

- name: hive_catalog

type: hive

hive-conf-dir: /disk0/soft/hive-conf/ #该目录需要包hive-site.xml文件

创建 Kafka 表

CREATE TABLE hive_catalog.flink_db.kfk_fact_bill_master_12 (

master Row,

proctime as PROCTIME() -- PROCTIME用来和Hive时态表关联

) WITH (

'connector' = 'kafka',

'topic' = 'topic_name',

'format' = 'json',

'properties.bootstrap.servers' = 'host:9092',

'properties.group.id' = 'flinkTestGroup',

'scan.startup.mode' = 'timestamp',

'scan.startup.timestamp-millis' = '1607844694000'

);

Flink 事实表与 Hive 最新分区数据关联

dim_extend_shop_info 是 Hive 中已存在的表,所以我们下面用 table hint 动态地开启维表参数。

CREATE VIEW IF NOT EXISTS hive_catalog.flink_db.view_fact_bill_master as

SELECT * FROM

(select t1.*, t2.group_id, t2.shop_id, t2.group_name, t2.shop_name, t2.brand_id,

ROW_NUMBER() OVER (PARTITION BY groupID, shopID, orderKey ORDER BY actionTime desc) rn

from hive_catalog.flink_db.kfk_fact_bill_master_12 t1

JOIN hive_catalog.flink_db.dim_extend_shop_info

/*+ OPTIONS('streaming-source.enable'='true', 'streaming-source.partition.include' = 'latest',

'streaming-source.monitor-interval' = '1 h',

'streaming-source.partition-order' = 'partition-name') */ FOR SYSTEM_TIME AS OF t1.proctime AS t2 --时态表

ON t1.groupID = t2.group_id and t1.shopID = t2.shop_id

where groupID in (202042)) t where t.rn = 1

结果数据 Sink 到 MySQL

CREATE TABLE hive_catalog.flink_db_sink.rt_aggr_bill_food_unit_rollup_flk (

report_date String,

group_id int,

group_name String,

shop_id int,

shop_name String,

brand_id BIGINT,

brand_name String,

province_name String,

city_name String,

foodcategory_name String,

food_name String,

food_code String,

unit String,

rt_food_unit_cnt double,

rt_food_unit_amt double,

rt_food_unit_real_amt double,

PRIMARY KEY (report_date, group_id, shop_id, brand_id, foodcategory_name, food_name, food_code, unit) NOT ENFORCED) WITH (

'connector' = 'jdbc',

'url' = 'jdbc:mysql://host:4400/db_name?autoReconnect=true&useSSL=false',

'table-name' = 'table-name',

'username' = 'username',

'password' = 'password'

)

insert into hive_catalog.flink_db_sink.rt_aggr_bill_food_unit_rollup_flk

select reportDate, group_id, group_name, shop_id, shop_name, brand_id, brand_name, province_name, city_name

, SUM(foodNumber) rt_food_cnt

, sum(paidAmount) rt_food_amt

, sum(foodAmount) rt_food_real_amt

from hive_catalog.flink_db.view_fact_bill_master

group by reportDate, group_id, group_name, shop_id, shop_name, brand_id, brand_name, province_name, city_name;

ORC format 的 BUG

在读取 ORC format 的表时,无法读取数据,我也向社区提了一个 Jira: https://issues.apache.org/jira/browse/FLINK-20576,读取其他 format 的表不存在问题,本地测试了读取 parquet 和 csv 都是正常的。

总结下上面的代码,只需通过 Flink SQL 便能实现 Kafka 实时数据流关联最新的 Hive 分区。同时我们结合了 HiveCatalog,可以复用 hive 的表和已经创建过的 kafka source 表,MySql sink 表,使得程序只需要关心具体的业务逻辑,无需关注 source/sink 表的创建,提高了代码的复用性以及可读性。对比之前的方案,纯 SQL 的开发显然降低了开发维护成本和用户门槛。

Flink SQL 开发小技巧

结合 Hive catalog,持久化 source 与 sink 表,减少重复建表,使得代码只需关注逻辑 SQL。

结合 Flink 视图,组织好业务加工逻辑,提高 SQL 的可读性。

利用 SQL Client 调试 SQL,程序没问题后再打包上线,而不是直接提交到集群做测试。

mysql表分区join_​实战:Flink 1.12 维表 Join Hive 最新分区功能体验相关推荐

  1. ​实战:Flink 1.12 维表 Join Hive 最新分区功能体验

    我们生产常有将实时数据流与 Hive 维表 join 来丰富数据的需求,其中 Hive 表是分区表,业务上需要关联上 Hive 最新分区的数据.上周 Flink 1.12 发布了,刚好支撑了这种业务场 ...

  2. Flink实时数据处理实践经验(Flink去重、维表关联、定时器、双流join)

    Flink实时数据处理实践经验 文章目录 Flink实时数据处理实践经验 1. 数据输入与预处理 2. 实时数据处理 3. 实时数仓架构 4. 优化方案 Java.大数据开发学习要点(持续更新中-) ...

  3. Flink 实时计算 - 维表 Join 解读

    Flink 实时计算 - 维表 Join 解读 前言 Flink 1.9 版本可以说是一个具有里程碑意义的版本,其内部合入了很多 Blink Table/SQL 方面的功能,同时也开始增强 Flink ...

  4. 老男孩mysql高级专业dba实战课程_老男孩MySQL高级专业DBA实战课程/高级运维DBA课程/MySQL视频教程下载...

    课程名称 老男孩MySQL高级专业DBA实战课程/高级运维DBA课程/MySQL视频教程下载 课程目录 第一部 MySQL基础入门(21节) 第二部 MySQL多实例安装与企业应用场景(10节) 第三 ...

  5. mysql第三章关系模型_一个MySQL关系模型只有三个关系(二维表)组成。_学小易找答案...

    [判断题]DELETE语句功能是对表中所有记录或满足条件的记录进行批量删除. [填空题]The computer's entire ____ was on a single board. [单选题]下 ...

  6. 【Flink】Flink1.12.0 FlinkSQL消费Kafka 使用 temporal join 关联维表Hive 最新分区数据 join 不上

    文章目录 1.概述 2.场景1 2.1 概述 2.2 解决 1.概述 2.场景1 2.1 概述 场景是这样的 Flink SQL 消费kafka 关联Hive维表 最新分区 刚开始 我往Hive维表里 ...

  7. 老男孩mysql运维dba实战21部完整版_老男孩MySQL高级专业DBA实战课程/高级运维DBA课程/MySQL视频教程 零基础全套...

    对于老男孩的视频教程我是由衷的喜欢,这套课程接近于零基础,但是最好还是具备一些Mysql基础再来学习效果会更好一些,论坛中也有一些Mysql基础课程,大家可以找一下! -------课程目录----- ...

  8. html多级折叠菜单表单,JS实战篇之收缩菜单表单布局

    获取节点的两种方式: 1.通过event对象的srcElement属性: 2.通过事件源对象用this传入. 代码如下: 收缩菜单 · 表单布局 function list(dtNode){ // v ...

  9. Flink 1.12的CDC

    基于Flink构建流批一体的实时数仓是目前数据仓库领域比较火的实践方案.随着Flink的不断迭代,其提供的一系列技术特性使得用户构建流批一体的应用变得越来越方便.本文将以Flink1.12为例,一一介 ...

最新文章

  1. 推荐2个命令快速在本地和服务器之间上传下载文件
  2. Mysql VARCHAR(X) vs TEXT
  3. linux下字节对齐
  4. flask项目从本地迁移到服务器上遇到net::ERR_CONNECTION_R问题
  5. 创建自己的Vagrant box
  6. 俄罗斯:自由软件在这里生根
  7. 拓展欧几里得理论基础(含一定证明)
  8. 郑州大学c语言课程设计2000行,C语言课程设计大作业(1).pptx
  9. jenkins使用流程
  10. oracle 后台执行sql,后台执行oracle sql脚本
  11. 蜂鸣器播放青鸟,含曲谱(小萌白新文)
  12. 修改网页中的内容与打印网页
  13. 51单片机农历转换公历c语言算法,51单片机阳历转农历(仅仅是阳历转阴历例程)...
  14. 关于『HTML』:第三弹
  15. vue报错:vue.js:634 [Vue warn]: Cannot find element: #app
  16. 地理信息系统的元数据、主数据、参考数据之间的区分
  17. matlab之用m脚本自动完成检查变量命名规范
  18. 实在受不了360流氓浏览器用了10年终于不用了
  19. 运维-系统监控方案:基于Grafana的TDengine零依赖监控解决方案
  20. 请写出sfr和sbit的语句格式_KEIL中的SFR和SBIT用法

热门文章

  1. 剑指Offer——迅雷笔试题+知识点总结
  2. 非视距微波传输抗干扰特性
  3. 浅谈网站的logo设计
  4. 三表左连接(LEFT JOIN) — 两表之间的关系
  5. 【Python数据分析与可视化】期末复习试题集
  6. Glide控制显示图片上方2个圆角(或4个都是圆角)
  7. 喷管烧蚀仿真过程中的常见问题
  8. Pr:导出设置之编码设置
  9. 华为鸿蒙朱丹丹,周一围心疼老婆?朱丹二胎产后憔悴臃肿却忙复出:这一年太痛苦...
  10. mysql 28000 远程_启用远程MySQL连接:错误1045(28000):拒绝用户访问