看了那么多的技术文,你能明白作者想让你在读完文章后学到什么吗?

大数据羊说__的文章会让你明白

大数据羊说

用数据提升美好事物发生的概率~

44篇原创内容

公众号

  1. 博主会阐明博主期望本文能给小伙伴们带来什么帮助,让小伙伴萌能直观明白博主的心思

  2. 博主会以实际的应用场景和案例入手,不只是知识点的简单堆砌

  3. 博主会把重要的知识点的原理进行剖析,让小伙伴萌做到深入浅出

1.序篇

源码公众号后台回复1.13.2 sql batch lookup join获取。

[

flink sql 知其所以然(十四):维表 join 的性能优化之路(上)附源码

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489814&idx=1&sn=085b93194dfd0feae5ac43ab6d3fb524&chksm=c15495eef6231cf8df60f1c0b1d2f7f277732090888f6b52ae02181a4f1fb688aad540fbccb6&scene=21#wechat_redirect)

书接上回,上节说到了博主发现由于在 flink sql 中 lookup join 访问外部维表存在的性能问题。

由此诞生了一个想法,以 Redis 维表为例,Redis 支持 pipeline 批量访问模式,因此 flink sql lookup join 能不能按照 DataStream 方式一样,先攒一批数据 ,然后使用 Redis pipeline 批量访问外部存储。博主亲切的将这个功能称为 flink sql batch lookup join,本节就是讲述博主基于 flink 源码对此功能的实现。

废话不多说,咱们先直接上本文的目录和结论,小伙伴可以先看结论快速了解博主期望本文能给小伙伴们带来什么帮助:

  1. 直接来一个实战案例:博主以曝光用户日志流关联用户画像(年龄、性别)维表为例介绍 batch lookup join 具有的基本能力(怎么配置参数,怎么写 sql,最终效果咋样)。

  2. batch lookup join:主要介绍 batch lookup join 的功能是从 flink transformation 出发,确定要 batch lookup join 涉及改动的地方以及其实现思路、原理。也会教给大家一些改动源码来实现自己想要的一些功能的思路。

  3. 总结及展望:目前的 batch lookup join 实现其实不符合 sql 的原始语义,后续大家可以按照 sql 标准自己做一些实现

2.来一个实战案例

2.1.预期的输入、输出数据

来看看在具体场景下,对应输入值的输出值应该长啥样。

需求指标:使用曝光用户日志流(show_log)关联用户画像维表(user_profile)关联到用户的画像(性别,年龄段)数据。

来一波输入数据:

曝光用户日志流(show_log)数据(数据存储在 kafka 中):

log_id timestamp user_id
1 2021-11-01 00:01:03 a
2 2021-11-01 00:03:00 b
3 2021-11-01 00:05:00 c
4 2021-11-01 00:06:00 b
5 2021-11-01 00:07:00 c

用户画像维表(user_profile)数据(数据存储在 redis 中):

user_id(主键) age sex
a 12-18
b 18-24
c 18-24

注意:redis 中的数据结构存储是按照 key,value 去存储的。其中 key 为 user_id,value 为 age,sex 的 json。如下图所示:

user_profile redis

预期输出数据如下:

log_id timestamp user_id age sex
1 2021-11-01 00:01:03 a 12-18
2 2021-11-01 00:03:00 b 18-24
3 2021-11-01 00:05:00 c 18-24
4 2021-11-01 00:06:00 b 18-24
5 2021-11-01 00:07:00 c 18-24

2.2.batch lookup join sql 代码

batch lookup join sql 代码和原来的 lookup join sql 代码一模一样。如下 sql。

CREATE TABLE show_log (log_id BIGINT,`timestamp` as cast(CURRENT_TIMESTAMP as timestamp(3)),user_id STRING,proctime AS PROCTIME()
)
WITH ('connector' = 'datagen','rows-per-second' = '10','fields.user_id.length' = '1','fields.log_id.min' = '1','fields.log_id.max' = '10'
);CREATE TABLE user_profile (user_id STRING,age STRING,sex STRING) WITH ('connector' = 'redis','hostname' = '127.0.0.1','port' = '6379','format' = 'json','lookup.cache.max-rows' = '500','lookup.cache.ttl' = '3600','lookup.max-retries' = '1'
);CREATE TABLE sink_table (log_id BIGINT,`timestamp` TIMESTAMP(3),user_id STRING,proctime TIMESTAMP(3),age STRING,sex STRING
) WITH ('connector' = 'print'
);-- lookup join 的 query 逻辑
INSERT INTO sink_table
SELECT s.log_id as log_id, s.`timestamp` as `timestamp`, s.user_id as user_id, s.proctime as proctime, u.sex as sex, u.age as age
FROM show_log AS s
LEFT JOIN user_profile FOR SYSTEM_TIME AS OF s.proctime AS u
ON s.user_id = u.user_id

可以看到 lookup join 和 batch lookup join 的代码是完全相同的,唯一的不同之处在于,batch lookup join 需要设置 table config 参数,如下图所示:

table config

2.2.batch lookup join 效果

将原生 lookup join 和 batch lookup join 的效果做个对比:

原生的 lookup join:每输入一条数据,访问外部维表获取到结果输出一条数据,如下图所示。

lookup join

博主实现的 batch lookup join:是每攒够 30 条数据或者每 5s(防止数据量少的情况下,长时间不输出数据) 就利用 redis pipeline 能力访问外部存储一次。然后批量输出结果,如下图所示。大大提高了吞吐。

batch lookup join

3.batch lookup join 实现

3.1.怎么知道应该改哪部分源码?

博主将通过下面几个问题去交给大家怎么改源码去实现自己的功能。

  1. 改源码的有哪些比较好的思路?
  • 结论:首先就是参考类似模块的实现(不会写,但是我会抄啊!),比如本文要实现 batch lookup join,必然要参考原生的 lookup join 去实现。
  1. 大家在改 flink 源码时,因为 flink 源码的模块太多了,项目非常庞大,往往第一步碰到的问题不是怎么去实现这个功能,而是应该在什么地方去改才能实现!
  • 结论:一个 flink 的任务(DataStream\Table\SQL)所有的精华精华精华都集中在 transformation 中!!!只要是涉及到算子实现的东西,小伙伴萌就可以到 transformation 中去寻找。可以将断点打在每一个 operator 的构造器或者 open 方法中就可以看到其实在哪一步构造和初始化的。这样就能顺着调用栈往前回溯而确定要改哪部分代码了。

3.2.lookup join 原理

3.2.1.transformation

在实现 batch lookup join 之前,当然要从原生的 lookup join 的实现开始入手,看看 flink 官方大大是怎么实现的,具体 transformation 如下图所示:

transformation

具体的实现逻辑承载在 org.apache.flink.streaming.api.operators.ProcessOperatororg.apache.flink.table.runtime.operators.join.lookup.LookupJoinRunner 中。

3.2.2.LookupJoinRunner

LookupJoinRunner 中的数据处理逻辑集中在 processElement 中。

LookupJoinRunner

可以看到上图,LookupJoinRunner 又内嵌了一层 fetcher 来实现具体的 lookup 逻辑。

  1. 其中 fetcher:就是根据 flink sql lookup join 逻辑生成的 lookup join 的代码实例;

  2. 其中 collector:collector 的主要功能就是将原始数据 RowDatalookup 到的 RowData 的数据合并为 JoinedRowData 结果,然后输出。

接下来详细看看 fetcher 和 collector。

3.2.3.fetcher

transformation fetcher

把这个 fetcher 的代码 copy 出来瞅瞅。

fetcher

fetcher 内嵌了 RedisRowDataLookupFunction 来作为最终访问外部维表的函数。

3.2.4.RedisRowDataLookupFunction

访问 redis 获取到数据。

RedisRowDataLookupFunction

3.2.5.collector

transformation collector

把这个 collector 的代码 copy 出来瞅瞅。

collector

3.3.lookup join 算子实现调用链

是不是感觉一个 lookup join 的调用链贼复杂。

因为 batch lookup join 是完全参考 lookup join 去实现的,所以接下来博主介绍一下整体的调用链关系,这就会方便后续设计 batch lookup join 实现方案的时候去确定具体修改哪一部分代码。

调用链

整体的调用逻辑如下:

  1. ProcessOpeartor原始 RowData 传给 LookupJoinRunner

  2. LookupJoinRunner原始 RowData 传给根据 sql 代码生成的 fetcher

  3. fetcher 中把 原始 RowData 传给 RedisRowDataLookupFunction 然后去 lookup 维表,lookup 到的结果数据为 lookup RowData

  4. collector原始 RowDatalookup RowData 数据合并为 JoinedRowData 然后输出。

3.4.batch lookup join 设计思路

还是一样,先看看设计思路最终的结论,batch lookup join 算子调用链设计如下:

batch lookup 调用链

详细说明一下设计思路:

  1. 如果想做到批量访问外部存储(Redis)的数据。可以推断出 RedisRowDataLookupFunction 的输入需要是 List<原始 RowData> ,输出需要是 List<lookup RowData>。其中输入数据输入到 RedisRowDataLookupFunction 中后,使用 Redis pipeline 去批量访问外部存储,然后把结果 List<lookup RowData> 输出。

  2. RedisRowDataLookupFunction 的输出数据为 List<lookup RowData> 推断出 collector 输入数据格式必然是 List<原始 RowData>。由于在 lookup join 中 collector 的逻辑就是将 原始 RowDatalookup RowData 合并为 JoinedRowData,将结果输出。因此 collector 这里就是将 List<原始 RowData>List<lookup RowData> 进行遍历合并,一条一条的输出 JoinedRowData

  3. 同样 RedisRowDataLookupFunction 的输入数据是 fetcher 传入的,则推断出 fetcher 输入数据格式必然是 List<原始 RowData>

  4. 由于 fetcher 输入是 List<原始 RowData>,则 LookupJoinRunner 输出到 fetcher 的数据也需要是 List<原始 RowData>。但是 ProcessOpeartor 只能传给 LookupJoinRunner 原始 RowData,因此可以得出我们的每攒 30 条数据或者每隔 5s 的逻辑就能确定需要在 LookupJoinRunner 中做了。

思路有了,那么 batch lookup join 涉及到的改动项也就能确认了。

  1. 新建一个 BatchLookupJoinRunner:实现攒批逻辑(每攒 30 条数据或者每隔 5s),其中攒批的数据放在 ListState 中,以防止丢失,在 table config 中的 is.dim.batch.mode 设置为 true 时使用此 BatchLookupJoinRunner

  2. 代码生成的 fetcher:将原来输入的 原始 RowData 改为 List<原始 RowData>

  3. 新建一个 RedisRowDataBatchLookupFunction:实现将输入的批量数据 List<原始 RowData> 拿到之后使用 redis pipeline 批量访问外部存储,获取到 List<lookup RowData> 结果数据给 collector

  4. 代码生成的 collector:将原来 lookup join 中的输入 原始 RowDatalookup RowData 改为 List<原始 RowData>List<lookup RowData>,添加遍历循环 List<原始 RowData>List<lookup RowData>,按顺序合并 List 中的每一项 原始 RowDatalookup RowData 输出 JoinedRowData 的逻辑。

3.5.batch lookup join 的最终效果

3.5.1.transformation

可以看到 is.dim.batch.mode 设置为 true 时,transformation 如下。transformation 中的重点处理逻辑就是 BatchLookupJoinRunner

batch transformation

3.5.2.BatchLookupJoinRunner

BatchLookupJoinRunner

3.5.3.fetcher

sql 生成的 fetcher 代码如下:

fetcher

3.5.4.RedisRowDataBatchLookupFunction

RedisRowDataBatchLookupFunction 拿到输入的 List 数据,调用 Redis pipeline 批量访问外部存储。

RedisRowDataBatchLookupFunction

3.5.5.collector

sql 生成的 collector 代码如下:

collector

3.6.待改进项

目前上述方案实现的不足之处如下:

  1. batch 的执行逻辑与 sql 原始的语义不一致。因为从 sql 上看是完全没有这种 batch lookup join 的语义的。

  2. 其中每 5s博主简单实现了下,完全基于数据驱动的每 5s 攒一批,不是基于 onTimer 驱动的。可能会出现来了一条数据之后,5 min 内都没有来数据,则数据就不输出了。

  3. 没有考虑实现代码的抽象,以实现功能为主,所以很多基于源码的改动都是直接 copy 出来了另一个方法实现。

4.xdm 怎么使用这个功能?

  1. git clone https://github.com/yangyichao-mango/flink/tree/release-1.13.2

  2. 在 clone 下来的项目的中,重新把下面两个模块 install (mvn clean install) 到本地仓库中。

  3. 然后在你的项目中引用两个 blink 包即可使用。使用方法就是只需要把 table config 的 is.dim.batch.mode 设置为 true,代码还按照 lookup join 的方式写即可。

4.总结与展望

源码公众号后台回复1.13.2 sql batch lookup join获取。

本文主要介绍了 flink sql batch lookup join 的使用方式,并介绍了其实现思路以及效果,主要内容如下:

  1. 直接来一个实战案例:博主以曝光用户日志流关联用户画像(年龄、性别)维表为例介绍 batch lookup join 具有的基本能力(怎么配置参数,怎么写 sql,最终效果咋样)。

  2. batch lookup join:主要介绍 batch lookup join 的功能是从 flink transformation 出发,确定要 batch lookup join 涉及改动的地方以及其实现思路、原理。也会教给大家一些改动源码来实现自己想要的一些功能的思路。

  3. 总结及展望:目前的 batch lookup join 实现其实不符合 sql 的原始语义,后续大家可以按照 sql 标准自己做一些实现

往期推荐

[

flink sql 知其所以然(十四):维表 join 的性能优化之路(上)附源码

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489814&idx=1&sn=085b93194dfd0feae5ac43ab6d3fb524&chksm=c15495eef6231cf8df60f1c0b1d2f7f277732090888f6b52ae02181a4f1fb688aad540fbccb6&scene=21#wechat_redirect)

[

flink sql 知其所以然(十三):流 join 很难嘛???(下)

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489658&idx=1&sn=6004d88772d473d4f5f446b8ffd3e14f&chksm=c1549482f6231d94a2c2841ff2b1ba840573dfd5acb6360ba84b9205cebd5a4a7c7f0aba61fc&scene=21#wechat_redirect)

[

flink sql 知其所以然(十二):流 join 很难嘛???(上)

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489633&idx=1&sn=24b418a8192116306eb3aab00ff24600&chksm=c1549499f6231d8ff40cdacd0504a21e605c07ba37fcfb4f5877523bac727e7955702882d7a2&scene=21#wechat_redirect)

[

flink sql 知其所以然(十一):去重不仅仅有 count distinct 还有强大的 deduplication

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489624&idx=1&sn=2738ec774dad30ae69b475dce45bfe4a&chksm=c15494a0f6231db6479fc45d18a3bdd69472d60240e9227edb4424cac420ed9f06381fd52a28&scene=21#wechat_redirect)

[

flink sql 知其所以然(十):大家都用 cumulate window 计算累计指标啦

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489554&idx=1&sn=275ca7bd853a762912f43bc51ef5c65f&chksm=c15494eaf6231dfca785e01632b8194db1817fb326c2698098e3eaeae430448596d73bc4a9e4&scene=21#wechat_redirect)

–END–

非常欢迎大家加我个人微信,有关大数据的问题我们一起讨论

长按上方扫码二维码,加我微信

大数据羊说

用数据提升美好事物发生的概率~

44篇原创内容

公众号

动动小手,让更多需要的人看到~

flink sql 知其所以然(十五):改了改源码,实现了个 batch lookup join(附源码)相关推荐

  1. flink sql 知其所以然(十):大家都用 cumulate window 计算累计指标啦

    想啥呢,小宝贝,还不三连???(关注  +  点赞 + 再看),对博主的肯定,会督促博主持续的输出更多的优质实战内容!!! 1.序篇 源码公众号后台回复1.13.2 cumulate window 的 ...

  2. flink sql 知其所以然(八):flink sql tumble window 的奇妙解析之路

    感谢您的小爱心(关注  +  点赞 + 再看),对博主的肯定,会督促博主持续的输出更多的优质实战内容!!! 1.序篇-本文结构 大数据羊说 用数据提升美好事物发生的概率~ 34篇原创内容 公众号 源码 ...

  3. flink sql 知其所以然(十三):流 join 很难嘛?(下)

    看了那么多的技术文,你能明白作者想让你在读完文章后学到什么吗? 大数据羊说__的文章会让你明白 大数据羊说 用数据提升美好事物发生的概率~ 43篇原创内容 公众号 博主会阐明博主期望本文能给小伙伴们带 ...

  4. flink sql 知其所以然(二)| 自定义 redis 数据维表(附源码)

    感谢您的关注  +  点赞 + 再看,对博主的肯定,会督促博主持续的输出更多的优质实战内容!!! 1.序篇-本文结构 背景篇-为啥需要 redis 维表 目标篇-做 redis 维表的预期效果是什么 ...

  5. flink sql 知其所以然(十四):维表 join 的性能优化之路(上)附源码

    看了那么多的技术文,你能明白作者想让你在读完文章后学到什么吗? 大数据羊说__的文章会让你明白 大数据羊说 用数据提升美好事物发生的概率~ 43篇原创内容 公众号 博主会阐明博主期望本文能给小伙伴们带 ...

  6. 【C#+SQL Server】实现模仿QQ的交友软件 三:申请账号窗体设计讲解(附源码和资源)

    需要源码和资源请点赞关注收藏后评论区留言私信~~~ 其他几个部分文章链接如下 [C#+SQL Server]实现模仿QQ的交友软件 一:系统简介.功能展示与数据库设计(附源码和资源) [C#+SQL ...

  7. Apache Flink 零基础入门(十五)Flink DataStream编程(如何自定义DataSource)

    数据源可以通过StreamExecutionEnvironment.addSource(sourceFunction)方式来创建,Flink也提供了一些内置的数据源方便使用,例如readTextFil ...

  8. MATLAB应用实战系列( 七十五) -图像处理应用 MATLAB实现基于分水岭算法的图像分割 (附matlab代码)

    一.简介 二.源代码 clear, close all; clc; %1.读取图像并求取图像的边界.rgb = imread('tree.jpeg');%读取原图像 I = rgb2gray(rgb) ...

  9. Android 音视频深入 十四 FFmpeg与OpenSL ES 播放mp3音乐,能暂停(附源码

    项目地址 https://github.com/979451341/FFmpegOpenslES 这次说的是FFmpeg解码mp3,数据给OpenSL ES播放,并且能够暂停. 1.创建引擎 slCr ...

最新文章

  1. 应用在机器学习中的聚类数据集产生方法
  2. mysql merge表介绍
  3. 《高级软件测试》实践作业4学习记录12月25日
  4. insert into 多条数据_「数据库」一千行MySQL命令
  5. python pymysql cursors_python pymysql cursor的问题
  6. java.net.sockettimeoutexception read timed out
  7. Online Coding开发模式 (通过在线配置实现一个表模型的增删改查功能,无需写任何代码)
  8. ORA-12899: value too large for column (actual: 27, maximum: 20)错误解决
  9. 基于element ui的收起展开检索条件效果
  10. JVM面试重点总结(二)——垃圾收集器(GC)与内存分配策略
  11. sql_全国省市区、邮编、经纬度、城市拼音、电话区号
  12. 如何搭建反欺诈策略与模型
  13. 2021年茶艺师(初级)考试内容及茶艺师(初级)模拟考试
  14. 什么是dataSource 对数据源的简单理解。
  15. 图形学-着色(Blinn-Phong模型)
  16. ubuntu16.04掉显卡驱动解决方法
  17. 时间序列分析深入总结(一)(附代码)
  18. 网站页面SEO优化方案
  19. Box2D v2.1.0用户手册翻译 - 第06章 夹具(Fixtures)
  20. 浅谈电子商务的数据分析

热门文章

  1. B站视频嵌入自定义网页 bilibili
  2. 计算机二级python2020年考试时间_2020年计算机二级考试时间最新安排
  3. 初识华为VRP系统--AR1 telnet AR3
  4. 串口传输数据卡死问题解决方案
  5. 李志诉腾讯《明日之子》侵权案获赔20万 1
  6. Ecplise必须知道的配置
  7. 互联网日报 | 2月5日 星期五 | 联想再创史上最佳业绩;我国网民规模达9.89亿;杰夫·贝佐斯将卸任亚马逊CEO...
  8. java 函数 微秒_在Java中以微秒为单位解析时间
  9. csdn搬迁至博客园
  10. xsplit PHP扩展