整理 | 祝尚(Flink 社区志愿者)

校对 | 邹志业(Flink 社区志愿者)

摘要:本文根据 Apache Flink 系列直播整理而成,由 Apache Flink Contributor、OPPO 大数据平台研发负责人张俊老师分享。主要内容如下:

1. 整体思路与学习路径

2. 应用场景与编程模型

3. 工作流程与实现机制

Tips:点击「阅读原文」可查看更多数仓系列直播视频~

整体思路与学习路径

当我们碰到一项新的技术时,我们应该怎样去学习并应用它呢?在我个人看来,有这样一个学习的路径,应该把它拆成应用和实现两块。首先应该从它的应用入手,然后再深入它的实现。

应用主要分为三个部分,首先应该了解它的应用场景,比如窗口的一些使用场景。然后,进一步地我们去了解它的编程接口,最后再深入了解它的一些抽象概念。因为一个框架或一项技术,肯定有它的编程接口和抽象概念来组成它的编程模型。我们可以通过查看文档的方式来熟悉它的应用。在对应用这三个部分有了初步的了解后,我们就可以通过阅读代码的方式去了解它的一些实现了。

实现部分也分三个阶段,首先从工作流程开始,可以通过 API 层面不断的下钻来了解它的工作流程。接下来是它整体的设计模式,通常对一些框架来说,如果能构建一个比较成熟的生态,一定是在设计模式上有一些独特的地方,使其有一个比较好的扩展性。最后是它的数据结构和算法,因为为了能够处理海量数据并达到高性能,它的数据结构和算法一定有独到之处。我们可以做些深入了解。

以上大概是我们学习的一个路径。从实现的角度可以反哺到应用上来,通常在应用当中,刚接触某个概念的时候会有一些疑惑。当我们对实现有一些了解之后,应用中的这些疑惑就会迎刃而解。

为什么要关心实现

举个例子:

看了这个例子我们可能会有些疑惑:

  • ReduceFunction 为什么不用计算每个 key 的聚合值?

  • 当 key 基数很大时,如何有效地触发每个 key 窗口计算?

  • 窗口计算的中间结果如何存储,何时被清理?

  • 窗口计算如何容忍 late data ?

当你了解了实现部分再回来看应用这部分,可能就有种醍醐灌顶的感觉。

应用场景与编程模型

实时数仓的典型架构

■ 第一种最简单架构,ODS 层的 Kafka 数据经过 Flink 的 ETL 处理后写入 DW 层的 Kafka,再通过 Flink 聚合写入 ADS 层的 MySQL 中,做这样一个实时报表展现。

缺点:由于 MySQL 存储数据有限,所以聚合的时间粒度不能太细,维度组合不能太多。

■ 第二种架构相对于第一种引入了 OLAP 引擎,同时也不用 Flink 来做聚合,通过 Druid 的 Rollup 来做聚合。

缺点:因为 Druid 是一个存储和查询引擎,不是计算引擎。当数据量巨大时,比如每天上百亿、千亿的数据量,会加剧 Druid 的导入压力。

■ 第三种架构在第二种基础上,采用 Flink 来做聚合计算写入 Kafka,最终写入 Druid。

缺点:当窗口粒度比较长时,结果输出会有延迟。

■ 第四种架构在第三种基础上,结合了 Flink 聚合和 Druid Rollup。Flink 可以做轻度的聚合,Druid 做 Rollup 的汇总。好处是 Druid 可以实时看到 Flink 的聚合结果。

Window 应用场景

■ 聚合统计:从 Kafka 读取数据,根据不同的维度做1分钟或5分钟的聚合计算,然后结果写入 MySQL 或 Druid 中。

■ 记录合并:对多个 Kafka 数据源在一定的窗口范围内做合并,结果写入 ES。例如:用户的一些行为数据,针对每个用户,可以对其行为做一定的合并,减少写入下游的数据量,降低 ES 的写入压力。

■ 双流 join:针对双流 join 的场景,如果全量 join 的话,成本开销会非常大。所以就要考虑基于窗口来做 join。

Window 抽象概念

■ TimestampAssigner: 时间戳分配器,假如我们使用的是 EventTime 时间语义,就需要通过 TimestampAssigner 来告诉Flink 框架,元素的哪个字段是事件时间,用于后面的窗口计算。

■ KeySelector:Key 选择器,用来告诉 Flink 框架做聚合的维度有哪些。

■ WindowAssigner:窗口分配器,用来确定哪些数据被分配到哪些窗口。

■ State:状态,用来存储窗口内的元素,如果有 AggregateFunction,则存储的是增量聚合的中间结果。

■ AggregateFunction(可选):增量聚合函数,主要用来做窗口的增量计算,减轻窗口内 State 的存储压力。

■ Trigger:触发器,用来确定何时触发窗口的计算。

■ Evictor(可选):驱逐器,用于在窗口函数计算之前(后)对满足驱逐条件的数据做过滤。

■ WindowFunction:窗口函数,用来对窗口内的数据做计算。

■ Collector:收集器,用来将窗口的计算结果发送到下游。

上图中红色部分都是可以自定义的模块,通过自定义这些模块的组合,我们可以实现高级的窗口应用。同时 Flink 也提供了一些内置的实现,可以用来做一些简单应用。

Window 编程接口

stream        .assignTimestampsAndWatermarks(…)     <-    TimestampAssigner  .keyBy(...)                           <-    KeySelector         .window(...)                          <-    WindowAssigner          [.trigger(...)]                       <-    Trigger           [.evictor(...)]                       <-    Evictor  .reduce/aggregate/process()           <-    Aggregate/Window function

首先我们先指定时间戳和 Watermark 如何生成;然后选择需要聚合的维度的 Key;再选择一个窗口和选择用什么样的触发器来触发窗口计算,以及选择驱逐器做什么样的过滤;最后确定窗口应该做什么样计算。

下面是一个示例:

接下来我们详细看下每个模块。

■ Window Assigner

总结一下主要有3类窗口:

  • Time Window

  • Count Window

  • Custom Window

■  Window Trigger

Trigger 是一个比较重要的概念,用来确定窗口什么时候触发计算。

Flink 内置了一些 Trigger 如下图:

■ Trigger 示例

假如我们定义一个5分钟的基于 EventTime 的滚动窗口,定义一个每2分触发计算的 Trigger,有4条数据事件时间分别是20:01、20:02、20:03、20:04,对应的值分别是1、2、3、2,我们要对值做 Sum 操作。

初始时,State 和 Result 中的值都为0。

当第一条数据在20:01进入窗口时,State 的值为1,此时还没有到达 Trigger 的触发时间。

第二条数据在20:02进入窗口,State 中的值为1+2=3,此时达到2分钟满足 Trigger 的触发条件,所以 Result 输出结果为3。

第三条数据在20:03进入窗口,State 中的值为3+3 = 6,此时未达到 Trigger 触发条件,没有结果输出。

第四条数据在20:04进入窗口,State中的值更新为6+2=8,此时又到了2分钟达到了 Trigger 触发时间,所以输出结果为8。如果我们把结果输出到支持 update 的存储,比如 MySQL,那么结果值就由之前的3更新成了8。

■ 问题:如果 Result 只能 append?

如果 Result 不支持 update 操作,只能 append 的话,则会输出2条记录,在此基础上再做计算处理就会引起错误。

这样就需要 PurgingTrigger 来处理上面的问题。

■ PurgingTrigger 的应用

和上面的示例一样,唯一的不同是在 ContinuousEventTimeTrigger 外面包装了一个 PurgingTrigger,其作用是在 ContinuousEventTimeTrigger 触发窗口计算之后将窗口的 State 中的数据清除。

再看下流程:

前两条数据先后于20:01和20:02进入窗口,此时 State 中的值更新为3,同时到了Trigger的触发时间,输出结果为3。

由于 PurgingTrigger 的作用,State 中的数据会被清除。

当后两条数据进入窗口之后,State 重新从0开始累计并更新为5,输出结果为5。

由于结果输出是 append 模式,会输出3和5两条数据,然后再做 Sum 也能得到正确的结果。

上面就是 PurgingTrigger 的一个简单的示例,它还支持很多有趣的玩法。

■ DeltaTrigger 的应用

有这样一个车辆区间测试的需求,车辆每分钟上报当前位置与车速,每行进10公里,计算区间内最高车速。

首先需要考虑的是如何来划分窗口,它不是一个时间的窗口,也不是一个基于数量的窗口。用传统的窗口实现比较困难,这种情况下我们考虑使用 DeltaTrigger 来实现。

下面是简单的代码实现:

如何提取时间戳和生成水印,以及选择聚合维度就不赘述了。这个场景不是传统意义上的时间窗口或数量窗口,可以创建一个 GlobalWindow,所有数据都在一个窗口中,我们通过定义一个 DeltaTrigger,并设定一个阈值,这里是10000(米)。每个元素和上次触发计算的元素比较是否达到设定的阈值,这里比较的是每个元素上报的位置,如果达到了10000(米),那么当前元素和上一个触发计算的元素之间的所有元素落在同一个窗口里计算,然后可以通过 Max 聚合计算出最大的车速。

■ 思考点

上面这个例子中我们通过 GlobalWindow 和 DeltaTrigger 来实现了自定义的 Window Assigner 的功能。对于一些复杂的窗口,我们还可以自定义 WindowAssigner,但实现起来不一定简单,倒不如利用 GlobalWindow 和自定义 Trigger 来达到同样的效果。

下面这个是 Flink 内置的 CountWindow 的实现,也是基于 GlobalWindow 和 Trigger 来实现的。

■ Window Evictor

Flink 内置了一些 Evictor 的实现。

 TimeEvictor 的应用

基于上面的区间测速的场景,每行进10公里,计算区间内最近15分钟最高车速。

实现上只是在前面基础上增加了 Evictor 的使用,过滤掉窗口最后15分钟之前的数据。

  Window Function

Flink 内置的 WindowFunction 有两种类型,第一种是 AggregateFunction,它是高级别的抽象,主要用来做增量聚合,每来一条元素都做一次聚合,这样状态里只需要存最新的聚合值。

  • 优点:增量聚合,实现简单。

  • 缺点:输出只有一个聚合值,使用场景比较局限。

第二种是 ProcessWindowFunction,它是低级别的抽象用来做全量聚合,每来一条元素都存在状态里面,只有当窗口触发计算时才会调用这个函数。

  • 优点:可以获取到窗口内所有数据的迭代器,实现起来比较灵活;可以获取到聚合的  Key 以及可以从上下文 Context 中获取窗口的相关信息。

  • 缺点:需要存储窗口内的全量数据,State 的压力较大。

同时我们可以把这两种方式结合起来使用,通过 AggregateFunction 做增量聚合,减少中间状态的压力。通过 ProcessWindowFunction 来输出我们想要的信息,比如聚合的 Key 以及窗口的信息。

工作流程和实现机制

上一节我们介绍了窗口的一些抽象的概念,包括它的编程接口,通过一些简单的示例介绍了每个抽象概念的的用法。

这一节我们深入的研究以下窗口底层是怎么实现的。

WindowOperator 工作流程

首先看下 WindowOperator 的工作流程,代码做了一些简化,只保留了核心步骤。

主要包括以下8个步骤:

1. 获取 element 归属的 windows

2. 获取 element 对应的 key

3. 如果 late data,跳过

4. 将 element 存入 window state

5. 判断 element 是否触发 trigger

6. 获取 window state,注入 window function

7. 清除 window state

8. 注册 timer,到窗口结束时间清理 window

Window State

前面提到的增量聚合计算和全量聚合计算,这两个场景所应用的 State 是不一样的。

如果是全量聚合,元素会添加到 ListState 当中,当触发窗口计算时,再把 ListState 中所有元素传递给窗口函数。

如果是增量计算,使用的是 AggregatingState,每条元素进来会触发 AggregateTransformation 的计算。

看下 AggregateTransformation 的实现,它会调用我们定义的 AgregateFunction 中的 createAccumulator 方法和 add 方法并将 add 的结果返回,所以 State 中存储的就是 accumulator 的值,所以比较轻量级。

Window Function

在触发窗口计算时会将窗口中的状态传递给 emitWindowContents 方法。这里会调用我们定义的窗口函数中的 process 方法,将当前的 Key、Window、上下文 Context、窗口的内容作为参数传给它。在此之前和之后会分别调用 evictBefore 和evictAfter 方法把一些元素过滤掉。最终会调用 windowState 的 clear 方法,再把过滤之后的记录存到 windowState 中去。从而达到 evictor 过滤元素的效果。

Window Trigger

最后看下 Trigger 的实现原理。当我们有大量的 Key,同时每个 Key 又属于多个窗口时,我们如何有效的触发窗口的计算呢?

Flink 利用定时器来保证窗口的触发,通过优先级队列来存储定时器。队列头的定时器表示离当前时间最近的一个,如果当前定时器比队列头的定时器时间还要早,则取消掉队列头的定时器,把当前的时间注册进去。

当这次定时器触发之后,再从优先级队列中取下一个 Timer,去调用 trigger 处理的函数,再把下一个 Timer 的时间注册为定时器。这样就可以循环迭代下去。

总结

本文主要分享了 Flink 窗口的应用与实现。首先介绍了学习一项新技术的整体思路与学习路径,从应用入手慢慢深入它的实现。然后介绍了实时数仓的典型架构发展历程,之后从窗口的应用场景、抽象概念、编程结构详细说明了窗口的各个组成部分。并通过一些示例详细展示了各个概念之间配合使用可以满足什么样的使用场景。最后深入窗口的实现,从源码层面说明了窗口各模块的工作流程。

Tips:点击「阅读原文」可回顾作者分享视频及了解更多数仓系列直播


关注 Flink 中文社区,获取更多技术干货

你也「在看」吗?????

数仓系列 | Flink 窗口的应用与实现相关推荐

  1. 新数仓系列:开源组件运营(3)

    大数据前几年各种概念争论很多,NoSQL/NewSQL,CAP/BASE概念一堆堆的,现在这股热潮被AI接过去了.大数据真正落地到车联网,分控,各种数据分析等等具体场景. 概念很高大上,搞得久了就会发 ...

  2. Flink大数据实时计算系列-Flink窗口如何处理延时数据

    Flink大数据实时计算系列-Flink窗口如何处理延时数据 目录 Flink窗口如何处理延时数据 allowedLateness延迟触发 sideOutputLateData 延时分流器 Flink ...

  3. 数仓系列第11篇:实时数仓

    目录 导读: 1.数据仓库简介 2.数据仓库的发展 3.数据仓库建设方法论 4.数据仓库架构的演变 5.实时数仓案例 6. 实时数仓与离线数仓的对比 导读: 本文将从数据仓库的简介.经历了怎样的发展. ...

  4. 数仓系列 | 深入解读 Flink 资源管理机制

    精选30+云产品,助力企业轻松上云!>>> 整理:王文杰(Flink 社区志愿者) 摘要: 本文根据 Apache Flink 系列直播整理而成,由阿里巴巴高级开发工程师宋辛童分享. ...

  5. 元数据管理系统解决方案及产品调研-数仓系列(一)

    元数据管理系统产品选型分析 1  概述 需要给目前数据仓库适用一套元数据管理系统,目的 减少人为的维护工作量.web页面协同工作(多人统一入口使用).元数据权限管理等   1.1  应用背景 目前数据 ...

  6. 系列 | 漫谈数仓第四篇NO.4 『数据应用』(BIOLAP)

    点击上方蓝色字体,置顶/星标哦 目前10000+人已关注加入我们 本文目录CONTENTS ☞ 01.可视化BI工具 [ 开源BI,商业BI,传统BI ] ☞ 02.OLAP科普 [ ROLAP  M ...

  7. Hive 老当益庄 | 深度解读 Flink 1.11:流批一体 Hive 数仓

    精选30+云产品,助力企业轻松上云!>>> 首先恭喜 Table/SQL 的 blink planner 成为默认 Planner,撒花.撒花. Flink 1.11 中流计算结合 ...

  8. 咖啡汪日志——遇见数仓,理想与现实的碰撞,前景与难点的对接

    嗷呜! 作为不是在戏精,就是在戏精的路上的二哈 本汪最近又搞到了新玩意儿 做数仓,主要用于支撑大数据分析和架构层决策 前言 通过这篇文章,我们能学到什么: 1.了解数仓的前景. 2.了解到数仓前期ET ...

  9. 大数据开发超高频面试题!大厂面试必看!包含Hadoop、zookeeper、Hive、flume、kafka、Hbase、flink、spark、数仓等

    大数据开发面试题 包含Hadoop.zookeeper.Hive.flume.kafka.Hbase.flink.spark.数仓等高频面试题. 数据来自原博主爬虫获取! 文章目录 大数据开发面试题 ...

  10. Flink CDC 系列 - Flink CDC 如何简化实时数据入湖入仓

    摘要:本文整理自伍翀 (云邪).徐榜江 (雪尽) 在 Flink Forward Asia 2021 的分享,该分享以 5 个章节详细介绍如何使用 Flink CDC 来简化实时数据的入湖入仓, 文章 ...

最新文章

  1. Codeforces 454C - Little Pony and Expected Maximum
  2. ASP.NET中实现复用代码自定义用户控件UserControl的使用
  3. Python 找出一个整数数组中,第二大的数。
  4. 初入c++ (八) c++输入和输出
  5. sae中使用django migrate导致13013的问题
  6. MySQL不同字段比较大小_mysql 字段定义 对 大小比较的影响
  7. MATLAB/Simulink双馈风机调频模型,风电调频模型,基于三机九节点搭建含双馈风机的电力系统模型
  8. CRC循环冗余校验码原理解析(附实例)
  9. html图表插入ppt
  10. dfuse 新版 client-js 库发布
  11. RabbitMQ精讲7:与SpringBoot、Spring Cloud Stream整合实战
  12. 喜欢花,喜欢海,喜欢日出和日落
  13. OpenCV内存方式,将rgb数据压缩成jpg数据
  14. index.php打开失败,phpmyadmin无法打开index.php的解决方法
  15. linux认证考试有哪些
  16. 大学生吸烟现象调查报告
  17. 网络攻防之——常用网络扫描工具
  18. Python里的%s和%d是什么意思
  19. mse python_python3 MSE实现
  20. IEEE论文投稿流程

热门文章

  1. Vue:数组的过滤排序显示客户端实现
  2. SQL:pgsql中时间戳转换为整数
  3. JavaScript:面向对象简单实例——图书馆
  4. mysql be_Amobe实现MySQL读写分离
  5. Java集合框架源码解读(4)——WeakHashMap
  6. tensorflow中获取shape的方法比较
  7. caffe调参经验资料文章
  8. 一位算法工程师从30+场秋招面试中总结出的超强面经——目标检测篇(含答案)...
  9. 在一个排序的链表中,存在重复的结点,请删除该链表中重复的结点,重复的结点不保留,返回链表头指针。 例如,链表1-2-3-3-4-4-5 处理后为 1-2-5(非常简单明了)
  10. 摩托罗拉发布RhoElements HTML5框架