关于Flink SQL Client

Flink Table & SQL的API实现了通过SQL语言处理实时技术算业务,但还是要编写部分Java代码(或Scala),并且还要编译构建才能提交到Flink运行环境,这对于不熟悉Java或Scala的开发者就略有些不友好了;
SQL Client的目标就是解决上述问题(官方原话with a build tool before being submitted to a cluster.)

局限性

遗憾的是,在Flink-1.10.0版本中,SQL Client只是个Beta版本(不适合用于生产环境),并且只能连接到本地Flink,不能像mysql、cassandra等客户端工具那样远程连接server,这些在将来的版本会解决:

环境信息

接下来采用实战的方式对Flink SQL Client做初步尝试,环境信息如下:

  1. 电脑:MacBook Pro2018 13寸,macOS Catalina 10.15.3
  2. Flink:1.10.0
  3. JDK:1.8.0_211

本地启动flink

  1. 下载flink包,地址:http://ftp.kddilabs.jp/infosystems/apache/flink/flink-1.10.0/flink-1.10.0-bin-scala_2.11.tgz
  2. 解压:tar -zxvf flink-1.10.0-bin-scala_2.11.tgz
  3. 进目录flink-1.10.0/bin/,执行命令./start-cluster.sh启动本地flink;
  4. 访问该机器的8081端口,可见本地flink启动成功:

启动SQL Client CLI

  1. 在目录flink-1.10.0/bin/执行./sql-client.sh即可启动SQL Client CLI,如下图所示,红框中的BETA提醒着在生产环境如果要用此工具:

  2. 第一个要掌握的是HELP命令:

  3. 从hello world开始把,执行命令select ‘Hello world!’;,控制台输出如下图所示,输入Q可退出:

两种展示模式

  1. 第一种是table mode,效果像是对普通数据表的查询,设置该模式的命令:
SET execution.result-mode=table;
  1. 第二种是changelog mode,效果像是打印每一次数据变更的日志,设置该模式的命令:
SET execution.result-mode=changelog;
  1. 设置table mode后,执行以下命令作一次简单的分组查询:
SELECT name, COUNT(*) AS cnt FROM (VALUES ('Bob'), ('Alice'), ('Greg'), ('Bob')) AS NameTable(name) GROUP BY name;
  1. 为了便于对比,下图同时贴上两种模式的查询结果,注意绿框中显示了该行记录是增加还是删除:

  2. 不论是哪种模式,查询结构都保存在SQL Client CLI进程的堆内存中;

  3. 在chenglog模式下,为了保证控制台可以正常输入输出,查询结果只展示最近1000条;

  4. table模式下,可以翻页查询更多结果,结果数量受配置项max-table-result-rows以及可用堆内存限制;

进一步体验

前面写了几行SQL,对Flink SQL Client有了最基本的感受,接下来做进一步的体验,内容如下:

  1. 创建CSV文件,这是个最简单的图书信息表,只有三个字段:名字、数量、类目,一共十条记录;
  2. 创建SQL Client用到的环境配置文件,该文件描述了数据源以及对应的表的信息;
  3. 启动SQL Client,执行SQL查询上述CSV文件;
  4. 整个操作步骤如下图所示:

操作

  1. 首先请确保Flink已经启动;
  2. 创建名为book-store.csv的文件,内容如下:
name001,1,aaa
name002,2,aaa
name003,3,bbb
name004,4,bbb
name005,5,bbb
name006,6,ccc
name007,7,ccc
name008,8,ccc
name009,9,ccc
name010,10,ccc
  1. 在flink-1.10.0/conf目录下创建名为book-store.yaml的文件,内容如下:
tables:- name: BookStoretype: source-tableupdate-mode: appendconnector:type: filesystempath: "/Users/zhaoqin/temp/202004/26/book-store.csv"format:type: csvfields:- name: BookNametype: VARCHAR- name: BookAmounttype: INT- name: BookCatalogtype: VARCHARline-delimiter: "\n"comment-prefix: ","schema:- name: BookNametype: VARCHAR- name: BookAmounttype: INT- name: BookCatalogtype: VARCHAR- name: MyBookViewtype: viewquery: "SELECT BookCatalog, SUM(BookAmount) AS Amount FROM BookStore GROUP BY BookCatalog"execution:planner: blink                    # optional: either 'blink' (default) or 'old'type: streaming                   # required: execution mode either 'batch' or 'streaming'result-mode: table                # required: either 'table' or 'changelog'max-table-result-rows: 1000000    # optional: maximum number of maintained rows in#   'table' mode (1000000 by default, smaller 1 means unlimited)time-characteristic: event-time   # optional: 'processing-time' or 'event-time' (default)parallelism: 1                    # optional: Flink's parallelism (1 by default)periodic-watermarks-interval: 200 # optional: interval for periodic watermarks (200 ms by default)max-parallelism: 16               # optional: Flink's maximum parallelism (128 by default)min-idle-state-retention: 0       # optional: table program's minimum idle state timemax-idle-state-retention: 0       # optional: table program's maximum idle state time#   (default database of the current catalog by default)restart-strategy:                 # optional: restart strategytype: fallback                  #   "fallback" to global restart strategy by default# Configuration options for adjusting and tuning table programs.# A full list of options and their default values can be found
# on the dedicated "Configuration" page.
configuration:table.optimizer.join-reorder-enabled: truetable.exec.spill-compression.enabled: truetable.exec.spill-compression.block-size: 128kb# Properties that describe the cluster to which table programs are submitted to.deployment:response-timeout: 5000
  1. 对于book-store.yaml文件,有以下几处需要注意:
    a. tables.type等于source-table,表明这是数据源的配置信息;
    b. tables.connector描述了详细的数据源信息,path是book-store.csv文件的完整路径;
    c. tables.format描述了文件内容;
    d. tables.schema描述了数据源表的表结构;
    ed. type为view表示MyBookView是个视图(参考数据库的视图概念);

  2. 在flink-1.10.0目录执行以下命令,即可启动SQL Client,并指定book-store.yaml为环境配置:

bin/sql-client.sh embedded -d conf/book-store.yaml
  1. 查全表:
SELECT * FROM BookStore;

  1. 按照BookCatalog分组统计记录数:
SELECT BookCatalog, COUNT(*) AS BookCount FROM BookStore GROUP BY BookCatalog;

  1. 查询视图:
select * from MyBookView;

至此,Flink SQL Client的初次体验就完成了,咱们此工具算是有了基本了解,接下来的文章会进一步使用Flink SQL Client做些复杂的操作;

欢迎关注我的公众号:程序员欣宸

Flink SQL Client初探相关推荐

  1. Flink SQL Client讀取csv中的數據(轉載+總結)

    根據官方文檔[2] Flink SQL啓動方式 啓動命令 (1)starting an embedded standalone process $FLINK_HOME/bin/sql-client.s ...

  2. Flink SQL Client注册SCALA UDF完整流程

    UDF的完整maven工程與SQL https://github.com/appleyuchi/Flink_SQL_Client_UDF 完整操作步骤 ①mvn scala:compile packa ...

  3. Flink SQL Client注册JAVA UDF完整流程

    概述 听大佬说[1]里面有flink sql client注册udf的方法 去看了一眼,全是文字,闹心,索性琢磨了一下,记录下来. UDF的完整maven工程 https://github.com/a ...

  4. Flink SQL Client方言切换与datagen->Hive(DDL形式+streaming形式)

    概述 本文是对[1]的完整复现,补充了[1]中缺失的大量细节. 切换方言 切换目标 Flink SQL Client命令 切换为hive SET table.sql-dialect=hive; 切换为 ...

  5. Flink SQL Client实现CDC实验

    概述 本文主要是對[7]中內容的復現 环境 组件 版本 Flink(HA) 1.12 Zookeeper 3.6.0 flink-sql-connector-mysql-cdc 1.1.1 Mysql ...

  6. Flink SQL Client进行Kafka事实表与Hbase维度表Join(纯DDL/SQL方式)

    概述: 對參考鏈接[1]進行DDL上的復現. 一些基本的業務常识   來源載體 數據特點 維表 Mysql/Csv/Hbase 很少變化 事實表 Kafka 不停變化 开发环境与准备工作 组件 版本 ...

  7. Flink SQL Client读Kafka+流计算(DDL方式+代碼嵌入DDL/SQL方式)

    #################################################################################################### ...

  8. flink sql client读取hive时卡住

    问题复现如下: 查看$FLINK_HOME/log/flink-appleyuchi-sql-client-Desktop.log 2020-12-23 11:48:56,811 INFO  org. ...

  9. flink sql client讀取kafka數據的timestamp(DDL方式)

    实验目的 Kafka的数据能让Flink SQL Client读取到 本文是对[1]的详细记载 具体操作步骤 ①啓動hadoop集羣,離開安全模式 ②各个节点都关闭防火墙: service firew ...

  10. 【阿里云EMR实战篇】以EMR测试集群版本为例,详解 Flink SQL Client 集成 Hive 使用步骤

    简介: 以测试集群版本为例(EMR-4.4.1)-- Flink SQL Client 集成 Hive 使用文档 作者:林志成,阿里云EMR产品团队技术支持,拥有多年开源大数据经验 1.以测试集群版本 ...

最新文章

  1. 蓝桥杯-字串统计(java)
  2. java comparator 降序排序_【转】java comparator 升序、降序、倒序从源码角度理解
  3. docusign文档打不开_怎样查看 docusign pdf 电子签名
  4. html子布局不超出父布局,详解flex布局中保持内容不超出容器的解决办法
  5. iOS开发基础知识--碎片27
  6. c语言写数码管,各位大神,如何用C语言实现在数码管上实现1234同时亮
  7. 最详细的Eigen笔记
  8. django会话跟踪技术
  9. webofscience入口注册_Web Of Science数据库免费检索入口,SCI论文期刊数据库免费入口...
  10. 08s01 mysql_mysql报错 code:08S01,msg:SQLSTATE
  11. 中国博士生数量增长太快将会导致博士就业难
  12. Android计步器算法实现(2)
  13. 【ML】Naive Bayes
  14. Jsp:WebRoot与WebContent区别
  15. MATLAB台大郭彦甫老师课程笔记:第一课:基本操作与矩阵输入
  16. RT-Thread的线程-rt_thread_init
  17. 电影数据分析练习——ppt报告
  18. 如何查看苹果的UDID或者UUID
  19. 复合管、达林顿管(UL2003、ULN2803)了解
  20. rmd文件变成HTML,从Rmd通过RStudio呈现HTML文档时出现问题文字斜体

热门文章

  1. Worm.Win32.Diskgen.gen/磁碟机也捎带广告?
  2. “菜刷刷”系统装机流程
  3. easy WeChat 配置 企业微信代开发模板回调URL(PHP版本)
  4. 安装CAD2006出现html,win7系统安装cad2006出现已终止CAD2006-Simplifieng安装的解决方法...
  5. 迅雷前副总裁李金波:我的创业感悟
  6. matlab遥感图像 提取地物,基于MATLAB的遥感图像变化监测研究(图文)
  7. 推荐一个在线办公协作的
  8. 方正飞鸿:构建中小企业“两化融合”新模式
  9. html实现多文件打包下载 (mp4文件)
  10. qq2018旧版本7.3.1下载_QQ旧版本2018下载