【SQL解析】- SQL血缘分析实现篇01
文章目录
- 1. 前言
- 2. Hive自带的解析模块
- 3. gudusoft 解析方案
- 3.1.支持的解析功能调研
- 3.1.1 从select语句中直接解析血缘关系(也能支持被函数处理的select 字段)
- 3.1.2 包含子查询的select语句
- 3.1.3 复杂语句的支持
- 3.2. 支持引擎调研
- 3.3. SQL测试案例
- 3.4. 调研结论
- 3.5. 代码demo
- 3.5.1 自己解析
- 3.5.2 官方解析工具
- 4. Druid血缘解析方案
- 5. 自研解析Hathor项目
- 6. 生产环境最强解析方案思路
1. 前言
在数据中台中,通常我们面对的是海量的基于数仓的ETL、取数、建模、业务调用等等的数据操作任务,面对错综复杂的调度依赖关系,当出现问题需要快速追溯数据链路、以及对热点资源的盘点治理,人工进行整理效率太低。所以目前一般的数据平台都会实现一个数据地图(任务/SQL维度的血缘)的产品帮助开发/运维更好的进行数据治理。
今天主要分享下SQL维度的血缘实现,对于一个数据开发任务一般对应一个脚本开发任务,离线的可能就是HiveSQL脚本,实时的可能就是Imapla;presto;SparkSQL;FlinkSQL等等脚本任务,我们除了可以在任务的维度进行血缘关系捕获(一般有调度平台可以维护任务的依赖关系),还可以基于离线或者实时hook捕获对应引擎(比如hive;presto;flink等)执行的SQL脚本来进行sql血缘的分析(具体的场景看公司的需求)。
目前来讲,Hive;Presto;Flink等SQL模块大部分的解析引擎都使用了ANTLR进行AST树的生成,然后进行一系列的优化,再生成对应引擎可执行的操作任务,那么我们是不是可以直接复用他们解析的这块功能?答案肯定是可以的,比如Apache Altas产品就是大量使用Hook插件,复用这些计算引擎提供的SQL解析与血缘分析的接口服务,但是有没有缺点呢?肯定是有的,大量的Hook插件对于计算引擎的侵入以及性能的影响肯定是有的。
得益于现在很多的开源框架,对于SQL AST的生成这块都有好几个框架进行了实现,使得我们不必再局限于各个计算引擎本身所自带的SQL解析之中。比如现在的Druid(官方号称是比antlr;javacc等快10-100倍数)、gudusoft、Antlr、javacc等等都是比较优秀的解析框架,接下来,我随便分享几个。。。
2. Hive自带的解析模块
Hive源码中parser模块,主要就是基于antrl文件(.g)词法(比如Lexer.g)语法(比如HiveParser)等文件,生成各种解析以及AST访问遍历的实现类。antlr具体的实现后续单独讨论。
对于Hive血缘解析的这块可以参考以下这个血缘的Hook (Altas就是类似这种方式实现的血缘采集)
看以下已有的方法:生成边;创建目标节点/来源节点;获取边以及节点:
边(关系);来源表;目标表; sql表达式;表类型。。
上述方法对于字段级别表级别的血缘数据采集已经比较完善了,而且代码的话可以直接复用或者借鉴自己实现一个采集的血缘HOOK。开源社区也有单独将Hive解析部分抠出来的项目,大家自行找下,hook使用非本篇重点这里不再多讲…
3. gudusoft 解析方案
gudusoft有一个商业化的应用产品叫SqlFlow
注意的几个问题:
- 这个产品是商业产品,它是有使用期限的,好像默认是90天
- 如果你要测试SQL,需要先登陆(可能需要和谐上网才能注册账号,这个如果不会的可以留言我发给你工具)
官方的声明如下:
https://www.sqlparser.com/download.php
其实不要被官方说明唬住了,相应的jar包我们还是能用的且不收费,比如 gudusoft.gsqlparser-2.5.1.9.jar(稍后我传上去),这个需要我们将解析的结果进行提取,或者用它的工具方法进行解析等等(完全免费)。
先看下sqlflow的解析功能吧
3.1.支持的解析功能调研
3.1.1 从select语句中直接解析血缘关系(也能支持被函数处理的select 字段)
能支持的粒度: 表级别与字段级别(包括函数)
-- case 1 : mysql
SELECT `user`.name,`order`.price
FROM `user`,`order`
WHERE `user`.id = `order`.uid解析字段血缘结果:
name(`user`) -> name(RS-1)
price(`order`) -> price(RS-1)
支持show function:
-- case 2 :mysql
SELECT `user`.name,pow(floor(`order`.price),2) as calculated_price
FROM `user`,`order`
WHERE `user`.id = `order`.uid解析字段血缘结果(包含中间被函数转换的过程):
name(`user`) -> name(RS-1)
price(`order`) -> floor -> pow -> calculated_price(RS-1)
3.1.2 包含子查询的select语句
SELECT temp.name, max(temp.price) as price
FROM (SELECT `user`.name,`order`.priceFROM `user`,`order`WHERE user.id = order.uid ) as temp
GROUP BY temp.name解析字段血缘结果:
name(`user`) -> name(result of temp) -> name(RS-1)
price(`order`) -> price(result of temp) -> price(RS-1)
3.1.3 复杂语句的支持
支持多种
3.2. 支持引擎调研
源码里支持的种类如下: 已覆盖 Hive、Mysql、SparkSQL、Presto、impala这些常用的SQL引擎
dbvaccess,dbvansi,dbvathena,dbvazuresql,dbvbigquery,dbvcouchbase,dbvdax,dbvdb2,dbvexasol,dbvfirebird,dbvgeneric,dbvgreenplum,dbvhana,dbvhive,dbvimpala,dbvinformix,dbvmdx,dbvmysql,dbvmssql,dbvnetezza,dbvodbc,dbvopenedge,dbvoracle,dbvpostgresql,dbvpresto,dbvredshift,dbvsnowflake,dbvsoql,dbvsparksql,dbvsybase,dbvteradata,dbvtrino,dbvvertica;
3.3. SQL测试案例
略
3.4. 调研结论
- 目前大部分引擎的适配其实做的都OK,识别率挺准的
- 解析的粒度可以精确到字段,函数
- 对于SELECT * 这种字段缺失的,它其实也能处理,前提是会员(需要连接到元数据库进行提取)
- 目前开源社区里其实已经分享了很多的实现解析案例,我们可以直接进行借鉴
- 开源的jar包解析的效果,我测试了下和sqlflow解析效果(识别率)一样
java版, python版demo都有, 本篇先不展开,有兴趣的可以自己下载研究下
3.5. 代码demo
3.5.1 自己解析
自己解析需要自己去遍历AST树,在每一层的信息也需要自己去保存,上下层之间的关系也需要自己维护,直接写比较麻烦点(后面优化下代码设计其实也还可以):
import gudusoft.gsqlparser.EDbVendor;
import gudusoft.gsqlparser.TGSqlParser;
import gudusoft.gsqlparser.TStatementList;
import gudusoft.gsqlparser.nodes.TExpression;
import gudusoft.gsqlparser.nodes.TResultColumn;
import gudusoft.gsqlparser.nodes.TResultColumnList;
import gudusoft.gsqlparser.stmt.TCreateTableSqlStatement;
import gudusoft.gsqlparser.stmt.TSelectSqlStatement;import java.util.LinkedList;
import java.util.stream.StreamSupport;/*** @author pushkin* @version v1.0.0* @date 2022/6/1 16:20* <p>* Modification History:* Date Author Version Description* ------------------------------------------------------------*/public class DemoD {public static void main(String[] args) {// 注SQL已脱敏String sql1 = "CREATE TABLE tmp.jinpushi_066\n" +"AS\n" +"SELECT \n" +"T1.a1, " +"T1.a2, " +"T1.a3, " +"T1.a4 " +",T2.b1" +",T2.b2 \n" +",T3.b3\n" +",T2.b4\n" +",T1.a5\n" +"FROM dwd.jinpushi_01 T1\n" +"LEFT JOIN dim.jinpushi_02 T2\n" +"ON T1.id = T2.id\n" +"LEFT JOIN ods.jinpushi_03 T3\n" +"ON T1.code = T3.value\n" +"AND T3.tyoe = 12306\n" +";\n" +"INSERT OVERWRITE TABLE dwb.jinpushi_05 \n" +"SELECT * FROM tmp.jinpushi_066\n" +";";TGSqlParser sqlparser = new TGSqlParser(EDbVendor.dbvhive);sqlparser.sqltext = sql1;int ret = sqlparser.parse();if (ret == 0) {// 解析出所有语句TStatementList stmts = sqlparser.getSqlstatements();// 拿到create table语句的实例TCreateTableSqlStatement stmt = (TCreateTableSqlStatement) stmts.get(0);// 从create table语句的子查询中,拿到select语句的实例,再获取columnTSelectSqlStatement subquery = stmt.getSubQuery();TResultColumnList columns = subquery.getResultColumnList();LinkedList<String>[] lineages = new LinkedList[columns.size()];for (int i = 0; i < columns.size(); i++) {TResultColumn column = columns.getResultColumn(i);LinkedList<String> lineage = lineages[i] = new LinkedList<>();lineage.addFirst(String.format("%s(%s)", column.getDisplayName(), stmt.getTableName()));lineage.addFirst(String.format("%s(RS-1)", column.getDisplayName()));String columnName = "";if (column.getExpr() != null) {TExpression expr = column.getExpr();while (expr.getFunctionCall() != null) {expr = expr.getFunctionCall().getArgs().getExpression(0);}columnName = expr.toString();}String[] pair = columnName.split("\\.");if (pair.length == 2) {// 有alias,在alias对应的select语句中搜索String prefix = pair[0];String columnDisplayName = pair[1];lineage.addFirst(String.format("%s(%s)", columnDisplayName, prefix));StreamSupport.stream(subquery.tables.spliterator(), false).filter(t -> t.getAliasClause().toString().equalsIgnoreCase(prefix)).findFirst().ifPresent(table -> {TSelectSqlStatement subquery1 = table.subquery;if (subquery1 != null) {TResultColumnList resultColumnList = subquery1.getResultColumnList();resultColumnList.forEach(tableColumn -> {if (columnDisplayName.equalsIgnoreCase(tableColumn.getDisplayName())) {if (tableColumn.getExpr().getFunctionCall() == null) {lineage.addFirst(String.format("%s(%s)", columnDisplayName, table.subquery.tables.getTable(0).getTableName()));} else {lineage.addFirst(String.format("%s(%s)",tableColumn.getExpr().getFunctionCall().getArgs().getElement(0),table.subquery.tables.getTable(0).getTableName()));}}});}});} else if (pair.length == 1) {// 没有alias,在所有的select语句中搜索String columnDisplayName = pair[0];StreamSupport.stream(subquery.tables.spliterator(), false).filter(t -> {if (t.subquery != null) {for (int j = 0; j < t.subquery.getResultColumnList().size(); j++) {if (t.subquery.getResultColumnList().getResultColumn(j).getDisplayName().equalsIgnoreCase(columnDisplayName)) {return true;}}}return false;}).findFirst().ifPresent(table -> {lineage.addFirst(String.format("%s(%s)", columnDisplayName, table.getAliasClause()));lineage.addFirst(String.format("%s(%s)", columnDisplayName, table.subquery.tables.getTable(0)));});}}for (LinkedList<String> lineage : lineages) {System.out.println(String.join(" -> ", lineage));}} else {System.out.println(sqlparser.getErrormessage());}}
}
运行结果:
a1(T1) -> a1(RS-1) -> a1(tmp.jinpushi_066)
a2(T1) -> a2(RS-1) -> a2(tmp.jinpushi_066)
a3(T1) -> a3(RS-1) -> a3(tmp.jinpushi_066)
a4(T1) -> a4(RS-1) -> a4(tmp.jinpushi_066)
b1(T2) -> b1(RS-1) -> b1(tmp.jinpushi_066)
b2(T2) -> b2(RS-1) -> b2(tmp.jinpushi_066)
b3(T3) -> b3(RS-1) -> b3(tmp.jinpushi_066)
b4(T2) -> b4(RS-1) -> b4(tmp.jinpushi_066)
a5(T1) -> a5(RS-1) -> a5(tmp.jinpushi_066)
3.5.2 官方解析工具
import gudusoft.gsqlparser.EDbVendor;
import gudusoft.gsqlparser.dlineage.DataFlowAnalyzer;
import gudusoft.gsqlparser.dlineage.dataflow.model.json.Dataflow;
import gudusoft.gsqlparser.dlineage.dataflow.model.xml.dataflow;
import gudusoft.gsqlparser.dlineage.util.RemoveDataflowFunction;public class TestGSql {public static void main(String[] args) {String sql2 = "CREATE TABLE tmp.tmp_table_a AS \n" +"SELECT T1.id, T1.age, T2.name \n" +"FROM dwd.table1 T1 \n" +"LEFT JOIN \n" +"dwd.table2 T2 ON T1.id = T2.id";System.out.println(getSqlLineage(sql2));}private static Dataflow getSqlLineage(String sql) {DataFlowAnalyzer dlineage = new DataFlowAnalyzer(sql, EDbVendor.dbvhive, false);dlineage.setSqlEnv(null);dlineage.setShowJoin(true);dlineage.setIgnoreRecordSet(true);dlineage.setLinkOrphanColumnToFirstTable(false);dlineage.setTextFormat(false);dlineage.generateDataFlow();dataflow dataFlow = dlineage.getDataFlow();dataFlow.getDatabases();dataflow dataflow = new RemoveDataflowFunction().removeFunction(dlineage.getDataFlow());Dataflow flow = DataFlowAnalyzer.getSqlflowJSONModel(dataflow);return flow;}
}
调试结果:
表(包括对应的字段):
关系
根据以上的信息,其实我们完全可以从中解析出我们想要的结果(表血缘;字段级别血缘)
唯一不足的是对于select * 我们不太好解析,这块后续我也会提供具体实现方案
4. Druid血缘解析方案
pass
等待我有时间写吧
5. 自研解析Hathor项目
https://github.com/Shkin1/hathor
等待我有时间写吧
6. 生产环境最强解析方案思路
等待我有时间写吧
pass
【SQL解析】- SQL血缘分析实现篇01相关推荐
- RedBase SQL解析源码分析
@原创文章,转载请注明: 转载自 镜中影的技术博客 本文链接地址: RedBase SQL解析源码分析) URL:http://blog.csdn.net/linkpark1904/article/d ...
- OpenGauss SQL解析源码分析
OpenGauss SQL解析源码分析 SQL 引擎简介: SQL引擎整个编译的过程如下图所示,在编译的过程中需要对输入的SQL语言进行词法分析.语法分析.语义分析,从而生成逻辑执行计划,逻辑执行计划 ...
- 开源数据库OpenGauss的SQL解析源码分析
首发于:blog: openGauss official blog - Gitee.com 一. OpenGauss数据库体系概述 openGauss是关系型数据库,采用客户端/服务器,单进程多线 ...
- 【参赛作品16】openGauss SQL解析源码分析
作者:梅氵 SQL 引擎简介: SQL引擎整个编译的过程如下图所示,在编译的过程中需要对输入的SQL语言进行词法分析.语法分析.语义分析,从而生成逻辑执行计划,逻辑执行计划经过代数优化和代价优化之后, ...
- 马哈鱼SQLFLow对SQL Server OUTPUT Clause 的数据血缘分析
SQL Server OUTPUT Clause 会对 SQL 语句的血缘分析产生影响,如果忽略对 OUTPUT Clause 的分析,那么将漏掉一些关键的数据血缘关系,从而影响数据血缘分析的准确性, ...
- SQL解析引擎Apache Calcite
1. 什么是Apache Calcite ? Apache Calcite 是一款开源SQL解析工具, 可以将各种SQL语句解析成抽象语法术AST(Abstract Syntax Tree), 之后通 ...
- 监控和剖析数据库操作P6Spy,SQL Profiler,SQL 使用简介
新一篇: 关于java类的动态装载 几乎 80% - 85% 的数据库性能问题是由于应用数据库的设计或者应用程序本身的代码所引起的.因此良好的事务处理能力需要在设计应用程序的时候,在设计数据库的时候就 ...
- 利用元数据提高 SQLFlow 血缘分析结果准确率
一.SQLFlow–数据治理专家的一把利器 数据血缘属于数据治理中的一个概念,是在数据溯源的过程中找到相关数据之间的联系,它是一个逻辑概念.数据治理里经常提到的一个词就是血缘分析,血缘分析是保证数据融 ...
- mysql中10049是什么错误_【学习笔记】Oracle数据库10049用于分析SQL解析笔记案例
[学习笔记]Oracle数据库10049用于分析SQL解析笔记案例 时间:2016-11-05 13:54 来源:Oracle研究中心 作者:HTZ 点击: 次 天萃荷净 Oracle研究 ...
- 推荐两则基于解析SQL的表间血缘关系工具
推荐两则基于解析SQL的表间血缘关系工具 基于大数据脚本,可以用Apache Atlas做元数据的血缘关系分析,很多金融机构仍然在使用老的遗留系统,比如老版本的Hive.数据库存储过程,如何反查表间的 ...
最新文章
- (九)OpenStack---M版---双节点搭建---Swift安装和配置(单存储节点)
- 一篇文章了解Liquid模版引擎
- 【Jetson-Nano】2.Tensorflow object API和Pytorch的安装
- css高度自适应以及高度塌陷总结
- SNMP实现交换机的信息采集——MIB
- 基于高斯分布和OneClassSVM的异常点检测
- 如何实现不同vlan,不同网关的终端间的通信
- 【BZOJ-3573】米特运输 树形DP
- TensorFlow infogan 生成 mnist 数据集
- STM32红外串口接收
- 显卡a卡和n卡的区别
- 计算机学报应用研究,组推荐系统及其应用研究-计算机学报.PDF
- 如何阅读《如何阅读一本书》?
- MATLAB超限邻域滤波
- yum 装包时,提示Peer cert cannot be verified or peer cert invalid
- 嵌入式2.4内核上驱动USB无线网卡
- 阿帕奇(apache)服务器的下载与安装
- 计算机一级考试表格操作2016版,2016年计算机一级考试操作题
- 【c++ 复健】从简单的做起,数组和二维数组
- 申请CSC公派访问学者的常见问题