写在前面

好久没更新Blog了,从CRUD Boy转型大数据开发,拉宽了不少的知识面,从今年年初开始筹备、组建、招兵买马,到现在稳定开搞中,期间踏过无数的火坑,也许除了这篇还很写上三四篇。

进入主题,通常企业为了实现数据统计、数据分析、数据挖掘、解决信息孤岛等全局数据的系统化运作管理 ,为BI、经营分析、决策支持系统等深度开发应用奠定基础,挖掘数据价值 ,企业会开始着手建立数据仓库,数据中台。而这些数据来源则来自于企业的各个业务系统的数据或爬取外部的数据,从业务系统数据到数据仓库的过程就是一个ETL(Extract-Transform-Load)行为,包括了采集、清洗、数据转换等主要过程,通常异构数据抽取转换使用Sqoop、DataX等,日志采集Flume、Logstash、Filebeat等。

数据抽取分为全量抽取和增量抽取,全量抽取类似于数据迁移或数据复制,全量抽取很好理解;增量抽取在全量的基础上做增量,只监听、捕捉动态变化的数据。如何捕捉数据的变化是增量抽取的关键,一是准确性,必须保证准确的捕捉到数据的动态变化,二是性能,不能对业务系统造成太大的压力。

增量抽取方式

  通常增量抽取有几种方式,各有优缺点。

1. 触发器

  在源数据库上的目标表创建触发器,监听增、删、改操作,捕捉到数据的变更写入临时表。

优点:操作简单、规则清晰,对源表不影响;

缺点:对源数据库有侵入,对业务系统有一定的影响;

2. 全表比对

  在ETL过程中,抽取方建立临时表待全量抽取存储,然后在进行比对数据。

优点:对源数据库、源表都无需改动,完全交付ETL过程处理,统一管理;

缺点:ETL效率低、设计复杂,数据量越大,速度越慢,时效性不确定;

3. 全表删除后再插入

  在抽取数据之前,先将表中数据清空,然后全量抽取。

优点:ETL 操作简单,速度快。

缺点:全量抽取一般采取T+1的形式,抽取数据量大的表容易对数据库造成压力;

4. 时间戳

  时间戳的方式即在源表上增加时间戳列,对发生变更的表进行更新,然后根据时间戳进行提取。

优点:操作简单,ELT逻辑清晰,性能比较好;

缺点:对业务系统有侵入,数据库表也需要额外增加字段。对于老的业务系统可能不容易做变更。

5. CDC方式

  变更数据捕获Change Data Capture(简称CDC),SQLServer为实时更新数据同步提供了CDC机制,类似于Mysql的binlog,将数据更新操作维护到一张CDC表中。开启CDC的源表在插入INSERT、更新UPDATE和删除DELETE活动时会插入数据到日志表中。cdc通过捕获进程将变更数据捕获到变更表中,通过cdc提供的查询函数,可以捕获这部分数据。详情可以查看官方介绍:关于变更数据捕获 (SQL Server)

优点:提供易于使用的API 来设置CDC 环境,缩短ETL 的时间,无需修改业务系统表结构。

缺点:受数据库版本的限制,实现过程相对复杂。

CDC增量抽取

先决条件

1. 已搭建好Kafka集群,Zookeeper集群;

2. 源数据库支持CDC,版本采用开发版或企业版。

案例环境:

Ubuntu 20.04

Kafka 2.13-2.7.0

Zookeeper  3.6.2

SQL Server 2012

步骤

  除了数据库开启CDC支持以外,主要还是要将变更的数据通过Kafka Connect传输数据,Debezium是目前官方推荐的连接器,它支持绝大多数主流数据库:MySQL、PostgreSQL、SQL Server、Oracle等等,详情查看Connectors。

1. 数据库步骤

开启数据库CDC支持

  在源数据库执行以下命令:

EXEC sys.sp_cdc_enable_db GO

附上关闭语句:

exec sys.sp_cdc_disable_db

查询是否启用

select * from sys.databases where is_cdc_enabled = 1

创建测试数据表:(已有表则跳过此步骤)

create  table T_LioCDC
(ID int identity(1,1) primary key ,Name nvarchar(16),Sex bit,CreateTime datetime,UpdateTime datetime
);

对源表开启CDC支持:

exec sp_cdc_enable_table
@source_schema='dbo',
@source_name='T_LioCDC',
@role_name=null,
@supports_net_changes = 1;

确认是否有权限访问CDC Table:

EXEC sys.sp_cdc_help_change_data_capture

 确认SQL Server Agent已开启:

EXEC master.dbo.xp_servicecontrol N'QUERYSTATE',N'SQLSERVERAGENT'

以上则完成对数据库的CDC操作。

2. Kafka步骤

Kafka Connect的工作模式分为两种,分别是standalone模式和distributed模式。standalone用于单机测试,本文用distributed模式,用于生产环境。(Kafka必须先运行启动,再进行以下步骤进行配置。)

下载Sql Server Connector

下载连接器后,创建一个文件夹来存放,解压到该目录下即可,例子路径: /usr/soft/kafka/kafka_2.13_2.7.0/plugins (记住这个路径,配置中要用到)。

下载地址:debezium-connector-sqlserver-1.5.0.Final-plugin.tar.gz

编辑connect-distributed.properties配置

  修改Kafka connect配置文件,$KAFKA_HOME/config/connect-distributed.properties,变更内容如下:

//kafka集群ip+port
bootstrap.servers=172.192.10.210:9092,172.192.10.211:9092,172.192.10.212:9092key.converter.schemas.enable=false
value.converter.schemas.enable=falseoffset.storage.topic=connect-offsets
offset.storage.replication.factor=1
offset.storage.partitions=3
offset.storage.cleanup.policy=compactconfig.storage.topic=connect-configs
config.storage.replication.factor=1status.storage.topic=connect-status
status.storage.replication.factor=1
status.storage.partitions=3
//刚刚下载连接器解压的路径
plugin.path=/usr/soft/kafka/kafka_2.13_2.7.0/plugins

看到配置中有三个Topic,分别是

config.storage.topic:用以保存connector和task的配置信息,需要注意的是这个主题的分区数只能是1,而且是有多副本的。
offset.storage.topic:用以保存offset信息。
status.storage.topic:用以保存connetor的状态信息。

这些Topic可以不用创建,启动后会默认创建。


启动Kafka集群

  保存配置之后,将connect-distributed.properties分发到集群中,然后启动:

bin/connect-distributed.sh config/connect-distributed.properties


检查是否启动

  connector支持REST API的方式进行管理,所以用Post man或者Fiddler可以调用相关接口进行管理。检查是否启动:

不用奇怪,上面配置集群的IP是172段,这里的192.168.1.177仍是我的集群中的一个服务器,因为服务器都使用了双网卡。因为还没有连接器相关配置,所以接口返回是一个空数组,接下来将新增一个连接器。

编写sqlserver-cdc-source.json

{"name": "sqlserver-cdc-source","config": {"connector.class" : "io.debezium.connector.sqlserver.SqlServerConnector","database.server.name" : "JnServer","database.hostname" : "172.192.20.2", --目标数据库的ip"database.port" : "1433",  --目标数据库的端口"database.user" : "sa",   --目标数据库的账号"database.password" : "123456",  --密码"database.dbname" : "Dis",  --目标数据库的数据库名称"table.whitelist": "dbo.T_LioCDC", --监听表名"schemas.enable" : "false",  "mode":"incrementing",  --增量模式"incrementing.column.name": "ID", --增量列名"database.history.kafka.bootstrap.servers" : "172.192.10.210:9092,172.192.10.211:9092,172.192.10.212", --kafka集群"database.history.kafka.topic": "TopicTLioCDC",  --kafka topic内部使用,不是由消费者使用"value.converter.schemas.enable":"false","value.converter":"org.apache.kafka.connect.json.JsonConverter"}
}
//源文地址:https://www.cnblogs.com/EminemJK/p/14688907.html

还有其他额外的配置,可以参考官方文档。然后执行:

继续执行检查,就发现连接器已经成功配置了:

其他API

GET /connectors – 返回所有正在运行的connector名。
POST /connectors – 新建一个connector; 请求体必须是json格式并且需要包含name字段和config字段,name是connector的名字,config是json格式,必须包含你的connector的配置信息。
GET /connectors/{name} – 获取指定connetor的信息。
GET /connectors/{name}/config – 获取指定connector的配置信息。
PUT /connectors/{name}/config – 更新指定connector的配置信息。
GET /connectors/{name}/status – 获取指定connector的状态,包括它是否在运行、停止、或者失败,如果发生错误,还会列出错误的具体信息。
GET /connectors/{name}/tasks – 获取指定connector正在运行的task。
GET /connectors/{name}/tasks/{taskid}/status – 获取指定connector的task的状态信息。
PUT /connectors/{name}/pause – 暂停connector和它的task,停止数据处理知道它被恢复。
PUT /connectors/{name}/resume – 恢复一个被暂停的connector。
POST /connectors/{name}/restart – 重启一个connector,尤其是在一个connector运行失败的情况下比较常用
POST /connectors/{name}/tasks/{taskId}/restart – 重启一个task,一般是因为它运行失败才这样做。
DELETE /connectors/{name} – 删除一个connector,停止它的所有task并删除配置。//源文地址: https://www.cnblogs.com/EminemJK/p/14688907.html

查看Topic

/usr/soft/kafka/kafka_2.13_2.7.0# bin/kafka-topics.sh --list --zookeeper localhost:2000

Topic JnServer.dbo.T_LioCDC 则是供我们消费的主题,启动一个消费者进行监听测试:

bin/kafka-console-consumer.sh --bootstrap-server 172.192.10.210:9092  --consumer-property group.id=group1 --consumer-property client.id=consumer-1  --topic JnServer.dbo.T_LioCDC

然后再源表进行一些列增删改操作,

--测试代码
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('A',1,getdate(),getdate())
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('B',0,getdate(),getdate())
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('C',1,getdate(),getdate())
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('D',0,getdate(),getdate())
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('E',1,getdate(),getdate())
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('F',1,getdate(),getdate())
insert into T_LioCDC(name, sex, createtime,UpdateTime)  values ('G',0,getdate(),getdate())update T_LioCDC
set Name='Lio.Huang',UpdateTime=getdate()
where ID=7

已经成功捕捉到数据的变更,对比几个操作Json,依次是insert、update、delete:

最后

下班!

(注文中的指定链接可在"阅读原文"中获取)

SQL Server CDC配合Kafka Connect监听数据变化相关推荐

  1. js给php注册网页添加实时监听,js 实现watch监听数据变化的代码

    1.js /** * @desc 属性改变监听,属性被set时出发watch的方法,类似vue的watch * @author Jason * @study https://www.jianshu.c ...

  2. 微信小程序,实现 watch 属性,监听数据变化

    转自微信小程序,实现 watch 属性,监听数据变化 目标 在微信小程序实现 watch 属性,监听 data 中的属性,当被监听属性的值改变时,执行我们指定的方法.​​ 思路 Vue 的 compu ...

  3. 微信小程序实现watch监听数据变化

    起因:众所周知,微信小程序的数据监听器observers只能在自定义组件中使用,如果想要在页面中实现类似的功能,就只有通过其他的方法.其一就是通过模拟vue的watch来监听数据变化. 实现如下: 1 ...

  4. 微信小程序使用watch监听数据变化

    众所周知,Vue中,可以使用监听属性 watch来观察和响应 Vue 实例上的数据变化,那么小程序能不能实现这一点呢? 监听器的原理,是将data中需监听的数据写在watch对象中,并给其提供一个方法 ...

  5. vue之 watch 监听数据变化 watch的使用、watch监听数据加载完成后执行、watch不触发、不生效的解决办法及原理

    常用方法: watch监听数据完成后执行函数: watch: {huxing: {handler: function(newVal, oldVal) {this.huxingW();},deep: t ...

  6. vue 监听表格里的数据变化_vue中监听数据变化 watch

    今天做项目的时候,子组件中数据(原本固定的数据)需要父组件动态传入,如果一开始初始化用到的数据.但当时还没有获取到,初始化结束就不会更新数据了.只有监听这两个属性,再重新执行初始化. 1.watch是 ...

  7. Vue中watch监听数据变化以及watch中各属性详解

    watch使用的几种方法 通过watch监听data数据的变化,数据发生变化时,就会打印当前的值 data(){return {msg: '你在想屁吃!',info: '555...',} } wat ...

  8. Vue中使用watch来监听数据变化

    写法一: methods:{//监听isMD upProp(){if(this.isMD){//如果isMD等于true 就把storeManagerName赋值给isStoreManagerName ...

  9. 微信小程序实现watch属性监听数据变化

    Vue 提供了一种通用的方式来观察和响应 Vue 实例上的数据变动:监听属性 watch. 虽然watch的滥用会导致性能不佳,但在一些情况下我们还是需要watch,使得代码更加简洁.逻辑更加清晰(其 ...

最新文章

  1. 百练2815 城堡问题
  2. 因为银行过度授信导致信用卡逾期还不上,可以拒绝还款吗?
  3. 程序人生:给程序员的18个建议
  4. vbs关不掉的计算机窗口,恶搞之关不掉的窗口.vbs脚本
  5. 两个数据库表同步的可视化WEB同步程序
  6. 软件开发技术文档_你知道,直播软件开发需要做的准备工作有哪些?
  7. 牛客网编程题05--进制转换
  8. css如何去掉已经存在的样式_CSS 选择器的介绍和使用(一)
  9. 基于滑模变结构的倒立摆控制系统matlab仿真
  10. 关于解决keil5中*** FATAL ERROR L250: CODE SIZE LIMIT IN RESTRICTED VERSION EXCEEDED的问题
  11. 软件开发的里程碑简单概念
  12. 怎么用python批量发送邮件_Python实现批量发邮件
  13. Word文档另存为PDF时修改的交叉引用还原bug
  14. 【小程序源码】游戏助手王者荣耀战力查询,游戏扫码登录器等
  15. 【算法图解】第七章:7.5(狄克斯特拉算法优化版)
  16. 使用R/qtl进行QTL分析
  17. Google浏览器Chrome正式发布
  18. 基于C#+Mysql实现(WinForm)企业的设备管理系统【100010018】
  19. Jzoj5450【NOIP2017提高A组冲刺11.4】Neutral
  20. 独立后台月老办事处一元交友盲盒微信小程序源码下载,可自定义价格

热门文章

  1. shell结合expect写的批量scp脚本工具
  2. linux lsof/netstat查看进程和端口号相关命令:
  3. jQuery遍历not的用法
  4. war部署到tomcat
  5. Mac OS使用技巧十七:丰富多彩的花哨输入法
  6. alexa语音实现_如何通过语音删除Alexa录音
  7. 火狐 新增标签 一直加载_在Firefox的新标签页中加载最后标签页的URL
  8. python蓝牙编程_蓝牙编程经典程序!
  9. [Hadoop in China 2011] 中兴:NoSQL应用现状及电信业务实践
  10. Hadoop部署方式-高可用集群部署(High Availability)