canal简介及canal部署、原理和使用介绍

  • canal入门
    • 什么是canal
    • canal使用场景
    • canal运行原理
  • MySQL的binlog介绍
    • 什么是binlog
    • 开启MySQL的binlog
    • binlog的分类设置
      • statement [ 语句级 ]
      • row [ 行级 ]
      • mixed [ 综合语句级和行级 ]
    • MySQL 的准备
      • 创建数据库
      • 创建数据表
      • 修改配置文件开启 Binlog
      • 重启 MySQL 使配置生效
      • 测试 Binlog 是否开启
    • 赋权限
    • Canal 的下载和安装
      • 下载并解压 Jar 包
      • 修改 canal.properties 的配置
      • 修改 instance.properties
    • 实时监控测试
      • TCP 模式测试
      • 创建 gmall-canal maven项目
      • 在 gmall-canal 模块中配置 pom.xml
    • 通用监视类 –CanalClient

canal入门

什么是canal

阿里巴巴B2B公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了杭州和美国异地机房的需求,从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。

canal是用java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,canal主要支持了MySQL的binlog解析,解析完成后才利用canal client 用来处理获得的相关数据。(数据库同步需要阿里的otter中间件,基于canal)。

这里我们可以简单地把canal理解为一个用来同步增量数据的一个工具:

canal通过binlog同步拿到变更数据,再发送到存储目的地,比如MySQL,Kafka,Elastic Search等多源同步。

canal使用场景

场景1:原始场景, 阿里otter中间件的一部分

场景2:更新缓存

场景3:抓取业务数据新增变化表,用于制作拉链表。( 拉链表:记录每条信息的生命周期,一旦一条记录的生命周期结束,就要重新开始一条新的记录,并把当前日期放入生效的开始日期 )

场景4:抓取业务表的新增变化数据,用于制作实时统计。

canal运行原理


复制过程分成三步:

1.Master主库将改变记录,写到二进制日志(binary log)中

2.Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log);

3.Slave从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

canal的工作原理很简单,就是把自己伪装成slave,假装从master复制数据。

MySQL的binlog介绍

什么是binlog

MySQL的二进制日志可以说是MySQL最重要的日志了,它记录了所有的DDL和DML( 除了数据查询语句 )语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL的二进制日志是事务安全型的。

一般来说开启二进制日志大概会有1%的性能损耗。二进制有两个最重要的使用场景:

其一:MySQL Replication在Master端开启binlog,Mster把它的二进制日志传递给slaves来达到master-slave数据一致的目的。

其二:通过使用mysqlbinlog工具来使恢复数据。

二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的DDL和DML(除了数据查询语句)语句事件。

开启MySQL的binlog

在mysql的配置文件中开启并重启MySQL生效,一般Linux系统下的MySQL配置文件路径基本都在 /etc/my.cnf ;log-bin=mysql-bin

这个表示binlog日志的前缀是mysql-bin ,以后生成的日志文件就是 mysql-bin.123456 的文件后面的数字按顺序生成。 每次mysql重启或者到达单个文件大小的阈值时,新生一个文件,按顺序编号。

binlog的分类设置

MySQL的binlog的格式有三种,分别是STATEMENT、MIXED、ROW。在配置文件中可以配置选项指定:binlog_format=

statement [ 语句级 ]

语句级,binlog会记录每次一执行写操作的语句。

​ 相对row模式节省空间,但是可能产生不一致性,例如:update table_name set create_date=now();

​ 如果用binlog日志进行恢复,由于执行时间不同可能产生的数据就不同 ( master落库数据时create_date为2021-08-08 11:10:30 ,但binlog从库落库执行语句时create_date的时间可能就变为2021-08-08 11:11:23 ,主要是语句执行时间为异步)

​ 优点: 节省空间

​ 缺点: 有可能造成数据不一致

row [ 行级 ]

行级, binlog会记录每次操作后每行记录的变化。

​ 优点:保持数据的绝对一致性。因为不管sql是什么,引用了什么函数,他只记录执行后的效果。

​ 缺点:占用较大空间。

mixed [ 综合语句级和行级 ]

statement的升级版,一定程度上解决了因一些情况而造成的statement模式不一致问题

​ 在某些情况下譬如:

​ ○ 当函数中包含 UUID() 时;

​ ○ 包含 AUTO_INCREMENT 字段的表被更新时;

​ ○ 执行 INSERT DELAYED 语句时;

​ ○ 用 UDF 时;

​ 会按照 ROW的方式进行处理

​ 优点:节省空间,同时兼顾了一定的一致性。

​ 缺点:还有些极个别情况依旧会造成不一致,另外statement和mixed对于需要对binlog的监控的情况都不方便。

MySQL 的准备

创建数据库

创建数据表

CREATE TABLE user_info(
`id` VARCHAR(255),
`name` VARCHAR(255),
`sex` VARCHAR(255)
);

修改配置文件开启 Binlog

[atguigu@hadoop102 module]$ sudo vim /etc/my.cnf
server-id=1
log-bin=mysql-bin
binlog_format=row
binlog-do-db=gmall-2021

注意:binlog-do-db 根据自己的情况进行修改,指定具体要同步的数据库,如果不配置则表示所有数据库均开启 Binlog

重启 MySQL 使配置生效

sudo systemctl restart mysqld

到/var/lib/mysql 目录下查看初始文件大小 154

[atguigu@hadoop102 lib]$ pwd
/var/lib
[atguigu@hadoop102 lib]$ sudo ls -l mysql
总用量 474152
-rw-r-----. 1 mysql mysql 56 8 月 7 2020 auto.cnf
drwxr-x---. 2 mysql mysql 4096 9 月 25 2020 azkaban
-rw-------. 1 mysql mysql 1680 8 月 7 2020 ca-key.pem
-rw-r--r--. 1 mysql mysql 1112 8 月 7 2020 ca.pem
drwxr-x--- 2 mysql mysql 4096 8 月 18 16:56 cdc_test
-rw-r--r--. 1 mysql mysql 1112 8 月 7 2020 client-cert.pem
-rw-------. 1 mysql mysql 1676 8 月 7 2020 client-key.pem
drwxr-x---. 2 mysql mysql 4096 9 月 25 2020 gmall_report
-rw-r----- 1 mysql mysql 1085 12 月 1 09:12 ib_buffer_pool
-rw-r-----. 1 mysql mysql 79691776 12 月 13 08:45 ibdata1
-rw-r-----. 1 mysql mysql 50331648 12 月 13 08:45 ib_logfile0
-rw-r-----. 1 mysql mysql 50331648 12 月 13 08:45 ib_logfile1
-rw-r----- 1 mysql mysql 12582912 12 月 13 08:45 ibtmp1
drwxr-x--- 2 mysql mysql 4096 9 月 22 15:30 maxwell
drwxr-x---. 2 mysql mysql 4096 8 月 12 2020 metastore
drwxr-x---. 2 mysql mysql 4096 9 月 22 15:43 mysql
-rw-r-----. 1 mysql mysql 154 12 月 13 08:45 mysql-bin.000001
-rw-r----- 1 mysql mysql 19 12 月 13 08:45 mysql-bin.index
srwxrwxrwx 1 mysql mysql 0 12 月 13 08:45 mysql.sock
-rw------- 1 mysql mysql 5 12 月 13 08:45 mysql.sock.lock
drwxr-x---. 2 mysql mysql 4096 8 月 7 2020 performance_schema
-rw-------. 1 mysql mysql 1680 8 月 7 2020 private_key.pem
-rw-r--r--. 1 mysql mysql 452 8 月 7 2020 public_key.pem
-rw-r--r--. 1 mysql mysql 1112 8 月 7 2020 server-cert.pem
-rw-------. 1 mysql mysql 1680 8 月 7 2020 server-key.pem
drwxr-x---. 2 mysql mysql 12288 8 月 7 2020 sys
drwxr-x--- 2 mysql mysql 4096 2 月 2 2021 test
[atguigu@hadoop102 lib]$

测试 Binlog 是否开启

插入数据

INSERT INTO user_info VALUES('1001','zhangsan','male');

再次到/var/lib/mysql 目录下,查看 index 文件的大小

[atguigu@hadoop102 lib]$ sudo ls -l mysql
总用量 474152
-rw-r-----. 1 mysql mysql 56 8 月 7 2020 auto.cnf
drwxr-x---. 2 mysql mysql 4096 9 月 25 2020 azkaban
-rw-------. 1 mysql mysql 1680 8 月 7 2020 ca-key.pem
-rw-r--r--. 1 mysql mysql 1112 8 月 7 2020 ca.pem
drwxr-x--- 2 mysql mysql 4096 8 月 18 16:56 cdc_test
-rw-r--r--. 1 mysql mysql 1112 8 月 7 2020 client-cert.pem
-rw-------. 1 mysql mysql 1676 8 月 7 2020 client-key.pem
drwxr-x---. 2 mysql mysql 4096 9 月 25 2020 gmall_report
-rw-r----- 1 mysql mysql 1085 12 月 1 09:12 ib_buffer_pool
-rw-r-----. 1 mysql mysql 79691776 12 月 13 08:45 ibdata1
-rw-r-----. 1 mysql mysql 50331648 12 月 13 08:45 ib_logfile0
-rw-r-----. 1 mysql mysql 50331648 12 月 13 08:45 ib_logfile1
-rw-r----- 1 mysql mysql 12582912 12 月 13 08:45 ibtmp1
drwxr-x--- 2 mysql mysql 4096 9 月 22 15:30 maxwell
drwxr-x---. 2 mysql mysql 4096 8 月 12 2020 metastore
drwxr-x---. 2 mysql mysql 4096 9 月 22 15:43 mysql
-rw-r-----. 1 mysql mysql 452 12 月 13 08:45 mysql-bin.000001
-rw-r----- 1 mysql mysql 19 12 月 13 08:45 mysql-bin.index
srwxrwxrwx 1 mysql mysql 0 12 月 13 08:45 mysql.sock
-rw------- 1 mysql mysql 5 12 月 13 08:45 mysql.sock.lock
drwxr-x---. 2 mysql mysql 4096 8 月 7 2020 performance_schema
-rw-------. 1 mysql mysql 1680 8 月 7 2020 private_key.pem
-rw-r--r--. 1 mysql mysql 452 8 月 7 2020 public_key.pem
-rw-r--r--. 1 mysql mysql 1112 8 月 7 2020 server-cert.pem
-rw-------. 1 mysql mysql 1680 8 月 7 2020 server-key.pem
drwxr-x---. 2 mysql mysql 12288 8 月 7 2020 sys
drwxr-x--- 2 mysql mysql 4096 2 月 2 2021 test
[atguigu@hadoop102 lib]$

赋权限

在 MySQL 中执行

mysql> set global validate_password_length=4;
mysql> set global validate_password_policy=0;
mysql> GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO
'canal'@'%' IDENTIFIED BY 'canal' ;

Canal 的下载和安装

下载并解压 Jar 包

https://github.com/alibaba/canal/releases
我们直接/2.资料下的 canal.deployer-1.1.2.tar.gz 拷贝到/opt/sortware 目录下,然后解压到/opt/module/canal 包下

注意:canal 解压后是分散的,我们在指定解压目录的时候需要将 canal 指定上

[atguigu@hadoop102 software]$ mkdir /opt/module/canal
[atguigu@hadoop102 software]$ tar -zxvf canal.deployer-1.1.2.tar.gz -C
/opt/module/canal

修改 canal.properties 的配置

[atguigu@hadoop102 conf]$ pwd
/opt/module/canal/conf
[atguigu@hadoop102 conf]$ vim canal.properties
#################################################
######### common argument #############
#################################################
canal.id = 1
canal.ip =
canal.port = 11111
canal.metrics.pull.port = 11112
canal.zkServers =
# flush data to zk
canal.zookeeper.flush.period = 1000
canal.withoutNetty = false
# tcp, kafka, RocketMQ
**canal.serverMode = tcp**
# flush meta cursor/parse position to file

说明:这个文件是 canal 的基本通用配置,canal 端口号默认就是 11111,修改 canal 的
输出 model,默认 tcp,改为输出到 kafka
多实例配置如果创建多个实例,通过前面 canal 架构,我们可以知道,一个 canal 服务
中可以有多个 instance,conf/下的每一个 example 即是一个实例,每个实例下面都有独立的
配置文件。默认只有一个实例 example,如果需要多个实例处理不同的 MySQL 数据的话,直
接拷贝出多个 example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改
canal.properties 中的 canal.destinations=实例 1,实例 2,实例 3。

#################################################
######### destinations #############
#################################################
canal.destinations = example

修改 instance.properties

我们这里只读取一个 MySQL 数据,所以只有一个实例,这个实例的配置文件在
conf/example 目录下。

[atguigu@hadoop102 example]$ pwd
/opt/module/canal/conf/example
[atguigu@hadoop102 example]$ vim instance.properties

配置 MySQL 服务器地址

#################################################
## mysql serverId , v1.0.26+ will autoGen
canal.instance.mysql.slaveId=20
# enable gtid use true/false
canal.instance.gtidon=false
# position info
**canal.instance.master.address=hadoop102:3306**

配置连接 MySQL 的用户名和密码,默认就是我们前面授权的 canal

# username/password
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.connectionCharset = UTF-8
canal.instance.defaultDatabaseName =test
# enable druid Decrypt database password
canal.instance.enableDruid=false

实时监控测试

TCP 模式测试

创建 gmall-canal maven项目


在 gmall-canal 模块中配置 pom.xml

<dependencies><dependency><groupId>com.alibaba.otter</groupId><artifactId>canal.client</artifactId><version>1.1.2</version>
</dependency><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>2.4.1</version></dependency>
</dependencies>

通用监视类 –CanalClient

1、Canal 封装的数据结构

在 gmall-canal 模块下创建 com.atguigu.app 包,并在包下创建 CanalClient(java 代码)代码如下:

package ks;import com.alibaba.fastjson.JSONObject;
import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.alibaba.otter.canal.protocol.Message;
import com.google.protobuf.ByteString;
import com.google.protobuf.InvalidProtocolBufferException;import java.net.InetSocketAddress;
import java.util.List;public class CnaTrsy {public static void main(String[] args) throws InvalidProtocolBufferException {//获取连接CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("47.107.100.239", 11111), "example", "", "");while(true){//连接connector.connect();//指定数据库connector.subscribe("gmall-2022.*");//4.获取 MessageMessage message = connector.get(100);List<CanalEntry.Entry> entries = message.getEntries();if (entries.size()<=0){//没有数据等待System.out.println("没有数据,等待一下");try {Thread.sleep(1000);} catch (InterruptedException e) {e.printStackTrace();}}else{for (CanalEntry.Entry entry : entries) {//获取表名String tableName = entry.getHeader().getTableName();//类型CanalEntry.EntryType entryType = entry.getEntryType();if (entryType.equals(CanalEntry.EntryType.ROWDATA)){ByteString storeValue = entry.getStoreValue();//反序列化CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);//获取事件的类型CanalEntry.EventType eventType = rowChange.getEventType();List<CanalEntry.RowData> rowDatasList = rowChange.getRowDatasList();for (CanalEntry.RowData rowData : rowDatasList) {JSONObject beforeData=new JSONObject();List<CanalEntry.Column> beforeColumnsList = rowData.getBeforeColumnsList();for (CanalEntry.Column column : beforeColumnsList) {beforeData.put(column.getName(),column.getValue());}JSONObject afterData=new JSONObject();List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();for (CanalEntry.Column column : afterColumnsList) {afterData.put(column.getName(),column.getValue());}System.out.println("beforeData:"+beforeData+"afterData:"+afterData+"TableName:"+tableName+"eventType:"+eventType);}}}}}}
}

canal简介及canal部署、TCP原理和使用介绍相关推荐

  1. ElasticSearch简介及ElasticSearch部署、原理和使用介绍

    ElasticSearch简介及ElasticSearch部署.原理和使用介绍 第一章:elasticsearch简介 ElasticSearch是一个基于Lucene的搜索服务器.它提供了一个分布式 ...

  2. Pulsar简介及Pulsar部署、原理和使用介绍

    Pulsar简介及Pulsar部署.原理和使用介绍 Pulsar简介 诞生背景 Apache Pulsar 是一个企业级的分布式消息系统,最初由 Yahoo 开发,在 2016 年开源,并于2018年 ...

  3. Flume简介及Flume部署、原理和使用介绍

    Flume简介及Flume部署.原理和使用介绍 Flume概述 ​ Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集.聚合和传输的系统.Flume基于流式架构,灵活简单. ...

  4. azkaban简介及azkaban部署、原理和使用介绍

    azkaban简介及azkaban部署.原理和使用介绍 azkaban简介 ​ Azkaban是一套简单的任务调度服务,整体包括三部分webserver.dbserver.executorserver ...

  5. CDH简介及CDH部署、原理和使用介绍( 版本6.3.1 )

    CDH简介及CDH部署.原理和使用介绍( 版本6.3.1 ) 第一章:CDH简介 CDH概念 ​ CDH是Cloudera的100%开源平台发行版,包括Apache Hadoop,专为满足企业需求而构 ...

  6. TIDB简介及TIDB部署、原理和使用介绍

    TiDB简介及TiDB部署.原理和使用介绍 从MySQL架构到TiDB 数据库分类 ​ 介绍TiDB数据库之前,先引入使用场景.如今的数据库种类繁多,RDBMS(关系型数据库).NoSQL(Not O ...

  7. canal简介及canal部署、原理和使用介绍

    阿里canal简介及canal部署.原理和使用介绍 canal入门 什么是canal 阿里巴巴B2B公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了杭州和美国异地机房的需求, ...

  8. Kafka部署、原理和使用介绍

    Kafka简介及Kafka部署.原理和使用介绍 Kafka简介 定义 Kafka是一种消息队列,是一个分布式的基于发布/订阅模式的,主要用来处理大量数据状态下的消息队列,一般用来做日志的处理.既然是消 ...

  9. canal部署、原理和使用介绍

    canal简介及canal部署.原理和使用介绍 canal入门 什么是canal 阿里巴巴B2B公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了杭州和美国异地机房的需求,从2 ...

最新文章

  1. 都说AIOps是必然趋势,那实践AIOps之前需要做些什么准备?\n
  2. 【杂谈】学深度学习的你有GPU了吗
  3. js-ajax-04
  4. [Leedcode][JAVA][第94/144/145题][前中后序遍历][递归][迭代][二叉树]
  5. latex中\left[\right]在多行公式中的问题
  6. 线性代数第八章 λ 矩阵 定理8 多项式最大公约数的性质
  7. [ 文献翻译 ] 非合作博弈中的固定时间纳什均衡求解
  8. http://www.spiceworks.com
  9. 计算机网络(网络编程)
  10. 一个检查输入内容的 AppCompatEditText 。
  11. 实验二 分析1996~2015年人口数据各个特征的分布与分散状况
  12. 一个uniapp开发的任务类小程序源码
  13. 设计模式基础学习之单例模式
  14. SAP中公司间过账问题处理实例
  15. C语言将三个整数进行排序
  16. 无线蓝牙耳机手机端app开发_汪峰耗时1500天造了一款耳机,秒杀苹果AirPods!
  17. mac protobuf java_mac 下 使用 protobuf 生成 java 及 js 及配合socket.io 使用
  18. 点到直线的距离计算原理及MATLAB程序
  19. 国密浏览器如何完成SM2国密SSL协议协商
  20. Python 黑帽子 snffer ip header decoder

热门文章

  1. 阿里云十年铸「器」,容器服务迈入智能化时代
  2. 【数学建模】14 微分方程模型求解方法
  3. Deeplab系列算法
  4. win10蓝屏无法进入系统_Win10 补丁又翻车!蓝屏卡顿崩溃,系统性能“负优化”...
  5. 【成像】【8】太赫兹光学——波束耦合,高阶高斯波束模型
  6. 深度学习最佳图书推荐(2019版)
  7. 轮盘抽奖html页面,范例之轮盘抽奖
  8. 北大杨耀东:AI与博弈决策,这场科研battle才刚刚开始
  9. python在材料方面的应用_python应用性能监控工具简介
  10. python实现dat文件批量转换为 excel文件 关键词 批量格式转换 dat文件 excel读写 诺祺 可发表知乎ed csdn ed