写点什么

基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成

作者:Apache Flink
  • 2025-02-27
    陕西
  • 本文字数:5564 字

    阅读完需:约 18 分钟

基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成

这篇教程将展示如何基于 Flink CDC YAML 快速构建 MySQL 到 Kafka 的流式数据集成作业,包含整库同步、表结构变更同步的演示和特色功能的介绍。


本教程的演示都将在 Flink CDC CLI 中进行,无需一行 Java/Scala 代码,也无需安装 IDE。


准备阶段准备 Flink Standalone 集群下载 Flink 1.19.2,解压后得到 flink-1.19.2 目录。使用下面的命令跳转至 Flink 目录下,并且设置 FLINK_HOME 为 flink-1.19.2 所在目录。tar -zxvf flink-1.19.2-bin-scala_2.12.tgzexport FLINK_HOME=$(pwd)/flink-1.19.2cd flink-1.19.2 通过在 conf/config.yaml 配置文件追加下列参数开启 checkpoint,每隔 3 秒做一次 checkpoint。execution:checkpointing:interval: 3000 使用下面的命令启动 Flink 集群。./bin/start-cluster.sh 启动成功的话,可以在 http://localhost:8081/访问到 Flink Web UI,如下图所示 :


重复执行 start-cluster.sh 可以拉起多个 TaskManager。


注:如果你是云服务器,无法访问本地,需要将 conf/config.yaml 里面 rest.bind-address 和 rest.address 的 localhost 改成 0.0.0.0,然后使用 公网 IP:8081 即可访问。


准备 Docker 环境使用下面的内容创建一个 docker-compose.yml 文件:


services:Zookeeper:image: zookeeper:3.7.1ports:- "2181:2181"environment:- ALLOW_ANONYMOUS_LOGIN=yesKafka:image: bitnami/kafka:2.8.1ports:- "9092:9092"- "9093:9093"environment:- ALLOW_PLAINTEXT_LISTENER=yes- KAFKA_LISTENERS=PLAINTEXT://:9092- KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.67.2:9092- KAFKA_ZOOKEEPER_CONNECT=192.168.67.2:2181MySQL:image: debezium/example-mysql:1.1ports:- "3306:3306"environment:- MYSQL_ROOT_PASSWORD=123456- MYSQL_USER=mysqluser- MYSQL_PASSWORD=mysqlpw 注意:文件里面的 192.168.67.2 为内网 IP,可通过 ifconfig 查找。


该 Docker Compose 中包含的组件有:


MySQL: 包含商品信息的数据库 app_db


Kafka: 存储从 MySQL 中根据规则映射过来的结果表


Zookeeper:主要用于进行 Kafka 集群管理和协调


在 docker-compose.yml 所在目录下执行下面的命令来启动本教程需要的组件:


docker-compose up -d 该命令将以 detached 模式自动启动 Docker Compose 配置中定义的所有组件。你可以通过 docker ps 来观察上述的容器是否正常启动了。


在 MySQL 数据库中准备数据进入 MySQL 容器


docker-compose exec MySQL mysql -uroot -p123456 创建数据库 app_db 和表 orders,products,shipments 并插入数据


-- 创建数据库 CREATE DATABASE app_db;


USE app_db;


-- 创建 orders 表 CREATE TABLE orders (id INT NOT NULL,price DECIMAL(10,2) NOT NULL,PRIMARY KEY (id));


-- 插入数据 INSERT INTO orders (id, price) VALUES (1, 4.00);INSERT INTO orders (id, price) VALUES (2, 100.00);


-- 创建 shipments 表 CREATE TABLE shipments (id INT NOT NULL,city VARCHAR(255) NOT NULL,PRIMARY KEY (id));


-- 插入数据 INSERT INTO shipments (id, city) VALUES (1, 'beijing');INSERT INTO shipments (id, city) VALUES (2, 'xian');


-- 创建 products 表 CREATE TABLE products (id INT NOT NULL,product VARCHAR(255) NOT NULL,PRIMARY KEY (id));


-- 插入数据 INSERT INTO products (id, product) VALUES (1, 'Beer');INSERT INTO products (id, product) VALUES (2, 'Cap');INSERT INTO products (id, product) VALUES (3, 'Peanut');通过 Flink CDC CLI 提交任务下载下面列出的二进制压缩包,并解压得到目录 flink-cdc-3.3.0;flink-cdc-3.3.0-bin.tar.gz 下会包含 bin、lib、log、conf 四个目录。


下载下面列出的 connector 包,并且移动到 lib 目录下:


MySQL pipeline connector 3.3.0


Kafka pipeline connector 3.3.0 您还需要将下面的 Driver 包放在 Flink lib 目录下,或通过 --jar 参数将其传入 Flink CDC CLI,因为 CDC Connectors 不再包含这些 Drivers:


MySQL Connector Java 编写任务配置 yaml 文件下面给出了一个整库同步的示例文件 mysql-to-kafka.yaml:


################################################################################

Description: Sync MySQL all tables to Kafka

################################################################################source:type: mysqlhostname: 0.0.0.0port: 3306username: rootpassword: 123456tables: app_db..*server-id: 5400-5404server-time-zone: UTC


sink:type: kafkaname: Kafka Sinkproperties.bootstrap.servers: 0.0.0.0:9092topic: yaml-mysql-kafkapipeline:name: MySQL to Kafka Pipelineparallelism: 1 其中:source 中的 tables: app_db..* 通过正则匹配同步 app_db 下的所有表。


最后,通过命令行提交任务到 Flink Standalone clusterbash bin/flink-cdc.sh mysql-to-kafka.yaml

参考,一些自定义路径的示例 主要用于多版本 flink,mysql 驱动不一致等情况 如,

bash /root/flink-cdc-3.3.0/bin/flink-cdc.sh /root/flink-cdc-3.3.0/bin/mysql-to-kafka.yaml --flink-home /root/flink-1.19. --jar /root/flink-cdc-3.3.0/lib/mysql-connector-java-8.0.27.jar

提交成功后,返回信息如:


Pipeline has been submitted to cluster.Job ID: ba2afd0697524bd4857183936507b0bfJob Description: MySQL to Kafka Pipeline 在 Flink Web UI,可以看到一个名为 MySQL to Kafka Pipeline 的任务正在运行。


可以通过 kafka 自带的客户端查看 Topic 情况,得到 debezium-json 格式的内容:


docker-compose exec Kafka kafka-console-consumer.sh --bootstrap-server 192.168.31.229:9092 --topic yaml-mysql-kafka --from-beginningdebezium-json 格式包含了 before,after,op,source 几个元素,展示示例如下:


{"before": null,"after": {"id": 1,"price": 4},"op": "c","source": {"db": "app_db","table": "orders"}}...{"before": null,"after": {"id": 1,"product": "Beer"},"op": "c","source": {"db": "app_db","table": "products"}}...{"before": null,"after": {"id": 2,"city": "xian"},"op": "c","source": {"db": "app_db","table": "shipments"}}同步变更进入 MySQL 容器:


docker-compose exec MySQL mysql -uroot -p123456 接下来,修改 MySQL 数据库中表的数据,StarRocks 中显示的订单数据也将实时更新:


在 MySQL 的 orders 表中插入一条数据 INSERT INTO app_db.orders (id, price) VALUES (3, 100.00);在 MySQL 的 orders 表中增加一个字段 ALTER TABLE app_db.orders ADD amount varchar(100) NULL;在 MySQL 的 orders 表中更新一条数据 UPDATE app_db.orders SET price=100.00, amount=100.00 WHERE id=1;在 MySQL 的 orders 表中删除一条数据 DELETE FROM app_db.orders WHERE id=2;通过消费者监控 topic,我们可以看到 Kafka 上也在实时发生着这些变更:


{"before": {"id": 1,"price": 4,"amount": null},"after": {"id": 1,"price": 100,"amount": "100.00"},"op": "u","source": {"db": "app_db","table": "orders"}}同样地,去修改 shipments, products 表,也能在 Kafka 对应的 topic 中实时看到同步变更的结果。


路由变更 Flink CDC 提供了将源表的表结构/数据路由到其他表名的配置,借助这种能力,我们能够实现表名库名替换,整库同步等功能。下面提供一个配置文件说明:


################################################################################

Description: Sync MySQL all tables to Kafka

################################################################################source:type: mysqlhostname: 0.0.0.0port: 3306username: rootpassword: 123456tables: app_db..*server-id: 5400-5404server-time-zone: UTC


sink:type: kafkaname: Kafka Sinkproperties.bootstrap.servers: 0.0.0.0:9092pipeline:name: MySQL to Kafka Pipelineparallelism: 1route:


  • source-table: app_db.orderssink-table: kafka_ods_orders

  • source-table: app_db.shipmentssink-table: kafka_ods_shipments

  • source-table: app_db.productssink-table: kafka_ods_products 通过上面的 route 配置,会将 app_db.orders 表的结构和数据同步到 kafka_ods_orders 中。从而实现数据库迁移的功能。特别地,source-table 支持正则表达式匹配多表,从而实现分库分表同步的功能,例如下面的配置:


route:


  • source-table: app_db.order.*sink-table: kafka_ods_orders 这样,就可以将诸如 app_db.order01、app_db.order02、app_db.order03 的表汇总到 kafka_ods_orders 中。利用 kafka 自带的工具,可查看对应 Topic 成功建立,数据详情可使用 kafka-console-consumer.sh 进行查询:


docker-compose exec Kafka kafka-topics.sh --bootstrap-server 192.168.67.2:9092 --list 新创建的 Kafka Topic 信息如下:


__consumer_offsetskafka_ods_orderskafka_ods_productskafka_ods_shipmentsyaml-mysql-kafka 选取 kafka_ods_orders 这个 Topic 进行查询,返回数据示例如下:


{"before": null,"after": {"id": 1,"price": 100,"amount": "100.00"},"op": "c","source": {"db": null,"table": "kafka_ods_orders"}}写入多个分区使用 partition.strategy 参数可以定义发送数据到 Kafka 分区的策略, 可以设置的选项有:


all-to-zero(将所有数据发送到 0 号分区),默认值


hash-by-key(所有数据根据主键的哈希值分发)


我们基于 mysql-to-kafka.yaml 在 sink 下定义一行 partition.strategy: hash-by-key


source:...sink:...topic: yaml-mysql-kafka-hash-by-keypartition.strategy: hash-by-keypipeline:...同时我们利用 Kafka 的脚本新建一个 12 分区的 kafka Topic:


docker-compose exec Kafka kafka-topics.sh --create --topic yaml-mysql-kafka-hash-by-key --bootstrap-server 192.168.67.2:9092 --partitions 12 提交 yaml 程序后,这个时候我们指定一下分区消费,查看一下各个分区里面所存储的数据。


docker-compose exec Kafka kafka-console-consumer.sh --bootstrap-server=192.168.67.2:9092 --topic yaml-mysql-kafka-hash-by-key --partition 0 --from-beginning 部分分区数据详情如下:

分区 0

{


"before": null,"after": {
"id": 1, "price": 100, "amount": "100.00"},"op": "c","source": {
"db": "app_db", "table": "orders"}
复制代码


}

分区 4

{


"before": null,"after": {
"id": 2, "product": "Cap"},"op": "c","source": {
"db": "app_db", "table": "products"}
复制代码


}{


"before": null,"after": {
"id": 1, "city": "beijing"},"op": "c","source": {
"db": "app_db", "table": "shipments"}
复制代码


}输出格式 value.format 参数用于序列化 Kafka 消息的值部分数据的格式。可选的填写值包括 debezium-json 和 canal-json, 默认值为 debezium-json,目前还不支持用户自定义输出格式。


debezium-json 格式会包含 before(变更前的数据)/after(变更后的数据)/op(变更类型)/source(元数据) 几个元素,ts_ms 字段并不会默认包含在输出结构中(需要在 Source 中指定 metadata.list 配合)。


canal-json 格式会包含 old/data/type/database/table/pkNames 几个元素,但是 ts 并不会默认包含在其中(原因同上)。


可以在 YAML 文件的 sink 中定义 value.format: canal-json 来指定输出格式为 canal-json 类型:


source:...


sink:...topic: yaml-mysql-kafka-canalvalue.format: canal-jsonpipeline:...查询对应 Topic 的数据,返回示例如下:


{


"old": null,"data": [    {
"id": 1, "price": 100, "amount": "100.00" }],"type": "INSERT","database": "app_db","table": "orders","pkNames": [ "id"]
复制代码


}上游表名到下游 Topic 名的映射关系使用 sink.tableId-to-topic.mapping 参数可以指定上游表名到下游 Kafka Topic 名的映射关系。无需使用 route 配置。与之前介绍的通过 route 实现的不同点在于,配置该参数可以在保留源表的表名信息的情况下设置写入的 Topic 名称。


在前面的 YAML 文件中增加 sink.tableId-to-topic.mapping 配置指定映射关系,每个映射关系由 ; 分割,上游表的 TableId 和下游 Kafka 的 Topic 名由 : 分割:


source:...


sink:...sink.tableId-to-topic.mapping: app_db.orders:yaml-mysql-kafka-orders;app_db.shipments:yaml-mysql-kafka-shipments;app_db.products:yaml-mysql-kafka-productspipeline:...运行后,Kafka 中将会生成如下的 Topic:


...yaml-mysql-kafka-ordersyaml-mysql-kafka-productsyaml-mysql-kafka-shipmentsKafka 不同 Topic 中部分数据详情:


{"before": null,"after": {"id": 1,"price": 100,"amount": "100.00"},"op": "c","source": {"db": "app_db","table": "orders"}}{"before": null,"after": {"id": 2,"product": "Cap"},"op": "c","source": {"db": "app_db","table": "products"}}{"before": null,"after": {"id": 2,"city": "xian"},"op": "c","source": {"db": "app_db","table": "shipments"}}环境清理本教程结束后,在 docker-compose.yml 文件所在的目录下执行如下命令停止所有容器:


docker-compose down 在 Flink 所在目录 flink-1.19.2 下执行如下命令停止 Flink 集群:


./bin/stop-cluster.sh 更多内容


活动推荐阿里云基于 Apache Flink 构建的企业级产品-实时计算 Flink 版现开启活动:新用户复制点击下方链接或者扫描二维码即可 0 元免费试用 Flink + Paimon 实时计算 Flink 版(3000CU*小时,3 个月内)了解活动详情:https://free.aliyun.com/?utm_content=g_1000395379&productCode=sc

用户头像

Apache Flink

关注

Apache Flink 中文社区 2020-04-29 加入

官方微信号:Ververica2019 微信公众号:Apache Flink 微信视频号:ApacheFlink Apache Flink 学习网站:https://flink-learning.org.cn/ Apache Flink 官方帐号,Flink PMC 维护

评论

发布
暂无评论
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成_flink_Apache Flink_InfoQ写作社区