Flink CDC同步mysql数据到doris

server/2024/10/19 9:55:20/

前置参考

flink快速安装:Flink入门-CSDN博客

doris快速安装:Apache Doris快速安装-CSDN博客

flink-cdc">Flink CDC简介

Flink CDC 是一个基于流的数据集成工具,旨在为用户提供一套功能更加全面的编程接口(API)。 该工具使得用户能够以 YAML 配置文件的形式,优雅地定义其 ETL(Extract, Transform, Load)流程,并协助用户自动化生成定制化的 Flink 算子并且提交 Flink 作业。 Flink CDC 在任务提交过程中进行了优化,并且增加了一些高级特性,如表结构变更自动同步(Schema Evolution)、数据转换(Data Transformation)、整库同步(Full Database Synchronization)以及 精确一次(Exactly-once)语义。

Flink CDC 深度集成并由 Apache Flink 驱动,提供以下核心功能:

  • ✅ 端到端的数据集成框架
  • ✅ 为数据集成的用户提供了易于构建作业的 API
  • ✅ 支持在 Source 和 Sink 中处理多个表
  • ✅ 整库同步
  • ✅具备表结构变更自动同步的能力(Schema Evolution),

如何使用 Flink CDC

Flink CDC 提供了基于 YAML 格式的用户 API,更适合于数据集成场景。以下是一个 YAML 文件的示例,它定义了一个数据管道(Pipeline),该Pipeline从 MySQL 捕获实时变更,并将它们同步到 Apache Doris:

source:type: mysqlhostname: localhostport: 3306username: rootpassword: 123456tables: app_db.\.*server-id: 5400-5404server-time-zone: UTCsink:type: dorisfenodes: 127.0.0.1:8030username: rootpassword: ""table.create.properties.light_schema_change: truetable.create.properties.replication_num: 1pipeline:name: Sync MySQL Database to Dorisparallelism: 2

通过使用 flink-cdc.sh 提交 YAML 文件,一个 Flink 作业将会被编译并部署到指定的 Flink 集群。 请参考 核心概念 以获取 Pipeline 支持的所有功能的完整文档说明。

mysql-到--doris">Streaming ELT 同步 MySQL 到 Doris

这篇教程将展示如何基于 Flink CDC 快速构建 MySQL 到 Doris 的 Streaming ELT 作业,包含整库同步、表结构变更同步和分库分表同步的功能。 本教程的演示都将在 Flink CDC CLI 中进行,无需一行 Java/Scala 代码,也无需安装 IDE。

准备阶段

准备一台已经安装了 Docker 的 Linux 或者 MacOS 电脑。

flink-standalone-集群">准备 Flink Standalone 集群

  1. 下载 Flink 1.18.0,解压后得到 flink-1.18.0 目录。 使用下面的命令跳转至 Flink 目录下,并且设置 FLINK_HOME 为 flink-1.18.0 所在目录。

    cd flink-1.18.0
    
  2. 通过在 conf/flink-conf.yaml 配置文件追加下列参数开启 checkpoint,每隔 3 秒做一次 checkpoint。

    execution.checkpointing.interval: 3000
    
  3. 使用下面的命令启动 Flink 集群。

    ./bin/start-cluster.sh

启动成功的话,可以在 http://localhost:8081/访问到 Flink Web UI,如下所示:

Flink UI

多次执行 start-cluster.sh 可以拉起多个 TaskManager。

准备 Docker 环境

接下来的教程将以 docker-compose 的方式准备所需要的组件。

  1. 宿主机配置 由于 Doris 的运行需要内存映射支持,需在宿主机执行如下命令:

    sysctl -w vm.max_map_count=2000000
    

MacOS 由于内部实现容器的方式不同,在部署时宿主机直接修改max_map_count值可能无法成功,需要先创建以下容器:

docker run -it --privileged --pid=host --name=change_count debian nsenter -t 1 -m -u -n -i sh

容器创建成功执行以下命令:

sysctl -w vm.max_map_count=2000000

然后 exit 退出,创建 Doris Docker 集群。

  1. docker 镜像启动 使用下面的内容创建一个 docker-compose.yml 文件:

    version: '2.1'
    services:doris:image: yagagagaga/doris-standaloneports:- "8030:8030"- "8040:8040"- "9030:9030"mysql:image: debezium/example-mysql:1.1ports:- "3306:3306"environment:- MYSQL_ROOT_PASSWORD=123456- MYSQL_USER=mysqluser- MYSQL_PASSWORD=mysqlpw
    

该 Docker Compose 中包含的容器有:

  • MySQL: 包含商品信息的数据库 app_db
  • Doris: 存储从 MySQL 中根据规则映射过来的结果表

在 docker-compose.yml 所在目录下执行下面的命令来启动本教程需要的组件:

docker-compose up -d

该命令将以 detached 模式自动启动 Docker Compose 配置中定义的所有容器。你可以通过 docker ps 来观察上述的容器是否正常启动了,也可以通过访问http://localhost:8030/ 来查看 Doris 是否运行正常。

mysql-数据库中准备数据">在 MySQL 数据库中准备数据
  1. 进入 MySQL 容器

    docker-compose exec mysql mysql -uroot -p123456
    
  2. 创建数据库 app_db 和表 orders,products,shipments,并插入数据

    -- 创建数据库
    CREATE DATABASE app_db;USE app_db;-- 创建 orders 表
    CREATE TABLE `orders` (
    `id` INT NOT NULL,
    `price` DECIMAL(10,2) NOT NULL,
    PRIMARY KEY (`id`)
    );-- 插入数据
    INSERT INTO `orders` (`id`, `price`) VALUES (1, 4.00);
    INSERT INTO `orders` (`id`, `price`) VALUES (2, 100.00);-- 创建 shipments 表
    CREATE TABLE `shipments` (
    `id` INT NOT NULL,
    `city` VARCHAR(255) NOT NULL,
    PRIMARY KEY (`id`)
    );-- 插入数据
    INSERT INTO `shipments` (`id`, `city`) VALUES (1, 'beijing');
    INSERT INTO `shipments` (`id`, `city`) VALUES (2, 'xian');-- 创建 products 表
    CREATE TABLE `products` (
    `id` INT NOT NULL,
    `product` VARCHAR(255) NOT NULL,
    PRIMARY KEY (`id`)
    );-- 插入数据
    INSERT INTO `products` (`id`, `product`) VALUES (1, 'Beer');
    INSERT INTO `products` (`id`, `product`) VALUES (2, 'Cap');
    INSERT INTO `products` (`id`, `product`) VALUES (3, 'Peanut');
    
Create database in Doris

Doris 暂时不支持自动创建数据库,需要先创建写入表对应的数据库。

  1. 进入 Doris Web UI。
    http://localhost:8030/
    默认的用户名为 root,默认密码为空。

    Doris UI

  2. 通过 Web UI 创建 app_db 数据库

    create database app_db;
    

    Doris create table

flinkcdc-cli-提交任务">通过 FlinkCDC cli 提交任务

  1. 下载下面列出的二进制压缩包,并解压得到目录 flink cdc-3.0.0 '
    flink-cdc-3.0.0-bin.tar.gz. flink-cdc-3.0.0 下会包含 binliblogconf 四个目录。

  2. 下载下面列出的 connector 包,并且移动到 lib 目录下 下载链接只对已发布的版本有效, SNAPSHOT 版本需要本地基于 master 或 release- 分支编译.

    • MySQL pipeline connector 3.0.0
    • Apache Doris pipeline connector 3.0.0

3.编写任务配置 yaml 文件 下面给出了一个整库同步的示例文件 mysql-to-doris.yaml

################################################################################
# Description: Sync MySQL all tables to Doris
################################################################################
source:type: mysqlhostname: localhostport: 3306username: rootpassword: 123456tables: app_db.\.*server-id: 5400-5404server-time-zone: UTCsink:type: dorisfenodes: 127.0.0.1:8030username: rootpassword: ""table.create.properties.light_schema_change: truetable.create.properties.replication_num: 1pipeline:name: Sync MySQL Database to Dorisparallelism: 2

其中: source 中的 tables: app_db.\.* 通过正则匹配同步 app_db 下的所有表。 sink 添加 table.create.properties.replication_num 参数是由于 Docker 镜像中只有一个 Doris BE 节点。

  1. 最后,通过命令行提交任务到 Flink Standalone cluster
    bash bin/flink-cdc.sh mysql-to-doris.yaml
    

提交成功后,返回信息如:

Pipeline has been submitted to cluster.
Job ID: ae30f4580f1918bebf16752d4963dc54
Job Description: Sync MySQL Database to Doris

在 Flink Web UI,可以看到一个名为 Sync MySQL Database to Doris 的任务正在运行。

MySQL-to-Doris

打开 Doris 的 Web UI,可以看到数据表已经被创建出来,数据能成功写入。

Doris display data

同步变更

进入 MySQL 容器

 docker-compose exec mysql mysql -uroot -p123456

接下来,修改 MySQL 数据库中表的数据,Doris 中显示的订单数据也将实时更新:

  1. 在 MySQL 的 orders 表中插入一条数据

    INSERT INTO app_db.orders (id, price) VALUES (3, 100.00);
    
  2. 在 MySQL 的 orders 表中增加一个字段

    ALTER TABLE app_db.orders ADD amount varchar(100) NULL;
    
  3. 在 MySQL 的 orders 表中更新一条数据

    UPDATE app_db.orders SET price=100.00, amount=100.00 WHERE id=1;
    
  4. 在 MySQL 的 orders 表中删除一条数据

    DELETE FROM app_db.orders WHERE id=2;
    

每执行一步就刷新一次 Doris Web UI,可以看到 Doris 中显示的 orders 数据将实时更新,如下所示:

Doris display result

同样的,去修改 shipmentsproducts 表,也能在 Doris 中实时看到同步变更的结果。

Route the changes

Flink CDC 提供了将源表的表结构/数据路由到其他表名的配置,借助这种能力,我们能够实现表名库名替换,整库同步等功能。 下面提供一个配置文件说明:

################################################################################
# Description: Sync MySQL all tables to Doris
################################################################################
source:type: mysqlhostname: localhostport: 3306username: rootpassword: 123456tables: app_db.\.*server-id: 5400-5404server-time-zone: UTCsink:type: dorisfenodes: 127.0.0.1:8030benodes: 127.0.0.1:8040username: rootpassword: ""table.create.properties.light_schema_change: truetable.create.properties.replication_num: 1route:- source-table: app_db.orderssink-table: ods_db.ods_orders- source-table: app_db.shipmentssink-table: ods_db.ods_shipments- source-table: app_db.productssink-table: ods_db.ods_productspipeline:name: Sync MySQL Database to Dorisparallelism: 2

通过上面的 route 配置,会将 app_db.orders 表的结构和数据同步到 ods_db.ods_orders 中。从而实现数据库迁移的功能。 特别地,source-table 支持正则表达式匹配多表,从而实现分库分表同步的功能,例如下面的配置:

route:- source-table: app_db.order\.*sink-table: ods_db.ods_orders

这样,就可以将诸如 app_db.order01app_db.order02app_db.order03 的表汇总到 ods_db.ods_orders 中。注意,目前还不支持多表中存在相同主键数据的场景,将在后续版本支持。

环境清理

本教程结束后,在 docker-compose.yml 文件所在的目录下执行如下命令停止所有容器:

docker-compose down

在 Flink 所在目录 flink-1.18.0 下执行如下命令停止 Flink 集群:

./bin/stop-cluster.sh

http://www.ppmy.cn/server/133013.html

相关文章

C语言_指针_进阶

引言:在前面的c语言_指针初阶上,我们了解了简单的指针类型以及使用,下面我们将进入更深层次的指针学习,对指针的理解会有一个极大的提升。从此以后,指针将不再是难点,而是学习底层语言的一把利器。 本章重点…

《linux运维》之如何使用putty软件完成宿主机到虚拟机传递文件

背景 当虚拟机不具备外网环境时,无法使用下载及使用Xshell自带的xftp工具时,可使用Putty软件完成宿主机至虚拟机的文件传输 使用过程 1) 在Putty文件夹目录下输入cmd 2)进入命令行模式,使用命令 pscp 3) 将所传输的…

go语言实现简单的grpc客户端服务端案例

在 Go 中实现一个简单的 gRPC 客户端和服务端,可以按照以下步骤进行。 1. 安装 gRPC 和相关工具 首先,需要安装 protobuf 编译器和 protoc-gen-go 插件: # 安装protoc brew install protobuf# 安装protoc-gen-go和protoc-gen-go-grpc插件 …

【AIGC】让AI像人一样思考和使用工具,reAct机制详解

​ reAct机制详解 reAct是什么reAct的关键要素reAct的思维过程reAct的代码实现查看效果引入依赖,定义模型定义相关工具集合工具创建代理启动测试完整代码 思考 reAct是什么 reAct的核心思想是将**推理(Reasoning)和行动(Acting&…

研报复现连载

东北证券-量化择时系列之一 【研报】精选32个技术指标在指数上的择时能力分析【研报】精选32个技术指标在指数上的择时能力分析-趋势类指标【研报】精选32个技术指标在指数上的择时能力分析-波动类指标【研报】精选32个技术指标在指数上的择时能力分析-动量类指标 【研报】精选…

【LLM】一文详解MHA、GQA、MQA原理

前言 本文回顾一下MHA、GQA、MQA,详细解读下MHA、GQA、MQA这三种常见注意力机制的原理。 self-attention A t t e n t i o n ( Q , K , V ) s o f t m a x ( Q K T d k ) V Attention(Q,K,V)softmax(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)softmax(dk​ ​QK…

S7-1500 通过PN/PN Coupler 通信

概述 PN/PN耦合器,订货号:6ES7158-3AD10-0XA0,能够实现两个不同以太网子网进行数据交换。 图01.已安装电缆夹的PN/PN Coupler视图 主要属性: 1440 字节的输入数据和 1440 字节的输出数据。多达 16 个输入区域/输出区域可用于与…

Python知识梳理总结思维导图

Python 语法简洁且富有表现力。它采用简洁的缩进方式来划分代码块,增强了代码的可读性。变量无需事先声明类型,可随时赋值并根据值自动确定类型。Python 支持多种数据类型,包括整数、浮点数、字符串、列表、元组、集合和字典等。函数定义使用…