Hudi系列23:常见问题

news/2025/2/28 7:18:12/

文章目录

  • 一. 存储一直看不到数据
  • 二. 数据有重复
  • 三. NoSuchMethodError
    • 3.1 问题描述
    • 3.2 解决方案
      • 3.2.1 查看源码
      • 3.2.2 avro版本问题
      • 3.2.3 hudi-flink1.14-bundle jar包的问题
  • 四. Merge On Read 写只有 log 文件
    • 4.1 问题描述
    • 4.2 解决方案1(测试未通过)
    • 4.2 解决方案2(测试通过:)
    • 4.3 原来是配置的问题
  • 参考:

一. 存储一直看不到数据

这个问题卡了我好久好久,差点都要放弃了,还是看视频和文档不仔细。

如果是 streaming 写, 请确保开启 checkpoint, Flink 的 writer 有 3中刷数据到磁盘的策略:

  1. 当某个 bucket在内存中积攒到一定大小 (可配, 默认 64MB)
  2. 当总的 buffer 大小积攒到 一定大小 (可配, 默认 1GB)
  3. 当checkpoint 触发, 将内存里的数据全部 flush出去
set execution.checkpointing.interval=600sec;

二. 数据有重复

如果是 COW 写, 需要开启参数 write.insert.drop.duplicates, COW 写每个 bucket的第一个文件默认是不去重的, 只有增量的数据会去重,全局去重需要开启该参数; MOR 写不需要开启任何参数, 定义好 primary key 后默认全局去重。 (注意: 从 0.10 版本开始, 该属性改名 write.precombine 并且默认为 true)

如果需要多 partition 去重,需要开启参数: index.global.enabled为true。(注意: 从 0.10 版本开始, 该属性改名 write.precombine 并且默认为 true)

索引 index 是判断数据重复的核心数据结构, index.state.ttl 设置了索引保存的时间, 默认 1.5 天,对于昌时间周期的更新, 比如更新一个月前的数据,需要将 index.state.ttl 调大(单位 天), 设置小于0代表永久保存。(注意: 从0.10 版本开始, 该属性默认为0)

三. NoSuchMethodError

3.1 问题描述

Flink SQL将MySQL数据写Hudi的MOR总是报如下错误:

Caused by: java.lang.NoSuchMethodError: org.apache.hudi.org.apache.avro.specific.SpecificRecordBuilderBase.<init>
(Lorg/apache/hudi/org/apache/avro/Schema;Lorg/apache/hudi/org/apache/avro/specific/SpecificData;)

报错:
image.png

3.2 解决方案

3.2.1 查看源码

编译后的源码查找:
image.png

Flink源码中查找:
image.png

image.png

原来是有同名的class:
而且这两个jar包下的class,内容还不一样
image.png
image.png

image.png

结果:
最终还是不行,一样的报错。

3.2.2 avro版本问题

在网上看了一些博客,说可能是avro的版本的问题

于是把 hadoop、hive、spark、flink的avro版本都修改为了最新的版本 avro-1.11.0.jar

https://www.coder.work/article/728416

image.png

结果:
最终还是不行,一样的报错。

3.2.3 hudi-flink1.14-bundle jar包的问题

最开始我看到报错前面都是 org.apache.hudi.org.apache.avro,我还以为是提示错误,后来想想也不至于,然后想到 hudi-flink1.14-bundle 这个jar包的问题,下载下来通过idea代开后看了下,果然和我想的一样。

image.png

找到了具体有问题的class,但是暂时也解决不了。
所以只能想着替换这个jar包。

替换jar包:
https://blog.csdn.net/dkl12/article/details/127621878
如果想同步 Hive 的话,就不能使用上面下载的包了,必须使用profileflink-bundle-shade-hive。 (先就这样吧,谁让我编译的有问题呢?)

https://repo1.maven.org/maven2/org/apache/hudi/hudi-flink1.14-bundle/0.12.0/hudi-flink1.14-bundle-0.12.0.jar

结果:
问题解决,困扰了长达两周的问题终于解决了。

四. Merge On Read 写只有 log 文件

4.1 问题描述

Merge On Read 默认开启了异步的compaction,策略是 5 个 commits 压缩一次, 当条件满足会触发压缩任务,另外,压缩本身因为耗费资源,所以不一定能跟上写入效率,可能有滞后。

可以先观察 log,搜索 compaction 关键词, 看是否有 compact 任务调度:
After filtering, Nothing to compact for 关键词说明本次 compaction stratefy是不做压缩。

MOR表只有log 没有parquet
image.png

4.2 解决方案1(测试未通过)

网上的案例,要求加上这个:
image.png

将jar包拷贝过去:
image.png

结果:
问题依旧,依然只有log文件,没有parquet文件。

4.2 解决方案2(测试通过:)

Hudi还支持离线手动Compaction,然后我就手工执行Compaction命令。

flink run -c org.apache.hudi.sink.compact.HoodieFlinkCompactor /home/flink-1.14.5/lib/hudi-flink1.14-bundle-0.12.1.jar --path hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc8

image.png

终于有parquet文件了:
image.png

4.3 原来是配置的问题

我最开始创建Hudi表,将Compaction设置为了flase,改为true即可,无需手工进行compaction

原始脚本:

CREATE TABLE flink_hudi_mysql_cdc8(id BIGINT NOT NULL PRIMARY KEY NOT ENFORCED,name varchar(100)) WITH ('connector' = 'hudi','path' = 'hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc8','table.type' = 'MERGE_ON_READ','changelog.enabled' = 'true','hoodie.datasource.write.recordkey.field' = 'id','write.precombine.field' = 'name','compaction.async.enabled' = 'false'
);

修改后:

CREATE TABLE flink_hudi_mysql_cdc8(id BIGINT NOT NULL PRIMARY KEY NOT ENFORCED,name varchar(100)) WITH ('connector' = 'hudi','path' = 'hdfs://hp5:8020/tmp/hudi/flink_hudi_mysql_cdc8','table.type' = 'MERGE_ON_READ','changelog.enabled' = 'true','hoodie.datasource.write.recordkey.field' = 'id','write.precombine.field' = 'name','compaction.async.enabled' = 'true'
);

参考:

  1. https://www.bilibili.com/video/BV1ue4y1i7na/

http://www.ppmy.cn/news/86323.html

相关文章

Trace32使用Data.Test和Data.TestList命令测试内存类型以及完整性

我们在debug的时候&#xff0c;可以使用Trace32自带的一些命令快速地检测目标系统的内存的类型和完整性&#xff08;是否可读或可写&#xff09;&#xff0c;以便快速排除内存缺陷带来的干扰。 目录 Data.Test&#xff1a; 内存完整性测试 Memory integrity test Data.TestL…

内网渗透(八十三)之安装ADCS证书服务

安装ADCS证书服务 本编文章,我们来讲解安装ADCS证书服务,这里注意一下,因为证书服务特性(不能更改计算机名称、网络参数),因此在部署证书服务器时建议独立部署,ADCS证书服务不能和域控是同一台服务器,这里我用的一台加入域的Server2016搭建 1、以 Enterprise Admins …

如何在华为OD机试中获得满分?Java实现【优秀学员统计】一文详解!

✅创作者&#xff1a;陈书予 &#x1f389;个人主页&#xff1a;陈书予的个人主页 &#x1f341;陈书予的个人社区&#xff0c;欢迎你的加入: 陈书予的社区 &#x1f31f;专栏地址: Java华为OD机试真题&#xff08;2022&2023) 文章目录 1. 题目描述2. 输入描述3. 输出描述…

App 软件开发《单选1》试卷

注&#xff1a;本文章所有答案及解析均来自 ChatGPT 的回答&#xff0c;正确性请自行甄辨。 《单选1》试卷 单选题&#xff08;共计0分&#xff09; 1&#xff0e;angular ui-router中的关键词不包括&#xff08;B&#xff09; A、状态&#xff08;state&#xff09;B、HTML…

【swing】SplitPanel

当使用Java的Swing库来实现一个左右风格的SplitPanel时&#xff0c;可以使用JSplitPane作为容器&#xff0c;并在左边的面板中放置三个按钮&#xff0c;以及在右边的面板中显示图片。以下是一个示例代码&#xff1a; import javax.swing.*; import java.awt.*; import java.aw…

Altium Designer18基础

原理图 第5课 元件库介绍及电阻容模型的创建.mp4_哔哩哔哩_bilibili 原理图库&#xff08;schLib&#xff09; 1. 创建原理图库&#xff1a; panels -> SCHLIB&#xff1a;左侧弹出SCH Lib窗口 Add&#xff1a;新建原理图库 点击原理图库名称&#xff1a;进入原理图库设置…

ubuntu server 18.04 安装zmq

安装依赖 sudo apt-get install libtool pkg-config build-essential autoconf automake 编译安装ZMQ使用的加密库 sudo wget https://download.libsodium.org/libsodium/releases/LATEST.tar.gz sudo tar -zxvf LATEST.tar.gz cd libsodium-stable ./configure make make c…

C++ 11 lock_guard 和 unique_lock

文章目录 前言一、简介1.1 lock_guard1.2 RAII1.3 原理 二、unique_lock2.1 简介2.2 使用2.3 原理 三、 lock_guard 和 unique_lock比较3.1 锁的管理方式3.2 灵活性3.3 可移动性 总结 前言 最近在写C程序&#xff0c;需要用到 lock_guard &#xff0c;并记录 C11新特性 lock_g…