Flink优化----数据倾斜

server/2024/12/25 15:46:35/

目录

判断是否存在数据倾斜

数据倾斜的解决

keyBy 后的聚合操作存在数据倾斜

为什么不能直接用二次聚合来处理

使用 LocalKeyBy 的思想

DataStream API 自定义实现的案例

keyBy 之前发生数据倾斜

keyBy 后的窗口聚合操作存在数据倾斜

实现思路

提交原始案例

提交两阶段聚合的案例

总结


        在大数据流式处理的场景中,Apache Flink 发挥着极为重要的作用。然而,数据倾斜问题就像隐藏在暗处的绊脚石,常常会对 Flink 作业的性能产生严重影响,导致任务执行效率低下、资源利用不均衡等状况。了解如何精准判断数据倾斜是否存在,并掌握有效的解决策略,对于保障 Flink 作业的平稳、高效运行意义重大。无论是开发人员还是运维人员,都需要深入探究这一关键问题,以便更好地应对实际工作中可能遇到的各种挑战,让我们一同走进 Flink 数据倾斜相关内容的学习。

判断是否存在数据倾斜

        相同 Task 的多个 Subtask 中,个别 Subtask 接收到的数据量明显大于其他 Subtask 接收到的数据量,通过 Flink Web UI 可以精确地看到每个 Subtask 处理了多少数据,即可判断出 Flink 任务是否存在数据倾斜。通常,数据倾斜也会引起反压。

        另外,有时 Checkpoint detail 里不同 SubTask 的 State size 也是一个分析数据倾斜的有用指标。

数据倾斜的解决

keyBy 后的聚合操作存在数据倾斜

提交案例:

bin/flink run \
-t yarn-per-job \
-d \
-p 5 \
-Drest.flamegraph.enabled=true \
-Dyarn.application.queue=test \
-Djobmanager.memory.process.size=1024mb \
-Dtaskmanager.memory.process.size=2048mb \
-Dtaskmanager.numberOfTaskSlots=2 \
-c com.atguigu.flink.tuning.SkewDemo1 \
/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar \
--local-keyby false

查看 webui:

为什么不能直接用二次聚合来处理

        Flink 是实时流处理,如果 keyby 之后的聚合操作存在数据倾斜,且没有开窗口(没攒批)的情况下,简单的认为使用两阶段聚合,是不能解决问题的。因为这个时候 Flink 是来一条处理一条,且向下游发送一条结果,对于原来 keyby 的维度(第二阶段聚合)来讲,数据量并没有减少,且结果重复计算(非 FlinkSQL,未使用回撤流),如下图所示:

使用 LocalKeyBy 的思想

        在 keyBy 上游算子数据发送之前,首先在上游算子的本地对数据进行聚合后,再发送到下游,使下游接收到的数据量大大减少,从而使得 keyBy 之后的聚合操作不再是任务的瓶颈。类似 MapReduce 中 Combiner 的思想,但是这要求聚合操作必须是多条数据或者一批数据才能聚合,单条数据没有办法通过聚合来减少数据量。从 Flink LocalKeyBy 实现原理来讲,必然会存在一个积攒批次的过程,在上游算子中必须攒够一定的数据量,对这些数据聚合后再发送到下游。
实现方式:

  • DataStreamAPI 需要自己写代码实现
  • SQL 可以指定参数,开启 miniBatch 和 LocalGlobal 功能(推荐,后续介绍)

DataStream API 自定义实现的案例

以计算每个 mid 出现的次数为例,keyby 之前,使用 flatMap 实现 LocalKeyby 功能

import org.apache.flink.api.common.functions.RichFlatMapFunction;
import org.apache.flink.api.common.state.ListState;
import org.apache.flink.api.common.state.ListStateDescriptor;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.runtime.state.FunctionInitializationContext;
import org.apache.flink.runtime.state.FunctionSnapshotContext;
import org.apache.flink.streaming.api.checkpoint.CheckpointedFunction;
import org.apache.flink.util.Collector;import java.util.HashMap;
import java.util.Map;
import java.util.concurrent.atomic.AtomicInteger;public class LocalKeyByFlatMapFunc extends RichFlatMapFunction<Tuple2<String, Long>, Tuple2<String, Long>> implements CheckpointedFunction {//Checkpoint 时为了保证 Exactly Once,将 buffer 中的数据保存到该 ListState 中private ListState<Tuple2<String, Long>> listState;//本地 buffer,存放 local 端缓存的 mid 的 count 信息private HashMap<String, Long> localBuffer;//缓存的数据量大小,即:缓存多少数据再向下游发送private int batchSize;//计数器,获取当前批次接收的数据量private AtomicInteger currentSize;//构造器,批次大小传参public LocalKeyByFlatMapFunc(int batchSize) {this.batchSize = batchSize;}@Overridepublic void flatMap(Tuple2<String, Long> value, Collector<Tuple2<String, Long>> out) throws Exception {// 1、将新来的数据添加到 buffer 中Long count = localBuffer.getOrDefault(value, 0L);localBuffer.put(value.f0, count + 1);// 2、如果到达设定的批次,则将 buffer 中的数据发送到下游if (currentSize.incrementAndGet() >= batchSize) {// 2.1 遍历 Buffer 中数据,发送到下游for (Map.Entry<String, Long> midAndCount : localBuffer.entrySet()) {out.collect(Tuple2.of(midAndCount.getKey(), midAndCount.getValue()));}// 2.2 Buffer 清空,计数器清零localBuffer.clear();currentSize.set(0);}}@Overridepublic void snapshotState(FunctionSnapshotContext context) throws Exception {// 将 buffer 中的数据保存到状态中,来保证 Exactly OncelistState.clear();for (Map.Entry<String, Long> midAndCount : localBuffer.entrySet()) {listState.add(Tuple2.of(midAndCount.getKey(), midAndCount.getValue()));}}@Overridepublic void initializeState(FunctionInitializationContext context) throws Exception {// 从状态中恢复 buffer 中的数据listState = context.getOperatorStateStore().getListState(new ListStateDescriptor<Tuple2<String, Long>>("localBufferState",Types.TUPLE(Types.STRING, Types.LONG)));localBuffer = new HashMap();if (context.isRestored()) {// 从状态中恢复数据到 buffer 中for (Tuple2<String, Long> midAndCount : listState.get()) {// 如果出现 pv!= 0,说明改变了并行度,ListState 中的数据会被均匀分发到新的 subtask中// 单个 subtask 恢复的状态中可能包含多个相同的 mid 的 count数据// 所以每次先取一下buffer的值,累加再putlong count = localBuffer.getOrDefault(midAndCount.f0, 0L);localBuffer.put(midAndCount.f0, count + midAndCount.f1);}// 从状态恢复时,默认认为 buffer 中数据量达到了 batchSize,需要向下游发currentSize = new AtomicInteger(batchSize);} else {currentSize = new AtomicInteger(0);}}
}

提交 localkeyby 案例:

bin/flink run \
-t yarn-per-job \
-d \
-p 5 \
-Drest.flamegraph.enabled=true \
-Dyarn.application.queue=test \
-Djobmanager.memory.process.size=1024mb \
-Dtaskmanager.memory.process.size=2048mb \
-Dtaskmanager.numberOfTaskSlots=2 \
-c com.atguigu.flink.tuning.SkewDemo1 \
/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar \
--local-keyby true

查看 webui:

可以看到每个 subtask 处理的数据量基本均衡,另外处理的数据量相比原先少了很多。

keyBy 之前发生数据倾斜

        如果 keyBy 之前就存在数据倾斜,上游算子的某些实例可能处理的数据较多,某些实例可能处理的数据较少,产生该情况可能是因为数据源的数据本身就不均匀,例如由于某些原因 Kafka 的 topic 中某些 partition 的数据量较大,某些 partition 的数据量较少。对于不存在 keyBy 的 Flink 任务也会出现该情况。

        这种情况,需要让 Flink 任务强制进行 shuffle。使用 shuffle、rebalance 或 rescale 算子即可将数据均匀分配,从而解决数据倾斜的问题。

keyBy 后的窗口聚合操作存在数据倾斜

        因为使用了窗口,变成了有界数据(攒批)的处理,窗口默认是触发时才会输出一条结果发往下游,所以可以使用两阶段聚合的方式:

实现思路

  • 第一阶段聚合:key 拼接随机数前缀或后缀,进行 keyby、开窗、聚合
    注意:聚合完不再是 WindowedStream,要获取 WindowEnd 作为窗口标记作为第二阶段分组依据,避免不同窗口的结果聚合到一起)
  • 第二阶段聚合:按照原来的 key 及 windowEnd 作 keyby、聚合

提交原始案例

bin/flink run \
-t yarn-per-job \
-d \
-p 5 \
-Drest.flamegraph.enabled=true \
-Dyarn.application.queue=test \
-Djobmanager.memory.process.size=1024mb \
-Dtaskmanager.memory.process.size=2048mb \
-Dtaskmanager.numberOfTaskSlots=2 \
-c com.atguigu.flink.tuning.SkewDemo2 \
/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar \
--two-phase false

查看 WebUI:

提交两阶段聚合的案例

bin/flink run \
-t yarn-per-job \
-d \
-p 5 \
-Drest.flamegraph.enabled=true \
-Dyarn.application.queue=test \
-Djobmanager.memory.process.size=1024mb \
-Dtaskmanager.memory.process.size=2048mb \
-Dtaskmanager.numberOfTaskSlots=2 \
-c com.atguigu.flink.tuning.SkewDemo2 \
/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar \
--two-phase true \
--random-num 16

查看 WebUI:可以看到第一次打散的窗口聚合,比较均匀

第二次聚合,也比较均匀:

随机数范围,需要自己去测,因为 keyby 的分区器是(两次 hash * 下游并行度 / 最大并行度)
SQL 写法参考:https://zhuanlan.zhihu.com/p/197299746

总结

        本文聚焦 Flink 数据倾斜这一关键要点,系统地介绍了判断与解决相关问题的重要知识。

        在判断数据倾斜方面,明确指出可依据 Flink Web UI 中 Subtask 的数据处理量差异,以及 Checkpoint detail 里 SubTask 的 State size 情况来判断是否存在数据倾斜,为及时发现问题提供了有效途径。

        而在解决数据倾斜问题上,针对 keyBy 后的聚合操作存在倾斜,介绍了通过代码实现(如 DataStreamAPI 自定义代码及 SQL 开启相关功能)来均衡数据量;对于 keyBy 之前发生倾斜,利用 shuffle、rebalance 或 rescale 算子强制数据均匀分配;keyBy 后的窗口聚合操作倾斜时,则采用两阶段聚合的方式,详细说明了各阶段的操作要点及注意事项,并给出相应案例查看效果。

        总之,掌握这些数据倾斜相关的判断方法与解决策略,能帮助使用者更好地优化 Flink 作业,提升整体性能,避免因数据倾斜带来的诸多不良影响,保障数据处理工作顺利开展。


http://www.ppmy.cn/server/153072.html

相关文章

etcd+京东hotkey探测使用

qhotKey链接 京东hotkey把热点数据默认缓存在了本地缓存caffeine中&#xff0c;也可以存到redis中&#xff0c;但是京东hotkey的SDK没有redis的实现方法&#xff0c;因此需要自己实现。 官方目录结构下&#xff1a;分别是client客户端&#xff08;要打包引入到自己的项目&…

4、数据结构与算法解析(C语言版)--栈

栈的数据存储遵循“后进先出的规则”&#xff0c;这在计算机里面是非常有用的&#xff0c;比如word等编辑软件的"撤销"功能&#xff0c;就是使用栈进行实现的。 1、创建项目 main.h #ifndef _MAIN_H #define _MAIN_H#include <stdio.h> #include <stdlib.…

数据分析-54-时间序列分析之滑动窗口处理及连续触发的判断逻辑

文章目录 1 窗口操作1.1 滑动窗口思想1.2 函数df.rolling1.3 滚动窗口1.4 扩展窗口2 连续触发判断2.1 场景示例2.2 封装函数3 按周聚合数据4 参考附录1 窗口操作 窗口函数用于执行一系列统计计算,如移动平均、累积求和等。这些计算通常基于数据的一个固定大小的窗口,并且可以…

开发场景中Java 集合的最佳选择

在 Java 开发中&#xff0c;集合类是处理数据的核心工具。合理选择集合&#xff0c;不仅可以提高代码效率&#xff0c;还能让代码更简洁。本篇文章将重点探讨 List、Set 和 Map 的适用场景及优缺点&#xff0c;帮助你在实际开发中找到最佳解决方案。 一、List&#xff1a;有序存…

重构(二)

继续"提高代码质量" 接着上文提高代码质量, 需要从这几个特点入手 1、代码重用性。2、可读性。3、可扩展性。4、可靠性。5、高内聚&#xff0c;低耦合。 仅仅就"可读性"去分析一下吧, 毕竟例子实在是太多了 递归的"可读性"不如while循环 递归…

Java学习教程,从入门到精通, Java Algorithms(算法)语法知识点(66)

Java Algorithms&#xff08;算法&#xff09;语法知识点及案例代码 Java集合框架提供了各种算法&#xff0c;可用于处理存储在数据结构中的元素。 Java中的算法是静态方法&#xff0c;可用于对集合执行各种操作。 由于算法可用于各种集合&#xff0c;因此也称为通用算法。 让…

Linux学习——9_Ubuntu Linux操作系统

Ubuntu Linux操作系统 Ubuntu简介 Ubuntu Linux是由南非人马克沙特尔沃思(Mark Shuttleworth)创办的基于Debian Linux的操作系统&#xff0c;于2004年10月公布 Ubuntu是一个以桌面应用为主的Linux发行版操作系统 Ubuntu拥有庞大的社区力量&#xff0c;用户可以方便地从社区…

【电机控制器】STC8H1K芯片——比较器

【电机控制器】STC8H1K芯片——比较器 文章目录 [TOC](文章目录) 前言一、比较器内部结构二、比较器控制寄存器CMPCR1三、比较器控制寄存器CMPCR2总结 前言 使用工具&#xff1a; 提示&#xff1a;以下是本篇文章正文内容&#xff0c;下面案例可供参考 一、比较器内部结构 二…