左移架构 -- 从攒批,湖仓到使用数据流的实时数据产品

news/2025/2/15 14:01:55/

编辑导读: 这篇文章翻译自 Kai Waehner的 《The Shift Left Architecture – From Batch and Lakehouse to Real-Time Data Products with Data Streaming》。文章通过数据产品的概念引出了如何创建可重复使用的数据产品使企业能够从当前和未来的数据中获得价值。基于构建数据产品发挥数据价值的基本思想,作者提出了利用Apache Kafka 以及 Flink 来构建左移架构,在data pipeline的前端尽早构建优质的数据产品,并且将原始实时数据流通过iceberg格式进行入湖和后续的分析消费。该文充分说明了 Apache Kafka 在当前现代化的左移数据栈中如何发挥重要的作用。AutoMQ[1] 是全球唯一一款与 Apache Kafka 100% 完全兼容的新一代 Kafka,可以做到10倍成本降低和极速的弹性,因此以下方法论也完全适用于 AutoMQ,欢迎使用我们 Github 开源的社区版本或者联系我们进行商业试用。

数据整合是每个企业面临的重大挑战。批处理和反向ETL是数据仓库、数据湖等存储方案中的常见方法。这些方法可能带来数据不一致、计算成本高和信息过时等后果。本文介绍了一种新的设计模式来解决这些问题:左移架构(the Shift Left Architecture)。左移架构通过实时数据产品实现数据网格(Data Mesh),利用 Apache Kafka、Flink 和 Iceberg 统一事务性和分析性工作负载。一致的信息通过流式处理或提取到 Snowflake、Databricks、Google BigQuery 或任何分析/AI 平台。以此提高灵活性,降低成本,并实现数据驱动的公司文化,提高创新软件应用的上市速度。

数据产品 - 数据网格的基础

在数据网格中,数据产品是一个关键概念,它代表了从传统的集中式数据管理向去中心化方法的转变。

麦肯锡认为:“如果企业能像管理消费品一样管理数据(无论是数字数据还是物理数据),就能从数据投资中收获短期价值并为明天迅速获得更多价值铺平道路。创建可重复使用的数据产品和拼接数据技术的模式,使企业能够从当前和未来的数据中获得价值。”:

麦肯锡认为,数据产品方法可以带来巨大的效益:

  • 新业务用例的交付速度可提高 90%

  • 包括技术、开发和维护在内的总成本可降低 30%

  • 更低的风险和数据管理负担

从技术角度看数据产品

下面从技术角度介绍数据网格中的数据产品:

  1. 去中心化的数据所有权:每个数据产品由一个特定的领域团队所有。应用程序之间是真正解耦的。

  2. 源于运行和分析系统:数据产品包括来自任意数据源的信息,包括最关键的系统和分析/报告平台。

  3. 自包含和可发现:数据产品不仅包括原始数据,还包括相关的元数据、文档和 API。

  4. 标准化接口:数据产品遵循标准化的接口和协议,确保数据网格中的其他数据产品和消费端可以轻松访问和使用。

  5. 数据质量:大多数使用案例都受益于实时数据。数据产品可确保实时和批处理应用中的数据一致性。

  6. 价值驱动:数据产品的创建和维护由业务价值驱动。

从本质上讲,数据网格框架中的数据产品将数据转化为可管理的高质量资产,便于整个组织访问和使用,从而促进更灵活、可扩展的数据生态系统。

反模式(Anti Pattern):批处理和反向 ETL

所谓“现代”的数据栈利用传统的 ETL 工具或数据流将数据输入数据湖、数据仓库或湖仓。最终导致一个一团乱麻的架构,其中包含混合了分析和操作技术,用于批处理和实时工作负载的各种集成工具:

反向 ETL 是将信息从数据湖导入操作应用程序和其他分析工具所必需的。正如我之前所写的那样,数据湖和反向 ETL 的结合是企业架构的一种反模式。这主要是由于反向 ETL 造成了成本和组织效率的低下。事件驱动型数据产品可以实现更简单、更具成本效益的架构

需要批处理和反向 ETL 模式的一个关键原因是 Lambda 架构的普遍使用: 这是一种使用不同层分别处理实时和批处理的数据处理架构。这种架构仍然广泛存在于企业架构中。这不仅适用于 Hadoop/Spark 和 Kafka 等大数据用例,也适用于与基于文件的传统单体或 Oracle 数据库等事务处理系统的集成。

与之相反,Kappa 架构使用单一技术栈处理实时和批处理。总而言之,通过使用数据流平台将传统技术引入事件驱动架构,实现Kappa 架构是有可能的。其中,变更数据捕获 (CDC) 是最常用的辅助工具之一。了解更多关于 Kappa 取代 Lambda 架构的信息,请参阅文章“Kappa 取代 Lambda 架构”。

数据湖、数据仓库和湖仓中的传统 ELT

如今似乎没有人仍在使用数据仓库了。每个人都在谈论将数据仓库和数据湖合二为一的湖仓。无论你使用或更倾向于哪种术语,如今的集成流程都大致如下:

即使是将所有原始数据导入数据仓库/数据湖/湖仓这一步就会面临一些挑战:

  • 更新速度较慢:数据管线越长,使用的工具越多,数据产品的更新速度就越慢。

  • 上市时间更长:因为每个业务部门都被迫反复执行相同或类似的处理步骤,而不是从整理好的数据产品中直接获取,所以带来了重复开发工作。

  • 成本增加:分析平台收费账单的主力是计算而非存储。业务部门使用 DBT 越多,分析 SaaS 提供商就越有利可图。

  • 重复劳动:大多数企业拥有多个分析平台,包括不同的数据仓库、数据湖和人工智能平台。ELT 意味着一遍又一遍进行相同的处理。

  • 数据不一致:反向 ETL、零 ETL 和其他集成模式会使您的分析应用程序,特别是操作应用程序看到不一致的信息。您无法将实时消费端或移动应用 API 连接到批处理层,并期望得到一致的结果。

KafkaSnowflakeDatabricksBigQuery__ETL__ETL_72">使用 Kafka、Snowflake、Databricks、BigQuery 等进行数据集成、零 ETL 和反向 ETL

上文提到的缺点都是真实存在的!在过去的几个月里,我遇到的每一个客户,没有一个不同意我的观点,也没有一个人告诉我这些挑战不存在。了解更多信息,请查看我的关于使用 Apache Kafka 进行数据流分析和使用 Snowflake 进行分析的博客系列:

  1. Snowflake 集成模式:零 ETL 和反向 ETL 与 Apache Kafka 的对比

  2. Apache Kafka 的 Snowflake 数据集成选项(包括 Iceberg)

  3. Apache Kafka + Flink + Snowflake:经济高效的分析和数据管理

该系列博客可适用于任何其他分析引擎。无论您使用的是 Snowflake、Databricks、Google BigQuery 还是多个分析和人工智能平台的组合,本系列博客都值得一读。

数据混乱造成了数据不一致、信息过时和成本不断增加,解决这些问题的方法就是左移架构

左移——从运营和分析数据产品到数据流

左移架构可从可靠、可扩展的数据产品中获得一致的信息并降低计算成本。使用左移架构能帮助采用任何技术(Java、Python、iPaaS、Lakehouse、SaaS或任何你能想到的技术)和通信范式(实时、批处理、请求-响应 API)的操作和分析应用程序更快地进入市场:

将数据处理转移到数据流平台可以实现以下功能:

  • 在事件发生时持续捕获数据并进行数据流处理

  • 创建数据合约,以便与任何应用程序或分析/人工智能平台实现向下兼容并提高信任度

  • 通过数据合约和策略执行,在上游持续清理、整理和质量检查数据

  • 即时将数据转化为多重文本,以最大限度地提高可重用性(同时仍允许下游消费者在原始数据产品和经过整理的数据产品之间进行选择)

  • 构建值得信赖的数据产品,这些产品对于任何交易型和分析型消费者(无论实时消费还是稍后通过批量或请求-响应 API 消费)而言都是有即时价值、可重复使用和有一致性的

在工作负载左移的同时,开发人员/数据工程师/数据科学家通常仍可使用他们最喜欢的接口(如 SQL)或编程语言(如 Java 或 Python),这一点至关重要。

KafkaFlink__Iceberg__106">使用 Apache Kafka、Flink 和 Iceberg 的左移架构

数据流是左移架构的核心基础,可实现可靠、可扩展、数据质量高的实时数据产品。以下架构展示了 Apache Kafka 和 Flink 如何连接任何数据源、整理数据集(又称流处理/流 ETL)并与任何操作或分析数据汇共享处理后的事件:

架构展示了 Apache Iceberg 表作为备选消费者。Apache Iceberg 是一种开放的表格格式,专为高效可靠地管理大规模数据集而设计。Iceberg 提供 ACID 事务、模式演变和分区功能。它优化了数据存储和查询性能,使其成为数据湖和复杂分析工作流的理想选择。Iceberg 已经发展为事实标准,得到了大多数主要云和数据管理供应商的支持,包括 AWS、Azure、GCP、Snowflake、Confluent,未来可能更多(例如收购 Tabular 后的 Databricks)。

从数据流视角看,Iceberg表只需点击一下按钮就能从Kafka Topic和其图式中获得(使用Confluent的Tableflow - 我相信其他供应商很快也会有自己的解决方案)。Iceberg的一个巨大优势是数据只需要存储一次(通常在像Amazon S3这样的高效并且可扩展的对象存储中)。每个下游应用都可以使用自己的技术来消费数据,无需任何额外的编码或连接器。例子包括Snowflake或Databricks这样的数据湖仓或Apache Flink这样的数据流引擎。

视频:左移架构

我在一个十分钟短视频中总结了上述的左移架构及其示例,如果你更喜欢聆听内容,可以参考这个视频。

Apache Iceberg – 新一代湖仓表格格式的事实标准?

Apache Iceberg 是一个巨大的话题,对于企业架构、终端用户和云供应商来说,都是一个真正的游戏规则颠覆者。我将写另一篇专门的博客,包括一些有趣的主题,如:

  • Confluent 将 Iceberg 表格嵌入其数据流平台的产品策略

  • Snowflake 的开源 Iceberg 项目:Polaris

  • Databricks 收购了 Tabular(Apache Iceberg 背后的公司),并与 Delta Lake 及其开源 Unity Catalog 的关系预期的表格式

  • 表格格式标准化的(可能)未来、目录战争,及其他附加解决方案,如 Apache Hudi 或 Apache XTable,以实现湖泊表格格式的全方位可互操作性。

请保持关注,订阅我的LinkedIn Newsletter以接收新文章。

左移架构的商业价值

Apache Kafka 是构建 Kappa 架构的数据流事实上的标准。Data Streaming Landscape 分析展示了各种开源技术和云计算供应商。其中,数据流被认为是一个全新的软件类别。根据 Forrester 发布的 “The Forrester Wave™:2023年第四季度流数据平台”报告显示:该领域的领导者是微软、谷歌和 Confluent,其次是甲骨文、亚马逊、Cloudera 和其他一些公司。

在企业架构中更多地使用数据流平台和 Kafka、Flink 等技术构建数据产品,可以创造巨大的商业价值:

  • 降低成本:降低一个甚至多个数据平台(数据湖、数据仓库、湖房、人工智能平台等)的计算成本。

  • 减少开发工作量:流式 ETL、数据整理和数据质量控制已在事件创建后即时执行,且仅需执行一次。

  • 更快上市:专注于新的业务逻辑,而不是重复性的 ETL 工作。

  • 灵活性:根据不同用例选择最佳和/或最具成本效益的技术。

  • 创新性:业务部门可以选择任何编程语言、工具或 SaaS,从数据产品中进行实时或批量消费,进行尝试或快速扩展。

事务性工作负载和分析性工作负载的统一最终成为可能。基于此可以实现良好的数据质量、加快创新产品的上市时间并降低整个数据管线的成本。数据一致性在所有应用程序和数据库中都很重要。参见文章: A Kafka Topic with a data contract (= Schema with policies) brings data consistency out of the box!

参考资料

[1] AutoMQ: https://www.automq.com

[2]The Shift Left Architecture – From Batch and Lakehouse to Real-Time Data Products with Data Streaming: https://www.kai-waehner.de/blog/2024/06/15/the-shift-left-architecture-from-batch-and-lakehouse-to-real-time-data-products-with-data-streaming/


http://www.ppmy.cn/news/1572255.html

相关文章

Hyperledger Fabric 入门笔记(十八)Fabric V2.5 测试网络部署补充 - 排序节点管理

文章目录 一、准备工作二、手动为通道加入排序节点2.1. 生成加密材料与启动容器2.1.1. 为新增排序节点生成加密材料2.1.2. 启动新增的排序节点 2.2. 加入排序节点2.2.1. 获取最新的配置区块2.2.2. 将新增的排序节点加入到通道中 2.3. 通道配置更新2.3.1. 将通道配置转换为JSON格…

IoTDB 集群重启某节点失败

问题现象 IoTDB 1.3.3.6 版本部署的 3C3D 集群,在重启某个节点服务时失败,报错信息为节点冲突,日志部分截图如下: 问题原因 当前 IoTDB 会根据 data/confignode/system 路径下的 confignode-system.properties 文件及 data/data…

【EXCEL】【VBA】处理GI Log获得Surf格式的CONTOUR DATA

【EXCEL】【VBA】处理GI Log获得Surf格式的CONTOUR DATA data source1: BH coordination tabledata source2:BH layer tableprocess 1:Collect BH List To Layer Tableprocess 2:match Reduced Level from "Layer"+"BH"data source1: BH coordination…

Nginx location 和 proxy_pass 配置详解

概述 Nginx 配置中 location 和 proxy_pass 指令的不同组合方式及其对请求转发路径的影响。 配置效果 1. location 和 proxy_pass 都带斜杠 / location /api/ {proxy_pass http://127.0.0.1:8080/; }访问地址:www.hw.com/api/upload转发地址:http://…

[ComfyUI]腾讯开源黑科技Sonic,插件更新,更加可控啦

一、Sonic更新介绍 大家还记得我前分享过腾讯开源的Sonic这个项目吧,通过照片声音就可以生成非常不错的数字人开口说话的视频。 当时我就挺满意的,不过那时候输出还只能输出正方形的视频,这点就让我留有遗憾。 今天我再去翻作者的项目官网…

Git标签管理:从基础到高阶自动化实践

引言 在软件发布过程中,88%的生产事故与版本标记错误相关。Git标签(Tag)作为版本控制的关键锚点,不仅是发布流程的里程碑,更是代码审计和问题追溯的重要依据。本文将深入Git标签的底层机制,揭示企业级标签…

100.18 AI量化面试题:如何评估DeepSeek等模型的生成质量?请列举常用的评估指标及其计算方法

目录 0. 承前1. 解题思路1.1 评估维度1.2 评估方法维度1.3 应用场景维度 2. 自动评估指标2.1 基础文本相似度指标2.2 语义相似度指标 3. 人工评估框架3.1 评估维度设计3.2 评估流程设计 4. 特定任务评估4.1 对话质量评估4.2 代码生成评估4.3 文本摘要评估 5. 综合评估框架5.1 多…

【Python的FastAPI 与 Uvicorn】快速启动你StableDiffusion模型Web 应用

Uvicorn是什么? Uvicorn是一个基于ASGI(Asynchronous Server Gateway Interface)规范的轻量级服务器,用于运行异步Python web应用。它特别适合与FastAPI和Starlette等现代Python web框架一起使用。 Uvicorn的主要特点包括&#…