当前位置: 首页 > news >正文

Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元

作者:达龙@阿里云

Apache Flink PMC (项目管理委员会)很高兴地宣布 Apache Flink 2.1.0版本正式发布,这标志着实时数据处理引擎向统一 Data + AI 平台的里程碑式演进。本次版本汇聚全球 116 位贡献者,完成 16 项改进提案(FLIPs),解决 220 多个问题,重点强化了实时 AI 与智能流处理的深度融合

  1. 实时 AI 能力突破

    • 新增 AI 模型 DDL,支持通过 Flink SQL 与 Table API 创建和修改 AI 模型,实现 AI 模型的灵活管理。

    • 扩展ML_PREDICT表值函数,支持通过 Flink SQL 实时调用 AI 模型,为构建端到端实时 AI 工作流奠定基础。

  2. 实时数据处理增强

    • 通过开放 Flink 核心能力——托管状态、事件时间流处理及表变更日志,Process Table Functions(PTFs)使 Flink SQL 解锁了更强大的事件驱动型应用开发能力

    • 引入VARIANT数据类型,高效处理 JSON 等半结构化数据,结合PARSE_JSON函数与湖仓格式(如 Paimon),实现动态 Schema 数据分析。

    • 重点优化流式 Join,创新性的引入DeltaJoinMultiJoin策略,消除状态瓶颈,提升资源利用率与作业稳定性。

Flink 2.1.0 将实时数据处理与 AI 模型无缝集成,推动企业从实时分析迈向实时智能决策,以满足现代数据应用不断变化的需求。感谢各位贡献者的支持!

Flink SQL 提升

Model DDLs 支持

自 Flink 2.0 引入 AI 模型相关 SQL 语法后,用户可通过类似创建 Catalog 对象的方式定义模型,并在 Flink SQL 中调用 AI 模型。Flink 2.1进一步扩展支持通过 Table API(Java/Python) 定义模型,通过编程实现模型的灵活管理。

示例:

  • 使用 Flink SQL 创建模型
CREATE MODEL my_model
INPUT (f0 STRING)
OUTPUT (label STRING)
WITH ('task' = 'classification','type' = 'remote','provider' = 'openai','openai.endpoint' = 'remote','openai.api_key' = 'abcdefg',
);
  • 使用 Java API 创建模型
tEnv.createModel("MyModel", ModelDescriptor.forProvider("OPENAI").inputSchema(Schema.newBuilder().column("f0", DataTypes.STRING()).build()).outputSchema(Schema.newBuilder().column("label", DataTypes.STRING()).build()).option("task", "classification").option("type", "remote").option("provider", "openai").option("openai.endpoint", "remote").option("openai.api_key", "abcdefg").build(),true);

更多信息:

  • FLIP-437: Support ML Models in Flink SQL

  • FLIP-507: Add Model DDL methods in TABLE API

实时 AI 函数

基于模型 DDL,Flink 2.1扩展了ML_PREDICT表值函数(TVF),支持在 Flink SQL 中实时调用机器学习模型,提供内置兼容 OpenAI API 的模型调用支持,同时开放自定义模型接口,标志着 Flink 从实时数据处理引擎向统一的实时 Data + AI 平台演进。未来将继续扩展 ML_EVALUATEVECTOR_SEARCH 等函数,用户可以使用 Flink SQL 更方便地构建端到端实时 AI 工作流。

-- Declare a AI model
CREATE MODEL `my_model`
INPUT (text STRING)
OUTPUT (response STRING)
WITH('provider' = 'openai','endpoint' = 'https://api.openai.com/v1/llm/v1/chat','api-key' = 'abcdefg','system-prompt' = 'translate to Chinese','model' = 'gpt-4o'
);-- Basic usage
SELECT * FROM ML_PREDICT(TABLE input_table,MODEL my_model,DESCRIPTOR(text)
);-- With configuration options
SELECT * FROM ML_PREDICT(TABLE input_table,MODEL my_model,DESCRIPTOR(text)MAP['async', 'true', 'timeout', '100s']
);-- Using named parameters
SELECT * FROM ML_PREDICT(INPUT => TABLE input_table,MODEL => MODEL my_model,ARGS => DESCRIPTOR(text),CONFIG => MAP['async', 'true']
);

更多信息:

  • 模型推理

  • FLIP-437: Support ML Models in Flink SQL

Process Table Functions(PTFs)

Apache Flink 现已支持 Process Table Functions(PTFs),这是 Flink SQL 与 Table API 中最强大的函数类型。从概念上讲,PTF 是所有 UDF 的“超集”,能够将零个、一个或多张表映射为零个、一个或多行数据。借助 PTFs,你可以实现与内置算子一样功能丰富的自定义算子,并直接访问 Flink 的托管状态、事件时间、定时器以及表级变更日志。

PTFs 支持如下操作:

  • 对表的每一行执行转换。

  • 可以把一张表从逻辑上拆分成不同子集,并对每个子集分别转换。

  • 缓存已见事件,供后续多次访问。

  • 在未来某个时间点继续处理,实现等待、同步或超时机制。

  • 利用复杂状态机或基于规则的条件逻辑对事件进行缓存与聚合。

这显著缩小了 Flink SQL 与 DataStream API 之间的差距,同时保留了 Flink SQL 生态的健壮性与易用性。
关于 PTFs 的语法与语义细节,详见:Process Table Functions。

示例如下:

// Declare a ProcessTableFunction for memorizing your customers
public static class GreetingWithMemory extends ProcessTableFunction<String> {public static class CountState {public long counter = 0L;}public void eval(@StateHint CountState state, @ArgumentHint(SET_SEMANTIC_TABLE) Row input) {state.counter++;collect("Hello " + input.getFieldAs("name") + ", your " + state.counter + " time?");}
}TableEnvironment env = TableEnvironment.create(...);// Call the PTF in Table API
env.fromValues("Bob", "Alice", "Bob").as("name").partitionBy($("name")).process(GreetingWithMemory.class).execute().print();// Call the PTF in SQL
env.executeSql("SELECT * FROM GreetingWithMemory(TABLE Names PARTITION BY name)").print();

更多信息

  • FLIP-440: User-defined SQL operators / ProcessTableFunction (PTF)

Variant 类型

新增VARIANT半结构化数据类型(如 JSON),支持存储任意嵌套结构(包括基本类型、ARRAYMAP)并保留原始类型信息。相比 ROWSTRUCTURED 类型,VARIANT 在处理动态 Schema 数据时更灵活。配合 PARSE_JSON 函数及 Apache Paimon 等表格式,可实现湖仓中半结构化数据的高效分析。

CREATE TABLE t1 (id INTEGER,v STRING -- a json string
) WITH ('connector' = 'mysql-cdc',...
);CREATE TABLE t2 (id INTEGER,v VARIANT
) WITH ('connector' = 'paimon'...
);-- write to t2 with VARIANT type
INSERT INTO t2 SELECT id, PARSE_JSON(v) FROM t1;

更多信息:

  • Variant Type

  • FLIP-521: Integrating Variant Type into Flink: Enabling Efficient Semi-Structured Data Processing

Structured 类型增强

支持在CREATE TABLE语句中直接声明用户定义结构体类型(STRUCTURED),解决类型兼容性问题并提升易用性。

示例:

CREATE TABLE UserTable (uid BIGINT,user STRUCTURED<'User', name STRING, age INT>
);-- Casts a row type into a structured type
INSERT INTO UserTable 
SELECT 1, CAST(('Alice', 30) AS STRUCTURED<'User', name STRING, age INT>);

更多信息

  • FLIP-520: Simplify StructuredType handling

  • Structured Type

Delta Join

引入一种新的DeltaJoin算子,相比传统的双流 Join 方案,配合 Apache Fluss 等流存储,可以实现 Join 算子无状态化,解决了大状态导致的资源瓶颈、检查点缓慢和恢复延迟等问题。该特性已默认启用,同时需要依赖 Apache Fluss 存储相应版本支持,敬请关注 Support DeltaJoin on Flink 2.1。

更多信息

  • FLIP-486: Introduce A New DeltaJoin

级联双流 Join 优化

使用多个级联流式 Join 的 Flink 作业经常会因 State 过大而导致运行不稳定和性能下降。在这个版本,我们引入了一种新的MultiJoin算子, 通过在单个算子内直接进行多流 Join,消除中间结果存储,每条流输入的记录最多存储一份,从而实现实现 “零中间状态” ,显著提升了资源利用率与作业稳定性。目前仅支持 INNER、LEFT JOIN ,并且需要通过参数table.optimizer.multi-join.enabled=true启用。

基准测试:我们进行了一项基准测试,比较了MultiJoin与双流 Join 的优势,更多详情请参见 MultiJoin Benchmark。

更多信息

  • FLIP-516: Multi-Way Join Operator
异步 Lookup Join 增强

异步 Lookup Join 在之前的版本中,即使用户将 table.exec.async-lookup.output-mode 设置为 ALLOW_UNORDERED,引擎在处理更新流时仍会强制回退到 ORDERED 以保证正确性。从 2.1 版本开始,引擎允许并行处理无关的更新记录,同时保证正确性,从而在处理更新流时实现更高的吞吐。

更多信息:

  • FLIP-519: Introduce async lookup key ordered mode

Sink 节点复用

当单个作业中多个 INSERT INTO 语句更新目标表相同列时(下版本将支持不同列),优化器将自动合并 Sink 节点实现复用,该特性可以极大提升 Apache Paimon 等湖仓格式的部分更新场景使用体验。

更多信息:

  • FLIP-506: Support Reuse Multiple Table Sinks in Planner

Compiled Plan 支持 Smile 格式

新增 Smile 二进制格式(兼容 JSON 格式)用于执行计划序列化,较 JSON 更节省内存。默认仍使用 JSON 格式,需通过显示调用 CompiledPlan#asSmileBytesPlanReference#fromSmileBytes 方法启用。

更多信息:

  • FLIP-508: Add support for Smile format for Compiled plans

  • Smile 格式规范

运行时提升

异步 Sink 可插拔的批量处理

支持自定义批量写入策略,用户可根据业务需求灵活扩展异步 Sink 的批量写入逻辑。

更多信息:

  • FLIP-509: Add pluggable Batching for Async Sink

分片级水位线指标

在 Flink 2.1 版本,我们新增细粒度分片监控指标,涵盖水位线进度与状态统计:

  • currentWatermark:该分片最新接收到的水位线值

  • activeTimeMsPerSecond:该分片每秒处于数据处理状态的时间(毫秒)

  • pausedTimeMsPerSecond:因水位线对齐该分片每秒的暂停时间(毫秒)

  • idleTimeMsPerSecond:每秒空闲时长(毫秒)

  • accumulatedActiveTimeMs:累计活跃时长(毫秒)

  • accumulatedPausedTimeMs:累计暂停时长(毫秒)

  • accumulatedIdleTimeMs:累计空闲时长(毫秒)

更多信息:

  • FLIP-513: Split-level Watermark Metrics

连接器提升

Keyed State 连接器

在 Flink 2.1 中,我们为 Keyed State 引入了一个新的 SQL 连接器。该连接器允许用户使用 Flink SQL 直接查询Checkpoint 和 Savepoint 中的 Keyed State,从而使得更容易探查、调试和验证 Flink 作业状态,无需定制工具,该功能对于分析长期运行的作业和验证状态迁移尤其有用。

CREATE TABLE keyed_state (k INT,user_id STRING,balance DOUBLE
) WITH ('connector' = 'savepoint','path' = 'file:///savepoint/path'
);-- 直接查询状态快照
SELECT * FROM keyed_state;

更多信息:

  • FLIP-496: SQL connector for keyed savepoint data

其他重要更新

  • PyFlink:新增支持 Python 3.12,移除 Python 3.8支持。

  • 依赖升级:flink-shaded 升级至 20.0 以支持 Smile 格式,Parquet 升级至 1.15.3 修复安全漏洞(CVE-2025-30065)。

升级说明

Apache Flink 社区努力确保升级过程尽可能平稳, 但是升级到 2.1 版本可能需要用户对现有应用程序做出一些调整。请参考 Release Notes 获取更多的升级时需要的改动与可能的问题列表细节。

贡献者列表

Apache Flink 社区感谢对此版本做出贡献的每一位贡献者:

http://www.dtcms.com/a/309775.html

相关文章:

  • 从游戏NPC到手术助手:Agent AI重构多模态交互,具身智能打开AGI新大门
  • AI 重塑软件产业:从技术革命到生态重构
  • 超聚变:智能体时代,AI原生重构城企数智化基因
  • 技术信任革命:区块链重构信用机制全解析
  • 国内用户如何用手机进行YouTube直播?
  • 【CDH × Docker】一次测试部署,N 次复用的环境镜像方案
  • 9.1无法恢复的错误与 panic!
  • 基于Ascend CANN的FFmpeg与OpenCV编译指南
  • 观测云基于 ToB/ToC 业务可观测最佳实践
  • 蚂蚁开源团队发布的2025大模型开源开发生态发展情况速览
  • AI+向量化
  • 在Idea中,配置maven
  • Web安全学习步骤
  • R 语言文件读写、批量读取与图片保存实用代码汇总
  • 使用BART模型和T5模型实现文本改写
  • k8s部署mysql
  • Web学习:SQL注入之联合查询注入
  • 逻辑回归建模核心知识点梳理:原理、假设、评估指标与实战建议
  • Codeforces Round 1040 (Div. 2) E1 - E3 交互题 | 思维
  • go语言实现协程池
  • leetcode 118. 杨辉三角 简单
  • django操作orm整套
  • android MVC/MVP/MVVM/MVI架构发展历程和编写范式
  • 如何在Android中创建自定义键盘布局
  • MySQL时间处理完全指南:从存储到查询优化
  • Apache RocketMQ中 Consumer Group(消费者组)的详细说明
  • 2025新征程杯全国54校园足球锦标赛在北京世园公园隆重开幕
  • 使用Nginx部署前端项目
  • 深度学习:反向传播算法(Backpropagation)
  • 力扣:2477. 到达首都的最少油耗