FLOW翻译
FLOW:模块化智能体工作流自动化
摘要
大型语言模型(LLM)驱动的多智能体框架在自动规划与任务执行方面已取得显著成功。然而,如何在执行过程中有效调整智能体工作流仍缺乏深入研究。在现实场景中,初始计划必须实时应对不可预见的挑战和变化条件,才能确保复杂任务的高效完成,因此工作流的动态调整至关重要。本文将工作流定义为“顶点活动图”(AOV),允许 LLM 智能体基于历史性能与先前 AOV 持续优化子任务分配,从而实现工作流的不断精炼。为进一步提升框架性能,我们从并行度和依赖复杂度两个维度强调工作流设计的模块化。凭借该设计,所提出的多智能体框架能够高效并发执行子任务、有效达成目标,并增强容错能力。在多种实际任务上的实验结果表明,通过动态工作流精炼与模块化,多智能体框架的效率获得了显著提升。代码已开源:https://github.com/tmllab/2025_ICLR_FLOW。
作者团队
Boye Niu¹, Yiliao Song², Kai Lian¹, Yifan Shen⁴, Yu Yao¹, Kun Zhang³,⁴, Tongliang Liu¹,⁴†
¹悉尼大学悉尼人工智能中心
²阿德莱德大学
³卡内基梅隆大学
⁴穆罕默德·本·扎耶德人工智能大学
†通讯作者:Tongliang Liu (tongliang.liu@sydney.edu.au)
会议/期刊
ICLR 2025(International Conference on Learning Representations,2025 年第十三届国际学习表征会议)
发表日期
会议正式出版年份为 2025 年(ICLR 2025 将于 2025 年 4-5 月召开)。
1 引言
大型语言模型(LLMs)(Significant Gravitas;Zhou 等,2023)在理解和生成类人文本方面表现出卓越能力。最新进展进一步显著提升了其模拟人类推理的潜力(Sun 等,2024),为基于 LLM 的推理开辟了光明前景。凭借处理各种自然语言处理任务的强大能力,这些模型支撑着从对话智能体(Ye 等,2024)、内容创作工具(Yao 等,2023)到高级分析与决策系统(Ramesh 等,2021;Wang 等,2023)等广泛应用。在这一基础上,一个关键进展是 LLM 赋能的多智能体框架的兴起(Liu 等,2023;Li 等,2023;Hong 等,2024b;Wu 等,2024;Wang 等,2024;Chen 等,2024;Liu 等,2024),其中多个基于 LLM 的智能体协同合作,利用其集体推理与规划能力,自动化并优化任务执行过程。
现有的基于 LLM 的多智能体框架通常将语言模型本身定义为智能体,这些智能体通过人工设计或由 LLM 生成的提示相互协作。具体而言:
-
MetaGPT 专注于编程任务,借鉴标准化操作流程(SOPs)(Wooldridge & Jennings, 1998;DeMarco & Lister, 2013;Belbin, 2010)。它预先定义了明确的角色,如产品经理、项目经理和工程师。每个角色对应初始化一个 LLM 智能体,这些智能体在一个严格且顺序化的工作流中协同执行子任务。
-
CAMEL 能够完成多种类型的任务,要求用户预先定义两个智能体。这两个智能体以顺序方式交互并执行任务,各自承担特定的职责。
-
AutoGen 同样旨在完成多样化任务。与 CAMEL 不同的是,AutoGen 会根据子任务需求自动生成具有不同角色的智能体列表,这些智能体按照列表顺序依次执行子任务。
在继承现有多智能体框架优势的基础上,我们的研究致力于进一步提升通用多智能体框架的能力:一方面在任务执行过程中实现工作流的动态更新,另一方面在工作流规划阶段强化其模块化设计。
6 结论
我们提出了 Flow,一种全新的基于大型语言模型的多智能体框架,能够在通用任务执行过程中动态适应不可预见的挑战。通过利用== AOV 图动态更新智能体工作流==,该框架在很大程度上满足了完成复杂任务所需的模块化要求。我们通过对网站设计、游戏开发以及 LaTeX Beamer 幻灯片编写等一系列实验的案例研究展示了该方法。借助客观的评估指标与人类反馈,我们发现 Flow 显著提升了执行效率,具备更好的容错能力,并在整体性能上表现更为出色。
