当前位置: 首页 > news >正文

构建 AI 系统的 4 大 Agentic AI 设计模式

学习是一个持续的旅程,不论是对人类还是对 AI 模型来说。但一个经常被提到的问题是:这些 AI 模型能像人类一样自我学习吗?

根据最近的一些研究发现——答案是可以的。为了更好地理解这一点,让我们回忆一下大学时学习 C++、Java 和 Python 的经历。要掌握这些语言,需要理解语法、语义、实际应用和解决问题的能力。为了掌握这些技能,我们需要不断地练习(也可以说是“接受训练”)。此外,我们还从同学和教授那里学到了很多,对吧?

类似地,就像人类可以通过思考、经验和他人交流来学习,也许大型语言模型(LLMs)也可以。

然而,无论是人类还是 LLM,想要成为某一领域的专家,过程都非常的严格。我们了解人类的学习方式和决策能力,那么 LLM 的训练过程是什么样的呢?

可以这么说:

  1. 预训练(Pre-training):这一阶段帮助模型学习语言模式,例如语法、句子结构,甚至是词语与概念之间的关系。

  2. 指令微调(Instruction Tuning)或微调(Fine-Tuning):在这一步中,使用包含具体指令和期望输出的高质量数据集对模型进行优化。

  3. 基于人类反馈的强化学习(RLHF):人类评估者对模型响应进行排序,用于进一步增强模型对用户预期的对齐能力。

这些都合理对吧?但如果我们构建一个 agentic 工作流,使模型能够在执行任务的同时,自主地完成检查并学习呢?

这就像拥有一个无需人工干预就能完成所有任务的 AI 助手。 接下来,我们将深入探讨用于构建 AI 系统的 4 种 Agentic AI 设计模式(Agentic Design Patterns)

图片

概述

本文探讨了 AI 模型,尤其是像 GPT 这样的大型语言模型,是如何通过模仿人类的迭代式问题解决方式,实现自主学习。

Agentic 工作流提升了 AI 的表现能力,它们会像人类一样通过一步步地精细化任务,不断地否定和修正,最终产出更优结果。

本文介绍了四种关键的 Agentic 设计模式——反思、工具使用、规划、多智能体协作——它们是实现 AI 系统更强自治性和执行力的重要策略。

什么是 Agentic 设计模式?

Agentic 设计模式是为让大型语言模型更具自治能力而提出的一种方法。 与其一次性给模型一个提示并期待它立刻输出最终答案(比如一次性写完一篇文章),不如使用更“智能体化”的方式:通过多次提示,引导模型逐步完成任务。

每一步都在不断修正和完善,逐层深入。 我们可以把它理解成这样:

在零样本(Zero-shot)模式下提示一个 LLM,就像让某人一口气写出一篇没有修订的文章。虽然 LLM 能胜任这个任务,但其实它可以做得更好。 使用 Agentic 工作流,就像是不断对同一篇文章进行反复修改,每次改进一点点,直到变得完美。

以编写代码为例,Agentic 工作流的步骤可能是:

  1. 规划代码大纲:将任务拆解为模块或函数。

  2. 收集信息与内容:调研需要的库、算法或现有解决方案。如果需要,进行网页搜索或查阅文档。

  3. 编写第一版代码:实现基础功能,重点关注结构,而不是完美。

  4. 检查代码中的低效或错误:检查冗余、逻辑错误或 bug。

  5. 修订代码:重构、优化、添加注释等。

  6. 重复以上步骤,直到代码干净且高效。

通过让模型自主完成这些步骤,Agentic 设计模式能够增强 AI 的类人思维能力与任务执行效率。 这和人类解决复杂问题时的行为非常相似:分解任务、收集资料、持续优化、最终完成高质量成果。

Agentic 设计模式:评估

图片

Andrew Ng 在 Deeplearning.ai 的一封信中分享了他的分析,指出了 AI 驱动的代码生成方面的进展,特别关注 GPT-3.5 和 GPT-4 等模型的性能评估。评估集中在这些模型在广泛认可的 HumanEval 编码基准测试中的表现上,这是评估算法编写代码能力的常见标准。

数据显示,使用 AI 智能体进行编码的能力正在不断进化。在零样本设置(即没有任何先前示例)下测试时,GPT-3.5 的正确率为 48.1%。GPT-4 也在零样本条件下评估,其成功率达到了 67.0%。然而,分析中最引人注目的发现是,将这些模型整合进迭代式智能体工作流程(Agentic 工作流)后,它们的表现有了显著提升。当 GPT-3.5 被嵌入这样的智能体循环中后,其准确率跃升至惊人的 95.1%,远远超越了其基准水平,甚至接近人类级别的编码能力。

这一发现强调了迭代式工作流(Agentic 工作流)在提升 AI 模型性能方面的变革潜力,表明 AI 编码辅助的未来可能将更多地依赖于这些更先进、适应性更强的框架,而不仅仅是模型规模或架构的改进。

但什么是完成了自主权的委托、使 AI 系统能够更加独立和有效行动的 Agentic 设计模式?这些模式对 AI 智能体的结构进行组织,使其能够以更类人的方式执行任务、做出决策并与其他系统进行交流,从而最终打造出既聪明又可靠的应用程序。

4 种 Agentic 设计模式

在 Agentic AI 和关键设计模式中,了解每种模式如何增强大型语言模型(LLMs,例如 GPT)以更自主、更有效地运行至关重要。这些设计模式通过鼓励自我评估、工具整合、战略思考和协作,推动了 AI 能力的边界。以下是塑造这些模型如何运行和完成复杂任务的四种重要 Agentic 设计模式。

1. 反思模式(Reflection Pattern)

反思模式的重点是提升 AI 自我评估和完善输出的能力。可以想象一个大型语言模型像人类审稿人那样审视其生成的内容或代码,识别错误、缺失或需要改进的地方,并提出改进建议。

Agentic Design Patterns  - Relection Pattern

这种自我批评的循环不仅限于单次迭代。AI 可以根据需要重复反思过程,直到得到一个更精致、完善的结果。例如,在编写软件的任务中,LLM 可以生成初始版本,审查自身的逻辑和结构,并对代码进行修订。反思的迭代性随着时间的推移会带来更强大、更可靠的输出。

这种模式在需要精度的任务中尤其有用,例如内容创作、问题解决或代码生成。采用这种方法可以通过自我指导的修正来提升模型的准确性和可靠性。

Self-Reflective RAG 示例

SELF-RAG 是一个旨在通过将检索与自我反思集成到文本生成过程中的框架,用以提升语言模型的质量与事实准确性。传统的 RAG(检索增强生成)模型通过整合相关检索片段来增强响应,但通常会固定检索一定数量的文档,无论它们的相关性如何,这可能引入噪声或无关内容。SELF-RAG 通过一种自适应方法解决了这些局限性,它按需检索信息,并使用反思 token 来评估生成内容的质量。

SELF-RAG 如何使用反思?

SELF-RAG 通过“反思 token”引入自我反思机制,这些 token 用于评估文本生成的各个方面,例如相关性、支持性和整体实用性。在生成过程中,模型评估是否需要检索,并在不同阶段对生成内容进行自我审查。

以下是理解流程的图示:

SELF-RAG Uses Reflection

SELF-RAG 的使用方式:

  • 传统 RAG 预先检索固定数量的文档,而 Self-RAG 根据生成内容动态执行检索。

  • Self-RAG 评估多个生成片段,审查它们的质量,并选择性地组合最准确的信息。

  • Self-RAG 的迭代过程支持逐步完善生成,从而提升输出的准确性与相关性。

简而言之,Self-RAG 添加了自我反思与优化的额外机制,使答案更加可靠且精准。

2. 工具使用模式(Tool Use Pattern)

工具使用模式通过允许 LLM 与外部工具和资源进行交互,显著拓宽了其问题解决的能力。AI 不再仅仅依赖内部的计算或知识,而是可以访问数据库、搜索网页,甚至通过如 Python 这样的编程语言执行复杂的函数。

Toll Use Pattern

例如,LLM 可以被提示从网上检索某一查询的数据、进行分析并将其整合进输出中。或者,LLM 可能被要求计算统计结果、生成图像或操作电子表格——这些都是超越简单文本生成的操作。通过整合工具使用,LLM 从静态知识库进化为能与外部系统交互的动态智能体。

这种模式强大之处在于,它允许 AI 系统处理更复杂、多面的问题,在仅靠内部知识不足以完成任务的场景下,显著扩展了其实用性。

3. 规划模式(Planning Pattern)

规划模式使得 LLM 能够将大型、复杂的任务拆解成更小、更可管理的组件。规划为智能体提供了对请求进行反应并战略性地构建实现目标步骤的能力。

Planning Pattern

使用规划模式的 LLM 不再以线性或即兴的方式处理问题,而是会创建一个子任务的路线图,确定最有效的完成路径。例如,在编码任务中,LLM 会先概述整体结构,然后再实现各个函数。这种方式可避免混乱或逻辑偏差,让 AI 始终聚焦于主要目标。

ReAct 与 ReWOO 扩展了这一方法:
  • ReAct(推理与行动):使得 LLM 能够在推理(思考问题)与行动(执行特定任务)之间动态切换,从而实现更具适应性与灵活性的规划。

  • 通过结合这两个步骤,LLM 能够迭代优化自己的方法,应对意外挑战。

  • ReWOO(使用开放本体的推理):通过使用开放世界的本体结构引导推理,LLM 能够整合来自多个领域的上下文信息,做出更具知识深度的决策。

  • 使用 ReWOO,AI 可以根据新获取的信息或需求变化实时调整计划,从而实现更稳健和全面的问题解决方案。

此外,生成结构化的计划(例如 “user_request_summary”)可确保 AI 跟踪所有步骤,不会偏离整体任务目标。在复杂问题解决或多阶段项目中,这种方式能显著提升结果的质量与一致性。

4. 多智能体模式(Multi-Agent Pattern)

多智能体模式基于任务委托的概念,类似于人类团队的项目管理结构。该模式包括为不同的子任务分配不同的智能体(每个都是具备特定角色或功能的 LLM 实例)。这些智能体可以在各自任务上独立工作,同时相互通信与协作,以实现统一的结果。

MultiAgent Pattern

多智能体模式包括几种类型:
  • 协作智能体:多个智能体共同完成任务的不同部分,共享进度,共建统一结果。每个智能体可以专注于不同的领域。

  • 受监督智能体:一个中心监督智能体管理其他智能体,协调它们的活动并验证结果以确保质量。

  • 层级团队:一个结构化的系统,高级智能体监督低级智能体,通过各级的决策实现复杂任务。

例如,在一个需要文本分析和数值计算的场景中,可以分配两个独立的智能体来处理各自的任务,最后共享结果,形成完整的解决方案。一个智能体可能专注于理解上下文,另一个则处理数据,它们协作交付全面响应。

这种模式对于需要多样技能组合的大型或复杂问题尤其强大。

总之,多智能体模式反映了人类如何在专业领域中进行协作,每个智能体专注于自身擅长的部分,同时为更大、更协调的成果贡献力量。

通过掌握这四种 Agentic 设计模式,开发者和用户可以释放 AI 系统的全部潜能:

  • 反思模式通过自我评估提高准确性与质量;

  • 工具使用模式实现与现实世界的动态互动;

  • 规划模式为复杂任务提供解决路径;

  • 多智能体协作模式确保多个智能体高效协同工作。

这些模式共同构建了更智能、更自主的 AI 系统基础,具备应对现实挑战的能力。 以下是你提供段落的中文翻译,保持了专业、准确、自然的语气:

结语

Agentic 设计模式强调了“智能体式工作流”(agentic workflows)在提升 AI 模型(尤其是大型语言模型,LLMs)自主性与执行效率方面的变革潜力。文章指出,尽管像 GPT-3.5 和 GPT-4 这样的模型在零样本任务中表现不俗,但当采用迭代式的 agentic 工作流时,其准确性和有效性会显著提升。

这一方法允许模型自主拆解任务、自我评估、调用外部工具、制定战略规划,并与其他智能体协作,从而极大增强其问题解决能力。

文中提出了四种关键的 Agentic 设计模式——反思、工具使用、规划、多智能体协作,它们构成了 agentic 工作流的基础。这些模式突破了传统 AI 的边界,使 AI 系统能够像人类处理复杂任务那样,更加独立且智能地运行。

这也预示着未来的 AI 发展将不仅依赖于模型规模的增长,更依赖于更具适应性与策略性的工作流设计。

相关文章:

  • ClickHouse基础知识
  • 嵌入式网络通信与物联网协议全解析:Wi-Fi、BLE、LoRa、ZigBee 实战指南
  • golang pprof性能调试工具
  • 内网对抗之信息收集篇
  • Note2.3 机器学习:Adaptive Learning Rate
  • Java 大视界 -- Java 大数据机器学习模型在金融市场高频交易策略优化与风险控制中的应用(327)
  • springboot+Vue逍遥大药房管理系统
  • SmartETL中数据库操作与流程解耦的设计与应用
  • Stewart并联结构两自由度正逆解计算和工作空间仿真
  • 使用asyncio构建高性能网络爬虫
  • for each循环语句
  • FPGA芯片的配置方法
  • [Java 基础]HashMap
  • Element Plus el-button实例类型详解
  • 什么是数字签名(ECDSA)?
  • 非阻塞 IO
  • Java面试题030:一文深入了解MySQL(2)
  • 将文档转为数据集
  • FPGA内部资源介绍
  • tf serving和torch serve哪个耗时更低