当前位置: 首页 > news >正文

LangGraph结构化输出详解:让智能体返回格式化数据

引言

在使用大语言模型进行开发时,我们经常需要模型返回特定格式的数据,而不是纯文本。比如在构建AI应用时,我们可能需要模型返回JSON格式的数据用于后续处理,或者返回符合特定数据结构的对象。这就是结构化输出的价值所在。

本文将深入探讨LangGraph中的结构化输出功能,重点介绍.with_structured_output()方法的使用,并通过实际代码示例展示如何在项目中应用这一技术。

什么是结构化输出?

结构化输出是指LLM(或LangGraph工作流中的其他节点)返回的输出被格式化为明确定义的、机器可读的对象,如字典、列表、自定义类或JSON对象,而不是纯文本。

对比示例:

  • 非结构化输出:"答案是北京。"
  • 结构化输出:{"城市": "北京", "国家": "中国", "人口": 2154}

为什么需要结构化输出?

在LangGraph中,一个节点的输出通常作为另一个节点的输入。如果输出是结构化的,下一步就能准确知道期望什么字段/数据以及如何访问它们。这大大提高了系统的可靠性和可维护性。

核心技术:.with_structured_output()方法

.with_structured_output()是获得结构化输出的最简单、最可靠的方法。它专为那些原生支持结构化输出API(如工具/函数调用或JSON模式)的模型实现,并在后台使用这些功能。

基本工作原理

该方法接受一个模式作为输入,指定所需输出属性的名称、类型和描述。它返回一个类似于模型的Runnable,但输出的不是字符串或消息,而是对应于给定模式的对象。

实现方式详解

方式一:使用Pydantic类

使用Pydantic的主要优点是模型生成的输出将被验证。如果任何必需的字段缺失或任何字段的类型错误,Pydantic将抛出错误。

from pydantic import BaseModel, Field
from langchain_deepseek import ChatDeepSeek
from typing import Optional# 定义Pydantic模型
class ProductInfo(BaseModel):"""产品基本信息"""name: str = Field(description="产品名称")price: float = Field(description="产品价格,单位为元")category: str = Field(description="产品所属类别")rating: Optional[int] = Field(default=None, description="产品评分,1-10分")# 初始化模型
llm = ChatDeepSeek(model="deepseek-chat")
structured_llm = llm.with_structured_output(ProductInfo)# 调用示例
result = structured_llm.invoke("帮我分析一下iPhone 15这款手机")
print(result)
# 输出: ProductInfo(name='iPhone 15', price=5999.0, category='智能手机', rating=9)

方式二:使用TypedDict

如果您不想使用Pydantic验证,或者希望能够流式输出模型结果,可以使用TypedDict类定义模式。

from typing import Optional
from typing_extensions import Annotated, TypedDict# 使用TypedDict定义模式
class StudentInfo(TypedDict):"""学生基本信息"""name: Annotated[str, ..., "学生姓名"]age: Annotated[int, ..., "学生年龄"]major: Annotated[str, ..., "所学专业"]score: Annotated[Optional[float], None, "平均成绩,0-100分"]structured_llm = llm.with_structured_output(StudentInfo)result = structured_llm.invoke("张明,20岁,计算机科学专业,平均成绩85分")
print(result)
# 输出: {'name': '张明', 'age': 20, 'major': '计算机科学', 'score': 85.0}

方式三:使用JSON Schema

您也可以直接传入JSON Schema字典,这种方式不需要导入额外的类,但代码会更冗长一些。

json_schema = {"title": "公司信息","description": "公司基本信息","type": "object","properties": {"company_name": {"type": "string","description": "公司名称",},"industry": {"type": "string", "description": "所属行业",},"employee_count": {"type": "integer","description": "员工总数","default": None,},},"required": ["company_name", "industry"],
}structured_llm = llm.with_structured_output(json_schema)
result = structured_llm.invoke("分析一下腾讯公司")
print(result)
# 输出: {'company_name': '腾讯', 'industry': '互联网科技', 'employee_count': 110715}

LangGraph中的完整应用示例

下面是一个完整的LangGraph应用示例,展示如何在工作流中使用结构化输出:

import json
from pydantic import BaseModel, Field
from langchain_core.messages import HumanMessage, AIMessage
from langchain_deepseek import ChatDeepSeek
from langgraph.graph import StateGraph, MessagesState, END
from dotenv import load_dotenvload_dotenv()# 定义结构化输出模型
class AnalysisResult(BaseModel):"""文本分析结果"""topic: str = Field(description="文本主要主题")summary: str = Field(description="内容摘要,不超过100字")keywords: list[str] = Field(description="提取的关键词列表")sentiment: str = Field(description="情感倾向:积极/消极/中性")# 初始化模型
model = ChatDeepSeek(model="deepseek-chat")
structured_llm = model.with_structured_output(AnalysisResult).with_config(tags=["文本分析器"])# 定义分析节点
def analysis_node(state: MessagesState):"""对输入文本进行结构化分析"""result = structured_llm.invoke(state["messages"])print(f"分析结果: {result}")# 将分析结果转换为AIMessageresponse_content = f"""
📊 分析报告
主题: {result.topic}
摘要: {result.summary}
关键词: {', '.join(result.keywords)}
情感倾向: {result.sentiment}""".strip()return {"messages": [AIMessage(content=response_content)]}# 构建LangGraph工作流
workflow = StateGraph(MessagesState)
workflow.add_node("分析", analysis_node)
workflow.set_entry_point("分析")
workflow.add_edge("分析", END)# 编译图
graph = workflow.compile()# 测试用例
def test_analysis():"""测试文本分析功能"""test_text = """人工智能技术正在快速发展,特别是大语言模型的出现,为各个行业带来了前所未有的变革机会。从自动化客服到智能写作,从代码生成到数据分析,AI正在重塑我们的工作方式。虽然技术发展令人兴奋,但我们也需要关注AI伦理和安全性问题。"""graph_input = {"messages": [HumanMessage(content=f"请分析以下文本:{test_text}")]}# 运行分析result = graph.invoke(graph_input)print("="*50)print("最终输出:")print(result["messages"][-1].content)# 执行测试
if __name__ == "__main__":test_analysis()

多模式选择

有时我们需要让模型在多个输出格式之间进行选择。最简单的方法是创建一个具有Union类型属性的父模式:

from typing import Union
from pydantic import BaseModel, Fieldclass Joke(BaseModel):"""笑话内容"""setup: str = Field(description="笑话的铺垫部分")punchline: str = Field(description="笑话的笑点部分")rating: Optional[int] = Field(default=None, description="有趣程度,1-10分")class ConversationalResponse(BaseModel):"""普通对话回应"""response: str = Field(description="对用户查询的对话式回应")class FinalResponse(BaseModel):"""最终输出,可以是笑话或普通回应"""final_output: Union[Joke, ConversationalResponse]structured_llm = llm.with_structured_output(FinalResponse)# 测试不同类型的输入
print("=" * 30)
print("请求笑话:")
result1 = structured_llm.invoke("给我讲个关于程序员的笑话")
print(result1)print("=" * 30)
print("普通对话:")
result2 = structured_llm.invoke("你今天怎么样?")
print(result2)

流式输出支持

当输出类型是字典时(使用TypedDict类或JSON Schema定义时),我们可以从结构化模型中进行流式输出:

from typing_extensions import Annotated, TypedDictclass NewsSummary(TypedDict):"""新闻摘要信息"""title: Annotated[str, ..., "新闻标题"]summary: Annotated[str, ..., "新闻摘要内容"]keywords: Annotated[list[str], ..., "新闻关键词"]structured_llm = llm.with_structured_output(NewsSummary)print("流式输出示例:")
for chunk in structured_llm.stream("总结今天的科技新闻"):print(chunk)

高级技巧

1. 原始输出处理

通过设置include_raw=True,可以获取原始输出,便于调试和错误处理:

structured_llm = llm.with_structured_output(AnalysisResult, include_raw=True)result = structured_llm.invoke("分析人工智能发展")
print("原始输出:", result['raw'])
print("解析结果:", result['parsed'])
print("解析错误:", result['parsing_error'])

2. 指定输出方法

对于支持多种结构化输出方法的模型,可以通过method参数指定使用的方法:

# 使用JSON模式
structured_llm = llm.with_structured_output(AnalysisResult, method="json_mode")

最佳实践

  1. 选择合适的模式类型

    • 需要运行时验证 → 使用Pydantic的BaseModel
    • 仅需静态类型检查 → 使用TypedDict
    • 需要流式输出 → 使用TypedDict或JSON Schema
  2. 提供清晰的字段描述:字段的名称和描述对模型理解输出格式非常重要

  3. 使用中文字段名:在中文应用场景中,使用中文字段名可以提高模型的理解准确性

  4. 合理设置可选字段:使用Optional类型和默认值来处理不确定的信息

总结

结构化输出是现代AI应用开发中的重要技术。通过LangGraph的.with_structured_output()方法,我们可以轻松让大语言模型返回格式化的数据,提高应用的可靠性和可维护性。

无论是使用Pydantic进行严格的数据验证,还是使用TypedDict进行灵活的字典操作,或是直接使用JSON Schema,都能满足不同场景下的需求。关键是根据具体的应用场景选择最合适的实现方式。

在实际项目中,建议优先使用Pydantic方式,因为它提供了最好的类型安全和数据验证功能。对于需要流式输出的场景,则可以考虑使用TypedDict方式。

通过合理运用这些技术,我们可以构建更加健壮和高效的AI应用系统。

http://www.dtcms.com/a/357947.html

相关文章:

  • Docker核心概念与镜像仓库操作指南
  • AIGC应用与实践- 实验1:采用Markdown转换成WORD文档方式
  • 基于SpringBoot的流浪动物领养系统【2026最新】
  • Java函数式编程之【流(Stream)性能优化】
  • Docker(自写)
  • Netty 心跳与链路保活机制详解:保证高并发环境下的稳定连接
  • Web 聊天室消息加解密方案详解
  • Java面试-spring boot框架
  • 音视频学习(六十):H264中的PPS
  • 【C语言】字符函数与字符串函数实战:用法原理 + 模拟实现
  • VMware 设置 Ubuntu 虚拟机桥接模式完整教程
  • 音视频学习(六十二):H264中的SEI
  • 【Qt开发】按钮类控件(一)-> QPushButton
  • Ethan独立开发新品速递 | 2025-08-30
  • 【读书笔记】《最好的告别》
  • Git 安装与国内加速(配置 SSH Key + 镜像克隆)
  • 系统质量属性
  • 【瑞吉外卖】手机号验证码登录(用QQ邮件发送代替)
  • wpf之附加属性
  • 学习嵌入式第四十一天
  • 【电力电子】MCP602运算放大器测交流电压(120VAC/230VAC),带直流偏置2.5V,比例:133.5:1
  • 【杂谈】-混沌理论能否赋予机器差异化思考能力?
  • 华为 HarmonyOS 代表未来
  • 初学者如何学习项目管理
  • Citrix 零日漏洞自五月起遭积极利用
  • 爱普生L3255打印机故障记录
  • Pregel 与 LangGraph:从分布式图计算到现代 AI 智能体的架构演进与 API 深度解析
  • 多教师语言感知知识蒸馏:提升多语种语音情绪识别的新方法
  • 区块链存证技术:如何让电子证据成为“铁证
  • HarmonyOS应用的多Module设计机制:构建灵活高效的应用程序