当前位置: 首页 > news >正文

LangChain开发(七)自定义输出格式(JSON/XML/YAML)

文章目录

  • JSON结构输出
    • 未使用Pydantic
    • Pydantic
    • 流式处理
  • XML结构输出
    • xml输出
    • 指定字段
  • YAML输出
  • 源码地址
  • 参考资料

JSON结构输出

虽然一些模型提供商支持内置的方法返回结构化输出,但并非所有都支持。我们可以使用输出解析器来帮助用户通过指示指定任意的JSON模型,查询符合该模式的模型输出,最后将该模式解析为JSON。

JsonOutputParser是一个内置选项,用于提示并解析JSON输出。虽然它在功能上类似于PydanticOutputParser,但它还支持流式返回部分JSON对象。

以下是如何将其与Pydantic一起使用以方便地声明预期模式的示例:

未使用Pydantic

让大模型生成json结构

from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
import os

model = ChatOpenAI(model="gpt-4o", temperature=0)

joke_query = "告诉我一个笑话."
parser = JsonOutputParser()
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
response = chain.invoke({"query": joke_query})
print(response)
{'joke': '为什么电脑去医院?因为它需要检查一下‘病毒’!'}

Pydantic

让大模型生成指定结构的数据,结构为class Joke

from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import PromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o", temperature=0)

# 定义期望的数据结构
class Joke(BaseModel):
    setup: str = Field(description="设置笑话的问题")
    punchline: str = Field(description="解决笑话的答案")

joke_query = "告诉我一个笑话."
parser = JsonOutputParser(pydantic_object=Joke)
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
response = chain.invoke({"query": joke_query})
print(response)

输出示例:

{'setup': '为什么计算机不能喝咖啡?', 'punchline': '因为它们会崩溃!'}

请注意,我们将解析器中的format_instructions直接传递到提示中。可以并且应该尝试在提示的其他部分中添加自己的格式提示,以增强或替换默认指令:

parser.get_format_instructions()

流式处理

如上所述,JsonOutputParserPydanticOutputParsr之间的一个关键区别是JsonOutputParser输出解析器支持流式处理部分块。以下是其示例:

from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o", temperature=0)

joke_query = "告诉我一个笑话."
parser = JsonOutputParser()
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
response = chain.invoke({"query": joke_query})
for s in chain.stream({"query": joke_query}):
    print(s)

输出示例:

{}
{'joke': '为什么'}
{'joke': '为什么电脑去医院?因为它'}
{'joke': '为什么电脑去医院?因为它需要检查一下‘'}
{'joke': '为什么电脑去医院?因为它需要检查一下‘病毒’!'}

XML结构输出

下面使用XMLOutParser来提示模型生成XML输出,然后将该输出解析为可用的格式。

xml输出

我们可以使用XMLOutputParser将默认的格式指令添加到提示中,并将输出的XML解析为字典:

from langchain_core.output_parsers import XMLOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
import os
# pip install defusexml

model = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-turbo",
    temperature=0
)

action_query = "生成周星驰的简化电影作品列表,按照最新的顺序降序"
parser = XMLOutputParser()
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model
response = chain.invoke({"query": action_query})
xml_output = parser.parse(response.content)
print(response.content)

输出示例:

```xml
<movie_list>
    <movie>
        <title>美人鱼</title>
        <year>2016</year>
    </movie>
    <movie>
        <title>西游降魔篇</title>
        <year>2013</year>
    </movie>
    <movie>
        <title>长江七号</title>
        <year>2008</year>
    </movie>
    <movie>
        <title>功夫</title>
        <year>2004</year>
    </movie>
    <movie>
        <title>少林足球</title>
        <year>2001</year>
    </movie>
</movie_list>
```

我们还可以添加一些标签以根据我们的需求定制输出。可以在提示的其他部分中尝试添加自己的格式提示,以增强或替换默认指令:

指定字段

# 指定字段名称
from langchain_core.output_parsers import XMLOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
import os
# pip install defusexml

model = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-turbo",
    temperature=0
)

joke_query = "生成周星驰的简化电影作品列表,按照最新的顺序降序"
parser = XMLOutputParser(tags=["movies", "actor", "film", "name", "genre"])
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model
response = chain.invoke({"query": joke_query})
xml_output = parser.parse(response.content)
print(response.content)

输出示例:

```xml
<movies>
    <actor>
        <name>周星驰</name>
        <film>
            <name>美人鱼</name>
            <genre>喜剧</genre>
        </film>
        <film>
            <name>西游降魔篇</name>
            <genre>奇幻, 喜剧</genre>
        </film>
        <film>
            <name>功夫</name>
            <genre>动作, 喜剧</genre>
        </film>
        <film>
            <name>少林足球</name>
            <genre>喜剧, 动作</genre>
        </film>
    </actor>
</movies>
```

YAML输出

我们使用PydanticYamlOutputParser输出指定的YAML格式

from langchain.output_parsers import YamlOutputParser
from langchain_core.prompts import PromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI
import os

class Joke(BaseModel):
    setup: str = Field(description="设置笑话的问题")
    punchline: str = Field(description="解决笑话的答案")


model = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-turbo",
    temperature=0
)

joke_query = "告诉我一个笑话."
# 设置一个解析器 + 将指令注入到提示模板中.
parser = YamlOutputParser(pydantic_object=Joke)
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model
print(parser.get_format_instructions())
response = chain.invoke({"query": joke_query})
print(response.content)

以上就是让大模型输出指定格式输出示例

源码地址

https://github.com/lys1313013/langchain-example/tree/main/08-output-parser

参考资料

B站:2025吃透LangChain大模型全套教程(LLM+RAG+OpenAI+Agent)第6集后半段

LangChain官网 JSON parser

LangChain官网 XML parser

LangChain官网 YAMLparser

相关文章:

  • VMware面向公众的存储库 URL 和身份验证机制正在发生变化
  • 帕金森患者的生活重塑:从 “嘴” 开启康复之旅
  • AutoCAD C#二次开发中WinForm与WPF的对比
  • 告别分库分表,时序数据库 TDengine 解锁燃气监控新可能
  • docker拉取镜像报错
  • 算法分析与设计课堂实验(5 分支策略3
  • STM32 MODBUS-RTU主从站库移植
  • 【Linux】——进程(下)
  • 【商城实战(65)】退换货流程全解析:从前端到后端的技术实现
  • HTML5 SVG:图形绘制的现代标准
  • STL之string
  • Qt的文件操作
  • Linux <(...) 进程替换
  • 【STM32】编写程序控制开发板的RGB LED灯
  • STM32单片机uCOS-Ⅲ系统12 CPU利用率与堆栈检测
  • [plugin:vite:import-analysis] Cannot find module ‘vuex\dist\vuex.esm-bundler
  • 风光互补智慧路灯的灯杆设计有哪些要求?
  • 服务器数据恢复—Raid5热备盘同步中断的数据恢复案例
  • WinSCP使用教程:(SFTP、SCP、FTP 和 WebDAV)
  • CES Asia 2025:科技企业出海的领航灯塔
  • 新闻分析:电影关税能“让好莱坞再次伟大”?
  • 罗马尼亚总理乔拉库宣布辞职
  • 新闻1+1丨多地政府食堂开放 “舌尖上的服务”,反映出怎样的理念转变?
  • 云南禄丰尾矿坍塌事故搜救正在进行,被掩埋的四辆工程车已找到
  • 言短意长|如何看待“订不到酒店的游客住进局长家”这件事
  • 美妙的下午