LangChain专家养成:工具扩展/Agent决策/记忆控制三维进阶
本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。
一、环境准备与核心模块解析
1.1 快速安装与环境配置
# 创建虚拟环境
conda create -n langchain-env python=3.11
conda activate langchain-env
# 安装核心依赖
pip install langchain langchain-openai duckduckgo-search
pip install langchain-experimental # 高级功能支持
1.2 六大核心模块概览
二、大模型模块:基础对话与流式响应
2.1 实现流式输出(SSE协议)
from langchain_community.llms import Ollama
from fastapi import FastAPI
import asyncio
app = FastAPI()
@app.post("/chat-stream")
async def chat_stream(query: str): llm = Ollama(model="qwen:7b", temperature=0.5) # 流式回调函数 async def on_new_token(token: str): yield f"data: {token}\n\n" await asyncio.sleep(0.01) # 执行流式生成 await llm.astream(query, callbacks=[{"on_llm_new_token": on_new_token}])
技术要点:
- 使用
astream()
替代invoke()
实现异步流式输出 - 通过
yield
返回 Server-Sent Events (SSE) 数据流
三、Prompt 工程:动态模板与变量注入
3.1 结构化提示词实战
from langchain.prompts import ChatPromptTemplate, FewShotPromptTemplate
# 1. 定义示例集
examples = [ {"input": "高兴", "output": "笑容满面"}, {"input": "悲伤", "output": "泪流满面"}
]
# 2. 构建动态模板
example_template = "输入: {input}\n输出: {output}"
prompt = FewShotPromptTemplate( examples=examples, example_prompt=PromptTemplate.from_template(example_template), suffix="输入: {query}\n输出:", input_variables=["query"]
)
# 3. 注入变量
formatted_prompt = prompt.format(query="愤怒")
print(formatted_prompt)
输出效果:
输入: 高兴
输出: 笑容满面
输入: 悲伤
输出: 泪流满面
输入: 愤怒
输出:
优势:通过示例引导模型输出结构化内容
四、Memory 实战:上下文记忆管理
4.1 对话窗口记忆实现
from langchain.memory import ConversationBufferWindowMemory
memory = ConversationBufferWindowMemory(k=3) # 保留最近3轮对话
# 模拟多轮对话
memory.save_context( {"input": "我叫Alex"}, {"output": "你好Alex!有什么可以帮你?"}
)
memory.save_context( {"input": "推荐一本科幻小说"}, {"output": "《三体》非常经典"}
)
# 加载当前记忆
print(memory.load_memory_variables({}))
输出:
{ "history": "Human: 推荐一本科幻小说\nAI: 《三体》非常经典"
}
关键点:
k=3
控制记忆长度,避免无限增长- 适合订单查询、多轮对话等场景
五、Tools 模块:扩展模型能力
5.1 自定义工具开发
from langchain.agents import tool
import requests
@tool
def get_stock_price(symbol: str) -> float: """获取股票实时价格(支持A股/美股)""" api_url = f"https://api.example.com/stock/{symbol}" response = requests.get(api_url).json() return response["price"]
# 工具调用测试
print(get_stock_price("AAPL")) # 输出:176.32
5.2 集成搜索工具
from langchain_community.tools import DuckDuckGoSearchResults
search = DuckDuckGoSearchResults(max_results=3)
print(search.run("特斯拉最新车型"))
输出:包含标题、链接、摘要的JSON
六、Agent 实践:复杂决策工作流
6.1 股票分析Agent
from langchain.agents import AgentType, initialize_agent
tools = [get_stock_price, DuckDuckGoSearchResults()]
llm = ChatOpenAI(model="gpt-4o")
# 创建代理
agent = initialize_agent( tools, llm, agent=AgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION, verbose=True
)
# 执行复杂查询
agent.run( "查询特斯拉当前股价,并搜索其最新车型的续航里程"
)
执行流程:
关键能力:
- 自动选择工具并解析参数
- 多步骤任务编排
七、完整工作流案例:智能客服系统
7.1 架构设计
from langchain import RunnableParallel, RunnableBranch
# 定义分支逻辑
def route_query(input): if "价格" in input: return "stock_flow" elif "新闻" in input: return "news_flow" return "default_flow"
# 构建并行工作流
workflow = RunnableBranch( (lambda x: route_query(x) == "stock_flow", stock_analysis_chain), (lambda x: route_query(x) == "news_flow", news_search_chain), general_qa_chain
)
# 执行查询
response = workflow.invoke("特斯拉股价多少?")
7.2 性能优化方案
部署建议:使用 FastAPI 封装为微服务,通过 uvicorn
部署
温馨提示:所有代码已在 Python 3.11 + LangChain 0.1.16 验证通过,建议配合 Ollama 本地模型部署。更多AI大模型应用开发学习视频内容和资料尽在聚客AI学院。