从零开始:用Python库轻松搭建智能AI代理
为什么要关注AI代理?
“Agentic AI”(智能代理)正在悄然改变我们的工作方式。想象一下,一个AI助手不仅能帮你查航班、订机票,还能自动安排行程、发邮件、生成日报——就像一个效率极高的“虚拟助理”团队。
对于测试工程师来说,AI代理不只是未来的趋势,更是提升自动化、加速测试流程的新利器。比如自动生成测试用例、智能爬取网页、自动填报测试结果等。
但搭建这样的系统并不容易:你要处理流程控制、数据记忆、外部工具调用、任务分发等一堆“杂事”。好消息是,Python社区已经有不少现成的库和框架,帮你快速上手,把精力集中在业务逻辑和创新上。
核心框架:智能AI代理的“发动机”
1. LangChain —— 万能积木,轻松搭建
LangChain就像一盒“乐高积木”,你可以随意组合各种AI能力:
- 模块化设计:对话、数据库、外部API等功能模块随意拼装。
- 记忆管理:让AI记住历史对话,支持上下文联想。
- 工具集成:比如快速接入天气API、数据库、甚至自动化测试平台。
上手建议:先做一个能回答测试相关问题的聊天机器人,体验AI的“记忆”功能和外部工具调用。
2. AutoGen —— 多代理协作,分工更高效
AutoGen适合模拟“团队协作”场景:
- 多角色分工:比如一个代理写代码,另一个做代码审查,还有一个自动补充文档。
- 动态任务流:代理之间可自动传递信息、反馈结果。
- 可视化调试:方便你查看各代理的对话和决策过程。
实战案例:可以搭建一个自动化测试团队,AI一边分析需求,一边自动生成和执行测试代码。
3. CrewAI —— 轻量级团队,配置超简单
CrewAI适合需要明确分工、流程清晰的小型“AI团队”:
- 角色定义:比如“需求分析员”、“用例生成器”、“报告撰写员”。
- 事件驱动:需要哪个角色时,自动上线工作。
- 极简配置:几行代码就能跑起来。
入门思路:用CrewAI让AI帮你自动收集bug、分析日志、输出测试报告。
支持库:让AI代理更“聪明”的秘密武器
LLM模型集成
- Hugging Face Transformers:数千种预训练大模型,开箱即用。
- OpenAI API:直接用GPT系列模型对话。
- Google AI SDK:调用Gemini等大模型处理复杂任务。
数据管理
- LlamaIndex:把企业内网文档、测试报告变成可检索的知识库。
- Chroma/FAISS:高效存储和检索“向量”数据,做智能搜索。
- Redis:用来保存AI代理的状态和缓存结果,速度飞快。
工具扩展
- Selenium:让AI自动打开网页、填写表单,做端到端自动化测试。
- PyAutoGUI:模拟鼠标键盘,自动操作桌面应用。
部署方案
- FastAPI:快速搭建AI服务接口,方便和测试平台对接。
- Streamlit:做交互式仪表盘,展示AI测试结果。
- LangFlow:拖拽式可视化,零代码搭建AI流程。
如何选择适合你的第一个库?
应用场景 | 推荐框架 | 说明 |
---|---|---|
聊天机器人/单一任务 | LangChain | 适合入门和基础自动化 |
多角色协作 | AutoGen | 复杂流程和团队分工 |
快速模拟团队流程 | CrewAI | 小团队任务分配、快速原型开发 |
知识库问答 | LlamaIndex + Chroma | 文档搜索、智能问答 |
网页自动化 | Selenium | 自动操作网页、表单填报 |
测试工程师的AI成长路线图
- 基础:用LangChain做一个能查询bug状态的聊天机器人,体验AI记忆与API集成。
- 进阶:用AutoGen模拟一个“自动化测试小组”,让AI协作完成代码生成、用例审查等工作。
- 专业:结合CrewAI和LlamaIndex,打造智能知识库问答系统,支持自动检索测试用例和历史缺陷。
- 专家:自定义开发,灵活组合多个库,实现更复杂的自动化测试和团队协作。
未来趋势
- 模块化更强:各库之间互通更方便,拼装能力更高。
- 企业级落地:越来越多生产级的AI自动化方案出现。
- 低代码平台崛起:拖拽式可视化工具,让非开发同事也能参与AI系统搭建。
简单示例
使用streamlit编写一个简易版chatbot,使用通义大模型,源码如下:
import streamlit as st
import os
from typing import Annotated
from typing_extensions import TypedDict
from langgraph.graph import StateGraph, START, END
from langgraph.graph.message import add_messages
from langchain_community.llms import Tongyi# ---- 环境变量输入区(可根据需求修改为硬编码) ----
st.set_page_config(page_title="Qwen 聊天机器人", page_icon="🤖", layout="centered")with st.sidebar:st.title("配置参数")dashscope_api_key = st.text_input("DASHSCOPE_API_KEY", type="password", value=os.environ.get("DASHSCOPE_API_KEY", ""))langsmith_api_key = st.text_input("LANGSMITH_API_KEY(可选)", type="password", value=os.environ.get("LANGSMITH_API_KEY", ""))langsmith_project = st.text_input("LANGSMITH_PROJECT(可选)", value=os.environ.get("LANGSMITH_PROJECT", ""))langsmith_endpoint = st.text_input("LANGSMITH_ENDPOINT(可选)", value=os.environ.get("LANGSMITH_ENDPOINT", "https://api.smith.langchain.com"))st.markdown("> *如无需 LangSmith,可留空*")st.markdown("---")st.markdown("by [你的名字/团队]")# 设置环境变量
if dashscope_api_key:os.environ["DASHSCOPE_API_KEY"] = dashscope_api_key
if langsmith_api_key:os.environ["LANGSMITH_API_KEY"] = langsmith_api_keyos.environ["LANGSMITH_TRACING"] = "true"
if langsmith_project:os.environ["LANGSMITH_PROJECT"] = langsmith_project
if langsmith_endpoint:os.environ["LANGSMITH_ENDPOINT"] = langsmith_endpoint# ---- 对话状态定义 ----
class State(TypedDict):messages: Annotated[list, add_messages]# ---- 状态机组装 ----
@st.cache_resource(show_spinner="正在加载 Qwen 模型…")
def get_graph():graph_builder = StateGraph(State)llm = Tongyi(model="qwen-max",streaming=True,temperature=0.7,top_p=0.8,api_key=os.environ.get("DASHSCOPE_API_KEY"))def chatbot(state: State):return {"messages": [llm.invoke(state["messages"])]}graph_builder.add_node("chatbot", chatbot)graph_builder.add_edge(START, "chatbot")graph_builder.add_edge("chatbot", END)return graph_builder.compile()graph = get_graph()# ---- Streamlit 聊天 session 状态维护 ----
if "history" not in st.session_state:st.session_state.history = []st.title("🤖 Qwen 聊天机器人(LangGraph 版)")with st.form(key="chat-form", clear_on_submit=True):user_input = st.text_area("请输入你的问题:", value="", placeholder="和机器人聊点什么吧…", height=80)submitted = st.form_submit_button("发送")def stream_graph_updates(user_input: str, history: list):yield from graph.stream({"messages": history + [{"role": "user", "content": user_input}]})# 聊天历史展示
for msg in st.session_state.history:if msg["role"] == "user":st.chat_message("user").write(msg["content"])else:st.chat_message("assistant").write(msg["content"])# 新问题处理
if submitted and user_input.strip():st.session_state.history.append({"role": "user", "content": user_input})response_placeholder = st.empty()full_response = ""# 流式显示with st.spinner("Assistant 正在思考..."):for event in stream_graph_updates(user_input, st.session_state.history[:-1]):for value in event.values():resp = value["messages"][-1]# 仅展示assistant内容# if resp["role"] == "assistant":# full_response = respresponse_placeholder.chat_message("assistant").write(resp)# 更新历史if full_response:st.session_state.history.append({"role": "assistant", "content": full_response})# 清空历史按钮
st.sidebar.button("清空对话历史", on_click=lambda: st.session_state.pop("history", None))st.info("提示:本机器人支持多轮上下文记忆,支持流式输出。输入 'quit'/'exit'/'q' 可结束对话(但不会关闭页面)。")
运行效果:
配置了DASHSCOPE_API_KEY后效果如下:
结语
这些Python库为AI代理搭建提供了强大的底层能力,让测试工程师把更多时间花在创新与优化上,而不是重复造轮子。建议你从LangChain入手,边学边用,亲手做几个小项目,比如自动查询天气并推荐穿衣。实践中你会发现,AI代理就像乐高积木,拼出无限可能!
动手试试:用LangChain做个“小助手”,能自动查天气并给出穿衣建议。你会学会AI如何记住历史对话、调用外部API,迈出智能自动化的第一步!