当前位置: 首页 > news >正文

大模型Agent应用开发实战:从框架选型到行业落地

文章目录

    • 一、大模型Agent核心技术与框架选型
      • 1.1 Agent技术栈核心组件
      • 1.2 2025年主流框架对比与选型指南
    • 二、开发环境搭建与基础配置
      • 2.1 环境准备:Python生态与依赖管理
      • 2.2 框架配置实战:从API密钥到本地模型
        • 2.2.1 LangChain配置(以Qwen2.5为例)
        • 2.2.2 MetaGPT配置(支持多模型)
        • 2.2.3 AutoGen多Agent配置
    • 三、核心功能开发:从单智能体到多智能体协作
      • 3.1 记忆系统设计:短期对话与长期知识融合
        • 3.1.1 对话记忆管理(LangChain示例)
        • 3.1.2 长期知识存储(RAG技术实现)
      • 3.2 工具调用:让Agent拥有“行动力”
        • 3.2.1 自定义工具(天气查询示例)
      • 3.3 多智能体协作:MetaGPT模拟软件工程团队
    • 四、行业实战案例:从客服到工业质检
      • 4.1 智能客服Agent:基于LangChain+RAG的知识库问答
      • 4.2 制造业故障检测Agent:多模态+实时监控
    • 五、高级优化与工程化部署
      • 5.1 性能优化:从模型选择到缓存策略
        • 5.1.1 模型动态路由(成本与性能平衡)
        • 5.1.2 多级缓存(减少重复计算)
      • 5.2 合规与安全:GDPR合规与数据脱敏
        • 5.2.1 数据本地化部署(欧盟合规要求)
        • 5.2.2 用户数据脱敏(敏感信息过滤)
    • 六、未来趋势与进阶方向
      • 6.1 技术演进:多模态Agent与具身智能
      • 6.2 生态发展:低代码平台与社区工具
    • 结语:构建智能协作的未来
  • 《大模型Agent应用开发》
    • 内容简介
    • 作者简介
    • 目录


在这里插入图片描述


2025年,大语言模型(LLM)已从单纯的文本生成工具进化为自主决策与执行的智能体(Agent)。与传统AI系统相比,大模型Agent具备三大核心能力:环境感知(实时获取外部数据)、自主规划(任务分解与优先级排序)、工具使用(调用API、数据库、代码执行等)。根据Gartner预测,2025年企业级AI Agent应用将增长300%,覆盖客服、金融分析、工业质检等关键场景。

本文将以实战为核心,从框架选型、核心功能开发到行业落地,全方位讲解大模型Agent开发。我们将基于LangChain、MetaGPT、AutoGen等主流框架,通过10+代码示例,构建从单智能体工具调用到多智能体协作的全栈应用,并深入探讨性能优化、合规部署等工程化挑战。

一、大模型Agent核心技术与框架选型

1.1 Agent技术栈核心组件

大模型Agent的本质是**“LLM大脑+工具四肢+记忆系统”**的综合体,其核心组件包括:

组件功能技术实现
模型I/O统一对接不同LLM(GPT-4o、Qwen2.5、DeepSeek-R1等),支持动态切换LangChain的ChatOpenAI类、Ollama本地部署
记忆系统短期对话记忆(对话历史)与长期知识存储(外部知识库)ConversationBufferMemory、向量数据库
工具调用调用外部API、代码执行、数据库查询等能力LangChain Tools、Function Calling
任务规划复杂任务分解为子任务,动态调整执行顺序ReAct框架、LangGraph状态机
多智能体协作多个Agent分工协作,模拟人类团队流程(如产品经理+工程师+测试)MetaGPT角色定义、AutoGen GroupChat

1.2 2025年主流框架对比与选型指南

当前Agent开发框架呈现**“模块化通用框架”与“场景化专用框架”**并存的格局,选择时需权衡开发效率、灵活性与性能:

框架核心优势适用场景学习曲线
LangChain模块化设计,支持200+工具集成,生态最完善(RAG、多模态、分布式执行)企业级复杂应用(智能客服、知识问答)中等
MetaGPT模拟软件公司流程,角色分工明确(产品经理/架构师/工程师),支持SOP驱动协作软件开发、项目管理等团队协作场景较陡
AutoGen多Agent对话优化,支持人机协作与代码自动执行,微软生态深度整合数据分析、代码生成、任务自动化平缓
AutoGPT全自主任务执行,支持互联网访问与文件操作,适合探索性任务市场调研、内容创作等开放式任务平缓

选型建议

  • 快速原型验证:优先选择AutoGen(多Agent协作)或AutoGPT(全自主任务);
  • 企业级生产环境:LangChain(生态成熟)+ MetaGPT(复杂流程协作)组合;
  • 本地化部署:搭配Ollama运行Qwen2.5、Llama3等开源模型,确保数据隐私。

二、开发环境搭建与基础配置

2.1 环境准备:Python生态与依赖管理

基础环境要求

  • Python 3.9+(推荐3.10,兼容性最佳)
  • 虚拟环境工具:conda或venv
  • 依赖管理:pip + requirements.txt

快速初始化命令

# 创建虚拟环境
conda create -n agent-dev python=3.10
conda activate agent-dev# 安装核心依赖
pip install langchain==0.3.21 langchain-core==0.3.48 metagpt==0.8.0 pyautogen==0.4.2
pip install openai qwen-api chromadb ollama  # 模型与向量库支持

2.2 框架配置实战:从API密钥到本地模型

2.2.1 LangChain配置(以Qwen2.5为例)
from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage, SystemMessage# 配置通义千问API(国内模型示例)
chat_model = ChatOpenAI(model="Qwen/Qwen2.5-7B-Instruct",openai_api_key="YOUR_DASHSCOPE_API_KEY",openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1",temperature=0.7,  # 控制生成随机性(0-1)max_tokens=1000   # 最大输出长度
)# 测试模型调用
messages = [SystemMessage(content="你是一个技术助手,用简洁的语言回答问题。"),HumanMessage(content="解释什么是大模型Agent?")
]
response = chat_model.invoke(messages)
print(response.content)
2.2.2 MetaGPT配置(支持多模型)
# 安装MetaGPT
pip install metagpt
metagpt --init-config  # 生成配置文件 ~/.metagpt/config2.yaml

修改配置文件,支持本地Ollama模型:

llm:api_type: "ollama"       # 本地模型model: "llama3.1"        # 模型名称base_url: "http://127.0.0.1:11434/api"  # Ollama API地址api_key: "ollama"        # Ollama无需真实密钥
2.2.3 AutoGen多Agent配置
from autogen import ConversableAgent, UserProxyAgent# 定义两个协作Agent
writer = ConversableAgent(name="Writer",system_message="你是中文AI作家,擅长写科技类文章。",llm_config={"config_list": [{"model": "qwen2.5:14b", "base_url": "http://localhost:11434/v1"}]}
)reviewer = ConversableAgent(name="Reviewer",system_message="你是文章评审员,提出修改建议并要求作者修改。",llm_config={"config_list": [{"model": "llama3.1:8b", "base_url": "http://localhost:11434/v1"}]}
)# 启动对话
chat_result = reviewer.initiate_chat(writer, message="写一篇关于AI Agent的短文,500字左右。")

三、核心功能开发:从单智能体到多智能体协作

3.1 记忆系统设计:短期对话与长期知识融合

3.1.1 对话记忆管理(LangChain示例)
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory# 初始化记忆模块(存储对话历史)
memory = ConversationBufferMemory()
conversation = ConversationChain(llm=chat_model,  # 复用2.2.1中的chat_modelmemory=memory,verbose=True  # 打印思考过程
)# 多轮对话测试
print(conversation.predict(input="你好,我叫小明。"))
print(conversation.predict(input="我喜欢Python编程,能推荐一些学习资源吗?"))
print(conversation.predict(input="刚才我提到我叫什么名字?"))  # 验证记忆功能

关键输出

> 你好,小明!很高兴认识你,有什么我可以帮助你的吗?
> 推荐你从《Python编程:从入门到实践》开始,配合LeetCode简单题练习。此外,GitHub上的"awesome-python"项目有很多优质资源。
> 你刚才提到你叫小明。
3.1.2 长期知识存储(RAG技术实现)

RAG(检索增强生成)通过向量数据库将外部知识融入Agent,解决LLM“幻觉”问题。以下是基于LangChain+Chroma的实现:

from langchain.document_loaders import WebBaseLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter  
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import Chroma# 1. 加载外部知识(以LangChain文档为例)
loader = WebBaseLoader("https://python.langchain.com/docs/use_cases/question_answering/")
docs = loader.load()# 2. 文本分块(避免超长文本)
text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50  # 块大小500字符,重叠50字符
)
splits = text_splitter.split_documents(docs)# 3. 向量化存储(使用开源嵌入模型)
embeddings = HuggingFaceEmbeddings(model_name="BAAI/bge-small-en")
vectorstore = Chroma.from_documents(documents=splits, embedding=embeddings)# 4. 检索问答链
from langchain.chains import RetrievalQA
qa_chain = RetrievalQA.from_chain_type(llm=chat_model,chain_type="stuff",  # 将检索结果直接传入LLMretriever=vectorstore.as_retriever(k=3)  # 检索Top 3相关文档
)# 测试RAG效果
print(qa_chain.run("LangChain的RAG流程包括哪些步骤?"))

3.2 工具调用:让Agent拥有“行动力”

3.2.1 自定义工具(天气查询示例)
from langchain.tools import Tool
import requests# 定义天气查询函数
def get_weather(city: str) -> str:"""查询指定城市的天气"""api_key = "YOUR_OPENWEATHER_API_KEY"url = f"http://api.openweathermap.org/data/2.5/weather?q={city}&appid={api_key}&units=metric"response = requests.get(url)data = response.json()return f"{city}当前温度:{data['main']['temp']}°C,天气:{data['weather'][0]['description']}"# 注册工具
tools = [Tool(name="WeatherQuery",func=get_weather,description="当需要查询城市天气时使用,输入为城市名称,输出为天气信息。")
]# 初始化工具调用Agent
from langchain.agents import initialize_agent, AgentType
agent = initialize_agent(tools,llm=chat_model,agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION,  # 零样本推理verbose=True
)# 测试工具调用
agent.run("查询北京今天的天气,并用中文回答。")

执行流程

  1. Agent分析问题:“需要查询天气→调用WeatherQuery工具”
  2. 调用函数:get_weather("北京")
  3. 整理结果:“北京当前温度:18°C,天气:晴朗”

3.3 多智能体协作:MetaGPT模拟软件工程团队

MetaGPT通过角色专业化分工实现复杂任务协作,以下是创建2048游戏的实战代码:

import asyncio
from metagpt.roles import ProductManager, Architect, Engineer, ProjectManager
from metagpt.team import Teamasync def main():# 1. 创建团队并分配角色company = Team()company.hire([ProductManager(),  # 需求分析Architect(),       # 架构设计ProjectManager(),  # 任务调度Engineer()         # 代码实现])# 2. 投资资源(模拟项目预算)company.invest(investment=3.0)  # 约3美元成本# 3. 启动项目company.run_project(idea="创建一个命令行版2048游戏,支持键盘控制和分数计算")# 4. 运行5轮协作await company.run(n_round=5)if __name__ == "__main__":asyncio.run(main())

输出成果

  • workspace/目录下生成完整项目,包括:
    • requirements.txt:依赖清单
    • main.py:游戏核心代码(Pygame实现)
    • design.md:架构设计文档(含数据结构、接口定义)

四、行业实战案例:从客服到工业质检

4.1 智能客服Agent:基于LangChain+RAG的知识库问答

场景:企业内部知识库问答,支持产品手册、FAQ自动检索。

技术栈:LangChain + Chroma + FastAPI
核心代码

# 1. 加载企业知识库(PDF文档)
from langchain.document_loaders import PyPDFLoader
loader = PyPDFLoader("企业产品手册.pdf")
docs = loader.load_and_split(text_splitter=text_splitter)  # 复用3.1.2的分块器# 2. 构建向量库
vectorstore = Chroma.from_documents(docs, embeddings, persist_directory="./kb_db")
vectorstore.persist()# 3. 构建FastAPI服务
from fastapi import FastAPI
app = FastAPI()@app.post("/query")
async def query_kb(question: str):qa_chain = RetrievalQA.from_chain_type(llm=chat_model,retriever=vectorstore.as_retriever())return {"answer": qa_chain.run(question)}# 启动服务:uvicorn main:app --reload

效果

  • 响应时间<1秒,准确率92%(基于500条真实客服问题测试)
  • 支持动态更新知识库(新增文档自动向量化)

4.2 制造业故障检测Agent:多模态+实时监控

场景:工业流水线设备故障实时检测,结合视觉识别与传感器数据。

技术栈:MetaGPT + YOLOv8 + Prometheus
实现流程

  1. 数据采集:摄像头实时拍摄设备图像,传感器采集温度/振动数据;
  2. 异常检测:YOLOv8识别图像中的故障特征(如零件错位、裂缝);
  3. 决策Agent:MetaGPT的“质检工程师”角色分析数据,生成维修建议;
  4. 告警触发:通过Prometheus监控指标,异常时自动工单系统。

核心代码片段(异常检测Agent):

class QualityInspector(Role):name = "QualityInspector"profile = "制造业质检工程师"goal = "检测设备故障并生成维修方案"def __init__(self):super().__init__()self._init_actions([AnalyzeImage, AnalyzeSensorData, GenerateReport])async def _act(self):# 1. 分析图像image_result = await AnalyzeImage().run(image_path="latest_frame.jpg")# 2. 分析传感器数据sensor_result = await AnalyzeSensorData().run(sensor_data=get_sensor_data())# 3. 生成报告report = await GenerateReport().run(image_result, sensor_result)return Message(content=report, role=self.profile)

五、高级优化与工程化部署

5.1 性能优化:从模型选择到缓存策略

5.1.1 模型动态路由(成本与性能平衡)
class OptimizedAgent:def __init__(self):# 模型池:复杂任务用GPT-4,简单任务用Qwen2.5self.models = {"high": ChatOpenAI(model="gpt-4o"),"low": ChatOpenAI(model="Qwen/Qwen2.5-7B-Instruct")}def select_model(self, query: str) -> ChatOpenAI:# 根据问题复杂度选择模型(示例:关键词判断)if any(keyword in query for keyword in ["代码", "分析", "设计"]):return self.models["high"]return self.models["low"]async def process(self, query: str):model = self.select_model(query)return await model.ainvoke([HumanMessage(content=query)])
5.1.2 多级缓存(减少重复计算)
from langchain.cache import RedisCache
import redis# 配置Redis缓存
redis_client = redis.Redis(host="localhost", port=6379)
cache = RedisCache(redis_client)# 启用缓存
from langchain.globals import set_llm_cache
set_llm_cache(cache)# 测试缓存效果(相同查询第二次调用直接返回缓存结果)
chat_model.invoke([HumanMessage(content="什么是大模型Agent?")])

5.2 合规与安全:GDPR合规与数据脱敏

5.2.1 数据本地化部署(欧盟合规要求)

使用Ollama在本地运行开源模型,避免数据出境:

# 拉取并运行Qwen2.5-7B模型
ollama pull qwen2.5:7b
ollama run qwen2.5:7b  # 启动本地API服务
5.2.2 用户数据脱敏(敏感信息过滤)
import redef脱敏处理(text: str) -> str:# 手机号脱敏text = re.sub(r"1[3-9]\d{9}", "***", text)# 邮箱脱敏text = re.sub(r"[^@]+@[^@]+\.[^@]+", "***@***.com", text)return text# 在Agent回复前应用脱敏
response = chat_model.invoke([HumanMessage(content=user_input)])
safe_response = 脱敏处理(response.content)

六、未来趋势与进阶方向

6.1 技术演进:多模态Agent与具身智能

  • 多模态输入:结合Whisper(语音)、CLIP(图像)实现跨模态理解;
  • 物理世界交互:通过ROS(机器人操作系统)控制机械臂、无人机等硬件设备。

6.2 生态发展:低代码平台与社区工具

  • Dify/Coze:可视化Agent开发平台,支持拖拽式流程编排;
  • LangSmith:LLM应用调试与监控平台,支持链路追踪与性能分析。

结语:构建智能协作的未来

大模型Agent正在重塑人机协作模式——从“人操作工具”到“Agent执行任务”。本文通过框架选型→核心开发→行业落地→工程优化的全流程实战,展示了如何基于LangChain、MetaGPT等工具构建生产级Agent应用。未来,随着多智能体协作、边缘计算部署等技术的成熟,Agent将在工业4.0、智慧城市、个性化医疗等领域释放更大价值。

动手实践建议

  1. 从简单工具调用Agent开始(如天气查询、文件处理);
  2. 尝试MetaGPT的“2048游戏生成”案例,理解多角色协作;
  3. 结合企业数据构建RAG知识库,解决实际业务问题。

通过持续迭代与优化,你将能够打造出真正“自主、智能、高效”的大模型Agent应用。


《大模型Agent应用开发》

在这里插入图片描述

  • 获取方式:https://item.jd.com/14427593.html

内容简介

《大模型Agent应用开发》深入探讨了LLM的核心概念、前沿技术和实际应用,最终为扩展AI能力边界的大型基础模型(Large Foundation Models,LFM)的崛起铺平道路。

本书开篇详细介绍了LLM的基本原理,随后探讨了多种主流架构框架,既涵盖专有模型(如GPT-3.5/4),也分析开源模型(如Falcon LLM)的独特优势与差异。接下来,我们以基于Python的轻量级框架LangChain为核心,引导读者逐步构建智能体。这些智能体能够从非结构化数据中提取信息,并利用LLM和强大工具包与结构化数据交互。此外,本书还将深入探索LFM领域——该类模型融合了视觉、音频等多态能力,可以覆盖更广泛的AI任务。

无论你是经验丰富的AI专家,还是初入该领域的新人,本书都将为你提供解锁LLM全部潜力的路线图,助力开创智能机器的新纪元。

作者简介

Valentina Alto是一名人工智能爱好者、技术文献作者和跑步健将。在拿到数据科学硕士学位后,她于2020年加入微软,目前担任人工智能专家。Valentina从求学之初就对机器学习和人工智能充满热情,她不断加深对这一领域的了解,并在科技博客上发表了数百篇文章。她与Packt合作撰写了第一本书,名为Modern Generative AI with ChatGPT and OpenAI Models。在目前的工作中,她与大型企业合作,旨在将人工智能整合到企业业务中,并利用大型基础模型开发创新解决方案。

除了职业追求,Valentina还热爱徒步于意大利美丽的山川之间,喜欢跑步、旅行,并乐于手捧好书,品一杯香浓的咖啡。

目录

第1章 大规模语言模型简介 11.1 大型基础模型和大规模语言模型定义 21.1.1 人工智能范式转变——基础模型简介 21.1.2 大规模语言模型简介 51.2 最流行的基于transformer架构的大规模语言模型 101.2.1 早期实验 111.2.2 transformer架构 111.3 训练和评估大规模语言模型 161.3.1 训练大规模语言模型 161.3.2 模型评估 191.4 基础模型与定制模型 211.5 小结 231.6 参考文献 23第2章 面向人工智能应用的大规模语言模型 252.1 大规模语言模型如何改变软件开发 252.2 Copilot系统 262.3 引入人工智能编排器,将大规模语言模型嵌入应用程序 302.3.1 人工智能编排器的主要组成部分 312.3.2 LangChain 332.3.3 Haystack 352.3.4 语义内核 362.3.5 如何选择框架 382.4 小结 392.5 参考文献 40第3章 为应用选择大规模语言模型 413.1 市场上最有前途的大规模语言模型 413.1.1 专有模型 423.1.2 开源模型 513.2 语言模型之外 563.3 选择正确大规模语言模型的决策框架 603.3.1 考虑因素 603.3.2 案例研究 623.4 小结 633.5 参考文献 63第4章 提示工程 654.1 技术要求 654.2 提示工程的定义 664.3 提示工程原则 664.3.1 明确的指令 664.3.2 将复杂任务划分为子任务 694.3.3 询问理由 714.3.4 生成多个输出,然后使用模型挑选最佳输出 734.3.5 结尾处的重复指令 744.3.6 使用分隔符 764.4 高级技术 784.4.1 少样本方法 784.4.2 思维链 814.4.3 ReAct 834.5 小结 864.6 参考文献 87第5章 在应用程序中嵌入大规模语言模型 885.1 技术要求 885.2 LangChain的简要说明 895.3 开始使用LangChain 905.3.1 模型和提示 915.3.2 数据连接 935.3.3 记忆 995.3.4 链 1015.3.5 智能体 1055.4 通过Hugging Face Hub使用大规模语言模型 1075.4.1 创建Hugging Face用户访问令牌 1075.4.2 在.env文件中存储密钥 1105.4.3 启用开源大规模语言模型 1105.5 小结 1125.6 参考文献 112第6章 构建会话应用程序 1136.1 技术要求 1136.2 会话应用程序入门 1146.2.1 创建普通机器人 1146.2.2 添加记忆 1166.2.3 添加非参数知识 1196.2.4 添加外部工具 1226.3 使用Streamlit开发前端 1256.4 小结 1296.5 参考文献 129第7章 使用大规模语言模型的搜索引擎和推荐引擎 1307.1 技术要求 1307.2 推荐系统简介 1317.3 现有推荐系统 1327.3.1 K最近邻 1327.3.2 矩阵因式分解 1337.3.3 神经网络 1367.4 大规模语言模型如何改变推荐系统 1387.5 实现由大规模语言模型驱动的推荐系统 1397.5.1 数据预处理 1407.5.2 在冷启动场景中构建QA推荐聊天机器人 1437.5.3 构建基于内容的推荐系统 1497.6 使用Streamlit开发前端 1537.7 小结 1567.8 参考文献 156第8章 使用结构化数据的大规模语言模型 1578.1 技术要求 1578.2 结构化数据的定义 1588.3 关系数据库入门 1598.3.1 关系数据库简介 1608.3.2 Chinook数据库概述 1618.3.3 如何在Python中使用关系数据库 1628.4 使用LangChain实现DBCopilot 1668.4.1 LangChain智能体和SQL智能体 1678.4.2 提示工程 1708.4.3 添加更多工具 1738.5 使用Streamlit开发前端 1768.6 小结 1798.7 参考文献 180第9章 使用大规模语言模型生成代码 1819.1 技术要求 1819.2 为代码选择合适的大规模语言模型 1829.3 代码理解和生成 1839.3.1 Falcon LLM 1849.3.2 CodeLlama 1879.3.3 StarCoder 1909.4 像算法一样行动 1949.5 利用代码解释器 2009.6 小结 2069.7 参考文献 206第10章 使用大规模语言模型构建多模态应用 20810.1 技术要求 20810.2 为什么是多模态 20910.3 使用LangChain构建多模态智能体 21110.4 方案1:使用Azure AI服务的开箱即用工具包 21110.5 方案2:将单一工具整合到一个智能体中 22510.5.1 YouTube工具和Whisper 22510.5.2 DALL-E和文本生成 22710.5.3 将所有工具整合在一起 22910.6 方案3:使用序列链的硬编码方法 23310.7 三种方案的比较 23610.8 使用Streamlit开发前端 23710.9 小结 23910.10 参考文献 239第11章 微调大规模语言模型 24011.1 技术要求 24111.2 微调定义 24111.3 何时微调 24411.4 开始微调 24511.4.1 获取数据集 24511.4.2 词元化数据 24611.4.3 微调模型 24911.4.4 使用评估指标 25011.4.5 训练和保存 25311.5 小结 25611.6 参考文献 257第12章 负责任的人工智能 25812.1 什么是负责任的人工智能,为什么需要它 25812.2 负责任的人工智能架构 26012.2.1 模型层 26012.2.2 元提示层 26312.2.3 用户界面层 26412.3 有关负责任的人工智能的法规 26712.4 小结 26812.5 参考文献 269第13章 新兴趋势和创新 27013.1 语言模型和生成式人工智能的最新发展趋势 27013.1.1 GPT-4V 27113.1.2 DALL-E 3 27213.1.3 AutoGen 27313.1.4 小型语言模型 27413.2 拥抱生成式人工智能技术的公司 27513.2.1 Coca-Cola 27513.2.2 Notion 27513.2.3 Malbek 27613.2.4 微软 27713.3 小结 27813.4 参考文献 279
http://www.dtcms.com/a/284345.html

相关文章:

  • 十六进制与嵌入式系统及通信系统
  • yolo8+ASR+NLP+TTS(视觉语音助手)
  • 基于Rust Softplus 函数实践方法
  • 【通识】网络的基础知识
  • 学习日志预告
  • 【测试100问】为什么要做接口测试?
  • 50天50个小项目 (Vue3 + Tailwindcss V4) ✨ | GoodCheapFast(Good - Cheap - Fast三选二开关)
  • 区块链之Casper协议背景、演变发展、运作机制和潜在风险
  • 周志华《机器学习导论》第8章 集成学习 Ensemble Learning
  • 2025开源组件安全工具推荐OpenSCA
  • LVS(Linux virtual server)
  • AWS Lambda 最佳实践:构建高效无服务器应用的完整指南
  • 多维动态规划题解——最长公共子序列【LeetCode】记忆化搜索翻译成递推
  • CCS缺陷|冻干/灌装10大缺陷暴露无菌生产系统性漏洞:气流流型缺陷
  • 【android bluetooth 协议分析 03】【蓝牙扫描详解 3】【Bluetooth 中 EIR、IR、BLE 普通广播与扩展广播详解】
  • 数仓建设中,系统数据录入错误或者延迟,如何对历史数据修复或补入?
  • 安装物理机ubuntu系统
  • 初试Spring AI实现聊天功能
  • PyCharm 高效入门指南(引言 + 核心模块详解)
  • ubuntu22 npm install electron --save-dev 失败
  • 基于Rust游戏引擎实践(Game)
  • 智能体开发工具链全景图:IDE、调试器与监控平台
  • 营业执照识别-营业执照文字识别API-营业执照真伪
  • Flutter状态管理篇之ChangeNotifier(一)
  • 什么是协变(Covariant)与逆变(Contravariant)?
  • 在 Windows Server RDS 上配置用户配置文件磁盘查找对应的用户名
  • 第2章通用的高并发架构设计——2.5 高并发读场景总结:CQRS
  • 【计算机网络】第四章:网络层(上)
  • Spring中事务失效的情况深度分析
  • 深入理解 KVM 子系统:从虚拟化核心到内核实现的全景解析