当前位置: 首页 > news >正文

smolagents学习笔记系列(八)Examples - Master you knowledge base with agentic RAG

这篇文章锁定官网教程中 Examples 章节中的 Master you knowledge base with agentic RAG 文章,主要介绍了如何将 agent 和 RAG 结合使用。

  • 官网链接:https://huggingface.co/docs/smolagents/v1.9.2/en/examples/rag;

Agentic RAG

在之前的几篇文章中介绍了如何使用Agent对你的问题进行代理、访问网页内容后回答问题、从SQL数据库中检索内容等功能,到这一步看似已经功能齐全了,因为常规需求也就这几种:

  • 直接对LLM进行询问并根据回答展开多轮询问;
  • 需要LLM在拥有某些知识背景下回答问题;

第一点我们已经很熟悉了,你平时使用的GPT也是通过模型本身具有的知识库进行问答,对于第二点而言无非就下面两种手段:

  1. 针对你提供的知识库对模型进行微调;
  2. 在你提问时将知识库中的信息传递给模型;

方案一当然是最理想的手段,因为可以得到一个指定领域的专家模型,但成本与代价也是极高的,这里的成本与代价不仅仅是数据采集与标注,更多的是你需要不断试探出模型的跷跷板,大多数模型在过多训练一个领域的知识后会丢失一些其他领域的技能。这种方案对普通人或小公司而言不划算;

方案二就需要你提供外部信息了,好像只要不停提供外部信息源即可,例如给一组网页或文本链接然后让Agent一口气向LLM进行询问。这样处理简单直接,但实际上对LLM并不友好,因为如果一次提供过多的信息内容可能会导致以下问题:

  • 需要参数量更大的模型来理解的输入;
  • 知识库中参杂无用信息会导致LLM回答跑偏;
  • 过长的信息会让LLM忘记最早的一些内容;

这个其实也符合我们的生活常识,即如果一个人一口气说了很多话或者看了一整本书,你会很难提炼里面的中心思想,对于大语言模型而言也是同样的道理,加上你提供的知识库信息本身就可能非常庞大,如果不对这些信息进行筛选或者精炼的话LLM的回答效果也会变得不理想。

此时 Retrieval-Augmented-Generation (RAG) 就诞生了,它的作用就是先对你提供的知识库进行一次筛洗,将你知识库中最重要的内容提炼出来再喂给LLM,这个筛选可以通过词向量的方式也可以通过另一个LLM完成,感兴趣的话可以看下面两篇博客:

  • 一文读懂:LLM大模型RAG;
  • LangChain教程 | Retrival之Retrievers详解 | 检索器教程;

此时我们的核心目的变成了 通过RAG将外部知识库中精炼的内容传递给LLM

官网的示例需要安装以下依赖,实现的功能是通过阅读 huggingface 的一个文档后在此基础上回答你的问题:

$ pip install smolagents pandas langchain langchain-community sentence-transformers datasets python-dotenv rank_bm25 --upgrade -q

总体步骤分为以下几步:

  1. 使用 LangChain 库中的相关工具对知识库进行筛洗;
  2. 定义 ToolAgent
  3. 执行问答;

此处不过多介绍 LangChain 这个库,这个库是学习语言模型必须掌握的内容,感兴趣的可以自己下去查阅,如果完全没接触过也不用担心,你可以认为涉及这部分的代码就是帮你完成了一次知识筛洗;完整代码如下:

import datasets
from langchain.docstore.document import Document
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_community.retrievers import BM25Retriever
from smolagents import Tool
from smolagents import HfApiModel, CodeAgent

# Step1. 使用 LangChain 对知识库进行筛洗
knowledge_base = datasets.load_dataset("m-ric/huggingface_doc", split="train")
knowledge_base = knowledge_base.filter(lambda row: row["source"].startswith("huggingface/transformers"))

source_docs = [
    Document(page_content=doc["text"], metadata={"source": doc["source"].split("/")[1]})
    for doc in knowledge_base
]

text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=500,
    chunk_overlap=50,
    add_start_index=True,
    strip_whitespace=True,
    separators=["\n\n", "\n", ".", " ", ""],
)
docs_processed = text_splitter.split_documents(source_docs)

# Step2. 定义 Tool 与 Agent
class RetrieverTool(Tool):
    name = "retriever"
    description = "Uses semantic search to retrieve the parts of transformers documentation that could be most relevant to answer your query."
    inputs = {
        "query": {
            "type": "string",
            "description": "The query to perform. This should be semantically close to your target documents. Use the affirmative form rather than a question.",
        }
    }
    output_type = "string"

    def __init__(self, docs, **kwargs):
        super().__init__(**kwargs)
        self.retriever = BM25Retriever.from_documents(
            docs, k=10
        )

    def forward(self, query: str) -> str:
        assert isinstance(query, str), "Your search query must be a string"

        docs = self.retriever.invoke(
            query,
        )
        return "\nRetrieved documents:\n" + "".join(
            [
                f"\n\n===== Document {str(i)} =====\n" + doc.page_content
                for i, doc in enumerate(docs)
            ]
        )

retriever_tool = RetrieverTool(docs_processed)

agent = CodeAgent(
    tools=[retriever_tool], model=HfApiModel(), max_steps=4, verbosity_level=2
)

# Step3. Agent执行问答任务
agent_output = agent.run("For a transformers model training, which is slower, the forward or the backward pass?")

print("Final output:")
print(agent_output)

运行结果如下:

$ python demo.py

在这里插入图片描述

【Tips】:对于参数量越小的模型而言,RAG的作用越大,超大规模语言模型如 GPT-4o 已经涵盖了很多领域的知识,对其进行微调提示的投入产出比远小于小型模型。。RAG也是普通人在不进行微调前提下得到一个最适合自己的Agent手段。

相关文章:

  • 第13天:数据序列化实战 - 从内存到磁盘的完美转换
  • 2025 软件供应链安全情报预警平台建设与实践
  • Java中的TreeMap
  • Oracle 数据库基础入门(二):深入理解表的约束
  • DeepSeek 提示词:常见指令类型
  • 内容选题与商业布局
  • 使用Crawlee可破题js渲染采集数据
  • 【Javascript】js精度丢失
  • uni小程序wx.switchTab有时候跳转错误tab问题,解决办法
  • Redis除了做缓存还有哪些应用场景
  • 记一次高并发下导致的数据库死锁解决方案
  • Docker和K8S中pod、services、container的介绍和关系
  • 【3DMAX科研绘图】3DMAX一键生成极小曲面插件Gyroid使用方法
  • DeepSeek入门学习
  • 计算机网络基础简答题资料(对口高考)
  • 【C++】模板初阶
  • 力扣hot100——前k个高频元素 (优先队列法,相关总结文章见另一博客)
  • 大中型虚拟化园区网络设计
  • 重生之我在学校学习Linux创造系统命令
  • GitHub高效搜索工具
  • 上海率先推进生物制品分段生产试点,这款国产1类创新药获批上市
  • 上海“城市文明开放麦”全城总动员,樊振东担任首位上海城市文明大使
  • 农行回应“病重老人被要求亲自取钱在银行去世”:全力配合公安机关调查
  • 刘强东坐镇京东一线:管理层培训1800人次,最注重用户体验
  • 美国调整对华加征关税
  • 外交部:反对美方人士发表不负责任谬论