当前位置: 首页 > news >正文

基于 Python 的自然语言处理系列(70):检索增强生成(RAG)

1. 什么是 RAG?

        在许多大模型(LLM)应用场景中,我们需要使用特定的用户数据,而这些数据并未包含在模型的训练集中。检索增强生成(Retrieval Augmented Generation,RAG)是一种有效的解决方案,它通过从外部数据源检索相关数据,并在生成回答时将其传递给 LLM,以提高回答的准确性和相关性。

        LangChain 提供了一整套用于构建 RAG 应用的模块,包括:

  • 文档加载(Document loaders):从 HTML、PDF、代码等多种格式的数据源加载文档。

  • 文档转换(Document transformers):将大文档拆分为更小的、相关的片段,以提升检索效果。

  • 文本嵌入模型(Text embedding models):将文本转换为向量,以便进行相似度搜索。

  • 向量存储(Vector stores):用于存储和检索嵌入向量的数据库。

  • 检索器(Retrievers):从存储的数据中获取最相关的信息。

2. 文档加载(Document Loaders)

        LangChain 提供了多种文档加载工具,例如 CSVLoader、PyPDFLoader 和 OnlinePDFLoader。

from langchain.document_loaders import PyPDFLoader

loader = PyPDFLoader("./docs/pdf/MachineLearning-Lecture01.pdf")
pages = loader.load_and_split()
print(len(pages))

3. 文档转换(Document Transformers)

        在检索过程中,将长文档拆分为较小的块有助于提高查询效率。

from langchain.text_splitter import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(
    chunk_size=700, chunk_overlap=100
)
docs = text_splitter.split_documents(pages)
print(len(docs))

4. 文本嵌入(Text Embedding Models)

        文本嵌入用于将文本转换为向量,以便进行相似度计算。

from langchain.embeddings import HuggingFaceInstructEmbeddings
import torch

embedding_model = HuggingFaceInstructEmbeddings(
    model_name='hkunlp/instructor-base',
    model_kwargs={'device': torch.device('cuda' if torch.cuda.is_available() else 'cpu')}
)

5. 向量存储(Vector Stores)

        我们可以使用 FAISS 进行向量存储和检索。

from langchain.vectorstores import FAISS

vectordb = FAISS.from_documents(docs, embedding_model)
vectordb.save_local("./vectordb_path/ml-andrew-ng")

6. 检索器(Retrievers)

        检索器用于从存储的数据中提取最相关的片段。

retriever = vectordb.as_retriever(search_type="similarity")
query = "What is Linear Regression"
docs = retriever.get_relevant_documents(query)
print(docs)

7. 多查询检索(MultiQueryRetriever)

        LangChain 允许自动生成多个查询,以便获取更全面的检索结果。

from langchain.chat_models import ChatOpenAI
from langchain.retrievers.multi_query import MultiQueryRetriever

llm = ChatOpenAI(temperature=0)
retriever_from_llm = MultiQueryRetriever.from_llm(
    retriever=vectordb.as_retriever(), llm=llm
)
query = "What is the difference between Linear Regression and Logistic Regression?"
docs = retriever_from_llm.get_relevant_documents(query)
print(len(docs))

8. 向量存储缓存(Caching)

        缓存嵌入结果可以减少重复计算,提高检索效率。

from langchain.embeddings import CacheBackedEmbeddings
from langchain.storage import LocalFileStore

fs = LocalFileStore("./cache/")
cached_embedder = CacheBackedEmbeddings.from_bytes_store(
    embedding_model, fs, namespace=embedding_model.model_name
)

9. 结论

        在本篇博文中,我们介绍了 RAG 在自然语言处理中的应用,涵盖了文档加载、文本嵌入、向量存储和检索等核心组件。使用 LangChain,可以轻松构建一个高效的检索增强生成系统,以提升 LLM 的回答质量。


📌 参考链接

  • LangChain 文档加载

  • LangChain 向量存储

如果你觉得这篇博文对你有帮助,请点赞、收藏、关注我,并且可以打赏支持我!

欢迎关注我的后续博文,我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。

谢谢大家的支持!

http://www.dtcms.com/a/112042.html

相关文章:

  • Go语言-初学者日记(八):构建、部署与 Docker 化
  • 《操作系统真象还原》第五章(2)——启用内存分页机制
  • 蓝桥杯15届 宝石组合
  • 【HC-05蓝牙模块】基础AT指令测试
  • 思维链 Chain-of-Thought(COT)
  • 视野,,地面覆盖,重叠需求,FPS,飞行速度等的计算公式
  • LLM面试题五
  • JVM 有哪些垃圾回收器
  • 【2023】ORIGIN或MATLAB 颜色图,等高图,颜色条——需要拟合补全中间的颜色
  • 算法--最长上升子序列
  • 京东零售首次公开!6B参数时序大模型实现20000款商品自动补货预测
  • Java 搭建 MC 1.18.2 Forge 开发环境
  • 《探索边缘计算:重塑未来智能物联网的关键技术》
  • agent 入门
  • ARM-外部中断,ADC模数转换器
  • Vue3学习二
  • 【Node】一文掌握 Express 的详细用法(Express 备忘速查)
  • 【面试篇】Mysql
  • DHCP之中继 Relay-snooping及配置命令
  • Python_level1_字符串_11
  • 给项目中的用户头像,添加用户的历史头像记录功能
  • 深入理解SQL中的<>运算符:不等于的灵活运用
  • C++20的协程简介
  • 轨迹速度聚类 实战
  • 【C++代码整洁之道】第九章 设计模式和习惯用法
  • VSCode运行,各类操作缓慢,如何清理
  • anaconda3/conda依赖安装、环境配置、关联指定python版本
  • 性能测试之jmeter的基本使用
  • [C++面试] new、delete相关面试点
  • 从软件分层架构视角理解英语学习