当前位置: 首页 > news >正文

AI大模型学习(三): LangChain(二)

Langchain构建聊天机器人

安装依赖

pip install langchain_community

Chat History:它允许聊天机器人"记住"过去的互动,并在回应后续问题时考虑他们

代码

# 创建模型
from langchain_core.messages import HumanMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.runnables import RunnableWithMessageHistory
from langchain_openai import ChatOpenAI
from langchain_community.chat_message_histories import ChatMessageHistory
import os
key = ''
os.environ["OPENAI_API_KEY"] = key
model = ChatOpenAI(model='gpt-4')

# 定义提示模版
prompt_template = ChatPromptTemplate.from_messages(
    [('system', '你是一个乐于助人的助手,用{language}尽你所能回答问题'),
     MessagesPlaceholder(variable_name='my_mes')]  # 没有这个每次会话就会变成单独的
)

# 得到链
chain = prompt_template | model

# 保存聊天的历史记录
store = {}  # 所有用户的聊天记录都保存到store key:session_id,value:聊天记录


# 从聊天记录中获取当前用户的聊天内容
def get_session_history(session_id):
    if session_id not in store:
        store[session_id] = ChatMessageHistory()
    else:
        return store[session_id]


do_message = RunnableWithMessageHistory(
    chain,
    get_session_history,
    input_messages_key='my_mes'  # 每次聊天时候发送消息得key
)
config = {'configurable': {'session_id': "xxx"}}  # 给当前会话定义session_id
# 第一轮聊天,发送的信息
response = do_message.invoke(
    {
        'key': [HumanMessage(content='你好,我是XXX')],
        'language': '中文'
    },
    config=config
)
# 第一轮结果
print(response.content)

# 第二轮
response = do_message.invoke(
    {
        'key': [HumanMessage(content='请问我的名字是什么')],
        'language': '中文'
    },
    config=config
)
print(response.content)

 流式返回

# 创建模型
from langchain_core.messages import HumanMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.runnables import RunnableWithMessageHistory
from langchain_openai import ChatOpenAI
from langchain_community.chat_message_histories import ChatMessageHistory

import os
key = ''
os.environ["OPENAI_API_KEY"] = key
model = ChatOpenAI(model='gpt-4')

# 定义提示模版
prompt_template = ChatPromptTemplate.from_messages(
    [('system', '你是一个乐于助人的助手,用{language}尽你所能回答问题'),
     MessagesPlaceholder(variable_name='my_mes')]  # 没有这个每次会话就会变成单独的
)

# 得到链
chain = prompt_template | model

# 保存聊天的历史记录
store = {}  # 所有用户的聊天记录都保存到store key:session_id,value:聊天记录


# 从聊天记录中获取当前用户的聊天内容
def get_session_history(session_id):
    if session_id not in store:
        store[session_id] = ChatMessageHistory()
    else:
        return store[session_id]


do_message = RunnableWithMessageHistory(
    chain,
    get_session_history,
    input_messages_key='my_mes'  # 每次聊天时候发送消息得key
)
config = {'configurable': {'session_id': "xxx"}}  # 给当前会话定义session_id
# 第一轮聊天,发送的信息
response = do_message.stream(
    {
        'key': [HumanMessage(content='你好,我是XXX')],
        'language': '中文'
    },
    config=config
)
# 第一轮结果,使用stream 就是流式输出,就是要一个生成器,我们可以通过for循环取值或者next取值
for res in response:
    # 每一次res 都是一个token
    print(res.content)

# 第二轮
response = do_message.stream(
    {
        'key': [HumanMessage(content='请问我的名字是什么')],
        'language': '中文'
    },
    config=config
)
for res in response:
    print(res.content)

Langchain构建向量数据库和检索器

支持从向量数据库和其他来源检索数据,以便与LLM工作流程集成,她们对于应用程序来说非常重要,这些应用程序需要获取数据以作为模型推理的一部分进行推理

安装

pip install langchain-chroma   langchain内置的一个向量数据库

构建向量空间

from langchain_chroma import Chroma
from langchain_core.documents import Document
from langchain_core.runnables import RunnableLambda
from langchain_openai import OpenAIEmbeddings
from langchain_openai import ChatOpenAI
import os
key = ''
os.environ["OPENAI_API_KEY"] = key
model = ChatOpenAI(model='gpt-4')
# 测试数据,假设文档数据如下
documents = [
    Document(
        page_content='狗是伟大的伴侣,以其忠诚和友好而闻名',  # 文本内容
        metadata={'source': '哺乳动物宠物文档'}  # 文档摘要/作者/来源
    ),
    Document(
        page_content='猫是独立的宠物,通常喜欢自己的空间',
        metadata={'source': '哺乳动物宠物文档'}
    )
]

# 向量化,存储向量数据库
"""
 def from_documents(
        cls: Type[Chroma],
        documents: List[Document],
        embedding: Optional[Embeddings] = None,
        ids: Optional[List[str]] = None,
        collection_name: str = _LANGCHAIN_DEFAULT_COLLECTION_NAME,
        persist_directory: Optional[str] = None,
        client_settings: Optional[chromadb.config.Settings] = None,
        client: Optional[chromadb.ClientAPI] = None,  # Add this line
        collection_metadata: Optional[Dict] = None,
        **kwargs: Any,
    ) -> Chroma:
"""
vector_store = Chroma.from_documents(documents, embedding=OpenAIEmbeddings())
# 相似度查询:返回相似的分数:分数越低相似度越高
# 不看分值直接调用similarity_search
print(vector_store.similarity_search_with_score('咖啡猫'))

# 检索器 k=1 返回相似度最高的第一个
retriever = RunnableLambda(vector_store.similarity_search).bind(k=1)

print(retriever.batch(['咖啡猫']))

结合大模型

from langchain_chroma import Chroma
from langchain_core.documents import Document
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnableLambda, RunnablePassthrough
from langchain_openai import OpenAIEmbeddings
from langchain_openai import ChatOpenAI

"""
Chroma:用于创建和管理向量数据库。
Document:用于表示文档对象,包含文本内容和元数据。
ChatPromptTemplate:用于定义聊天提示模板。
RunnableLambda 和 RunnablePassthrough:用于构建可运行的组件。
OpenAIEmbeddings:用于将文本转换为向量表示。
ChatOpenAI:用于调用 OpenAI 的聊天模型
"""
import os

key = ''
os.environ["OPENAI_API_KEY"] = key
model = ChatOpenAI(model='gpt-4')
# 测试数据,假设文档数据如下
documents = [
    Document(
        page_content='狗是伟大的伴侣,以其忠诚和友好而闻名',  # 文本内容
        metadata={'source': '哺乳动物宠物文档'}  # 文档摘要/作者/来源
    ),
    Document(
        page_content='猫是独立的宠物,通常喜欢自己的空间',
        metadata={'source': '哺乳动物宠物文档'}
    )
]

# 向量化,存储向量数据库
"""
OPENAI_API_KEY
 def from_documents(
        cls: Type[Chroma],
        documents: List[Document],
        embedding: Optional[Embeddings] = None,
        ids: Optional[List[str]] = None,
        collection_name: str = _LANGCHAIN_DEFAULT_COLLECTION_NAME,
        persist_directory: Optional[str] = None,
        client_settings: Optional[chromadb.config.Settings] = None,
        client: Optional[chromadb.ClientAPI] = None,  # Add this line
        collection_metadata: Optional[Dict] = None,
        **kwargs: Any,
    ) -> Chroma:
"""
vector_store = Chroma.from_documents(documents, embedding=OpenAIEmbeddings())
"""
使用 OpenAIEmbeddings 将文档文本转换为向量表示。
使用 Chroma.from_documents 方法将文档及其向量表示存储到 Chroma 向量数据库中
"""
# 相似度查询:返回相似的分数:分数越低相似度越高
# 不看分值直接调用similarity_search
# print(vector_store.similarity_search_with_score('咖啡猫'))

# 检索器 bind(k=1) 表示在调用 similarity_search 时,只返回相似度最高的一个文档
retriever = RunnableLambda(vector_store.similarity_search).bind(k=1)

# 提示模版
message = """
使用提供的上下文仅回答这个问题:{question}
上下文{context}
"""
prompt_template = ChatPromptTemplate.from_messages(
    [('human', message)]
)
# RunnablePassthrough允许我们将用户的问题之后传递给prompt和model
chain = {'question': RunnablePassthrough(), 'context': retriever} | prompt_template | model
"""
RunnablePassthrough() 用于直接传递用户的问题。
{'question': RunnablePassthrough(), 'context': retriever} 表示将用户的问题直接传递给 question 键,同时通过 retriever 检索与问题相关的上下文,并将其传递给 context 键。
| 操作符用于将多个可运行的组件连接起来,形成一个链式调用。
最终的 chain 表示先将用户的问题和检索到的上下文传递给提示模板,然后将填充好的提示传递给 OpenAI 模型进行推理
"""
result = chain.invoke('请介绍一下猫')
print(result)
print(result.content)
"""
print(result):content='猫是一种独立的宠物,它们通常喜欢有自己的空间。' additional_kwargs={'refusal': None} response_metadata={'token_usage': {'completion_tokens': 33, 'prompt_tokens': 113, 'total_tokens': 146, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4-0613', 'system_fingerprint': None, 'finish_reason': 'stop', 'logprobs': None} id='run-09fe2406-aca6-49df-aebc-289784e3c164-0' usage_metadata={'input_tokens': 113, 'output_tokens': 33, 'total_tokens': 146, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}}
print(result.content):猫是一种独立的宠物,它们通常喜欢有自己的空间。
"""
# 下面是流式输出
result = chain.stream('请介绍一下猫')
for i in result:
    print(i.content,end='')

相关文章:

  • 在Django中安装、配置、使用CKEditor5,并将CKEditor5录入的文章展现出来,实现一个简单博客网站的功能
  • java开发工程师面试技巧
  • M系列 Mac如何安装CentOS7虚拟机(附安装包下载链接)
  • AI汽车新风向:「死磕」AI底盘,引爆线控底盘新增长拐点
  • 热管理系统:新能源汽车的 “温度管家”
  • 黑马点评_商品信息缓存模块
  • 使用vue-office报错TypeError: ft.createElementVNode is not a function
  • CSS 盒子模型:网页布局的基石
  • win11系统无法打开软件_组策略无法打开_gpedit.msc不生效_为了对电脑进行保护,已经阻止此应用---Windows工作笔记057
  • 七层模型、局域网与网络技术(高软26)
  • 谈谈 ES 6.8 到 7.10 的功能变迁(1)- 性能优化篇
  • 深度学习驱动的车牌识别:技术演进与未来挑战
  • Nginx Embedded Variables 嵌入式变量解析(2)
  • JavaWeb
  • iOS开发 网络安全
  • 简单封装一个websocket构造函数
  • python-leetcode-回文链表
  • VSCode - VSCode 切换自动换行
  • 一文掌握DeepSeek本地部署+Page Assist浏览器插件+C#接口调用+局域网访问!全攻略来了!
  • SpringBoot 如何统一 API 响应格式
  • 世界羽联主席巴达玛:中国组织赛事的能力无与伦比
  • 经济日报:以人工智能激活产业新增长
  • 五一假期,新任杭州市委书记刘非到嘉兴南湖瞻仰红船
  • 跳水世界杯总决赛陈佳获得女子3米板冠军,陈艺文获得亚军
  • 美妙的下午
  • 德国巴斯夫:关税政策加剧全球市场不确定性,间接影响已显现