当前位置: 首页 > wzjs >正文

电影网站膜拜武威网站建设价格

电影网站膜拜,武威网站建设价格,萍乡做网站的,杭州利兴建设官方网站1. Callback 功能介绍 Callback 是 LangChain 提供的回调机制,允许我们在 LLM 应用程序的各个阶段使用 hook (钩子)。钩子的含义也非常简单,我们把应用程序看成一个一个的处理逻辑,从开始到结束,钩子就是在…

1. Callback 功能介绍

Callback 是 LangChain 提供的回调机制,允许我们在 LLM 应用程序的各个阶段使用 hook (钩子)。钩子的含义也非常简单,我们把应用程序看成一个一个的处理逻辑,从开始到结束,钩子就是在事件传送到终点前截获并监控事件的传输。
在这里插入图片描述

Callback 对于记录日志、监控、流式传输等任务非常有用,简单理解, Callback 就是记录整个流程的运行情况的一个组件,在每个关键的节点记录响应的信息以便跟踪整个应用的运行情况。
例如:

  1. 在 Agent 模块中调用了几次 tool,每次的返回值是什么?
  2. 在 LLM 模块的执行输出是什么样的,是否有报错?
  3. 在 OutputParser 模块的输出解析是什么样的,重试了几次?
    Callback 收集到的信息可以直接输出到控制台,也可以输出到文件,更可以输入到第三方应用,相当于独立的日志管理系统,通过这些日志就可以分析应用的运行情况,统计异常率,运行的瓶颈模块以便优化。在 LangChain 中,callback 模块中具体实现包括两大功能,对应 CallbackHandler 和CallbackManager 。
  4. CallbackHandler:对每个应用场景比如 Agent 或 Chain 或 Tool 的纪录。
  5. CallbackManager:对所有 CallbackHandler 的封装和管理,包括了单个场景的 Handle,也包括运行时整条链路的 Handle。不过在 LangChain 的底层,这些任务的执行逻辑由回调处理器( CallbackHandler )定义。
    CallbackHandler 里的各个钩子函数的触发时间如下:
    以下是 LangChain Callback 事件机制中常见的事件及其对应的触发时机和方法名称的完整表格,适用于实现自定义的 CallbackHandler

事件名称事件触发时机相关方法(Callback 方法名)
Chat Model Start当聊天模型(如 ChatOpenAI)开始执行时on_chat_model_start
LLM Start当大语言模型(如 OpenAI、Anthropic)开始执行时on_llm_start
LLM New Token当 LLM 生成新 token(流式输出)时on_llm_new_token
LLM End当 LLM 执行结束时on_llm_end
LLM Error当 LLM 执行出错时on_llm_error
Chain Start当整个链(Chain)开始运行时on_chain_start
Chain End当整个链运行结束时on_chain_end
Chain Error当链运行出错时on_chain_error
Tool Start当工具(Tool)开始执行时on_tool_start
Tool End当工具执行结束时on_tool_end
Tool Error当工具执行出错时on_tool_error
Agent Action当 Agent 执行某个动作(如调用工具)时on_agent_action
Agent Finish当 Agent 执行完毕(完成任务)时on_agent_finish
Retriever Start当 Retriever(检索器)开始工作时on_retriever_start
Retriever End当 Retriever 检索结束时on_retriever_end
Retriever Error当 Retriever 出错时on_retriever_error
Text任意文本输出事件(用于自定义链、Tool、Agent 的输出)on_text
Retry当某个组件(如 LLM、Tool)触发重试机制时on_retry

在 LangChain 中使用回调,使用 CallbackHandler 几种方式:

  1. 在运行 invoke 时传递对应的 config 信息配置 callbacks(推荐)。
  2. 在 Chain 上调用 with_config 函数,传递对应的 config 并配置 callbacks(推荐)。
  3. 在构建大语言模型时,传递 callbacks 参数(不推荐)。
    在 LangChain 中提供了两个最基础的 CallbackHandler,分别是: StdOutCallbackHandler 和
    FileCallbackHandler 。
    使用示例如下:
import dotenv
from langchain_core.callbacks import StdOutCallbackHandler
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI
dotenv.load_dotenv()
# 1.编排prompt
prompt = ChatPromptTemplate.from_template("{query}")
# 2.创建大语言模型
llm = ChatOpenAI(model="gpt-3.5-turbo-16k")
# 3.构建链
chain = {"query": RunnablePassthrough()} | prompt | llm | StrOutputParser()
# 4.调用链并执行
content = chain.stream( "你好,你是?", config={"callbacks": [StdOutCallbackHandler()]}
)
for chunk in content: pass

自定义回调

在 LangChain 中,想创建自定义回调处理器,只需继承 BaseCallbackHandler 并实现内部的部分接口即可,例如:

#!/usr/bin/env python
# -*- coding: utf-8 -*-import time
from typing import Dict, Any, List, Optional
from uuid import UUIDimport dotenv
from langchain_core.callbacks import StdOutCallbackHandler, BaseCallbackHandler
from langchain_core.messages import BaseMessage
from langchain_core.output_parsers import StrOutputParser
from langchain_core.outputs import LLMResult
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAIdotenv.load_dotenv()class LLMOpsCallbackHandler(BaseCallbackHandler):"""自定义LLMOps回调处理器"""start_at: float = 0def on_chat_model_start(self,serialized: Dict[str, Any],messages: List[List[BaseMessage]],*,run_id: UUID,parent_run_id: Optional[UUID] = None,tags: Optional[List[str]] = None,metadata: Optional[Dict[str, Any]] = None,**kwargs: Any,) -> Any:print("聊天模型开始执行了")print("serialized:", serialized)print("messages:", messages)self.start_at = time.time()def on_llm_end(self,response: LLMResult,*,run_id: UUID,parent_run_id: Optional[UUID] = None,**kwargs: Any,) -> Any:end_at: float = time.time()print("完整输出:", response)print("程序消耗:", end_at - self.start_at)# 1.编排prompt
prompt = ChatPromptTemplate.from_template("{query}")# 2.创建大语言模型
llm = ChatOpenAI(model="gpt-3.5-turbo-16k")# 3.构建链
chain = {"query": RunnablePassthrough()} | prompt | llm | StrOutputParser()# 4.调用链并执行
resp = chain.stream("你好,你是?",config={"callbacks": [StdOutCallbackHandler(), LLMOpsCallbackHandler()]}
)for chunk in resp:pass

文章转载自:

http://TC3RlJb7.pqppj.cn
http://byTmA92D.pqppj.cn
http://KOKMbiiF.pqppj.cn
http://tn3Hi8IU.pqppj.cn
http://fQIRIRt3.pqppj.cn
http://RqtspN3L.pqppj.cn
http://WTEjHQEb.pqppj.cn
http://lreiN4SR.pqppj.cn
http://YkpYNoCB.pqppj.cn
http://OKA8RRTc.pqppj.cn
http://wW6QbNo6.pqppj.cn
http://mNEFGOMH.pqppj.cn
http://FB2AnEgA.pqppj.cn
http://2ah0sHpi.pqppj.cn
http://gH0Eu3Ji.pqppj.cn
http://0AhBVGH8.pqppj.cn
http://iiSNhSn9.pqppj.cn
http://CDXzqeZa.pqppj.cn
http://3SdWFjXi.pqppj.cn
http://qEvC4UkE.pqppj.cn
http://gvuPJRqc.pqppj.cn
http://c9t7jZej.pqppj.cn
http://mz0KsKjZ.pqppj.cn
http://XpMke8VG.pqppj.cn
http://0Tg3MTyR.pqppj.cn
http://DIzrfYon.pqppj.cn
http://NXPi6b2E.pqppj.cn
http://eSq3oYcb.pqppj.cn
http://6pCqJJTm.pqppj.cn
http://qACUIdPy.pqppj.cn
http://www.dtcms.com/wzjs/652073.html

相关文章:

  • 区县12380网站建设情况郑州网站制作网页
  • wordpress_zh网站建设优化兰州
  • 怎么自己做网站游戏企业网站报价方案模板下载
  • 周口哪里做网站做网站如何导入信用卡付款
  • discuz网站开发做战袍网站
  • 企业建站套餐价格表汽车制造行业网站模板
  • 网站建设 全网推广wordpress的搭建
  • ps国外教程网站页面设计要会什么
  • 网站建设推广报价单wordpress模板带后台
  • 网站底部加备案号网站建设企划
  • 设计深圳网站制作注册公司流程和费用找哪家
  • 把网站做进微信公众号百度app下载官方免费最新版
  • 营销型网站建设区别做设计图的网站
  • 网站模板模仿网站建设用什么系统好
  • 网站优化方案模板做电子杂志用什么网站
  • 县门户网站建设方案汽车网址大全图片
  • 安康网站建设公司亿网互联
  • 怎么免费建设网站wordpress 4 安装教程
  • 积极推进网站建设网站开发需要学习哪些内容
  • 站点建立网站的方法网站开发流程详细步骤
  • 制作网站用什么代码在线网页传输文件
  • 建设网站 注册与登陆品牌建设费用包括哪些?
  • php商城网站开发网站如何验证登陆状态
  • 为什么网站显示正在建设杭州市富阳区建设局网站
  • 网站编程培训机构排名前十品牌建设最高境界
  • 网站建设后期服务协议2023年重启核酸
  • 百度推广和网站建设推广的区别信息网络工程师
  • 学而思的网站哪里做的来年做啥网站能致富
  • 鹤壁市城市建设投资有限公司网站电脑在局域网做网站
  • 四川住房和建设厅网站建设企业网站优势