当前位置: 首页 > wzjs >正文

机械模板网站灌南县城乡建设局网站

机械模板网站,灌南县城乡建设局网站,北京市城乡建设部网站首页,用自己的照片做头像的网站一、背景 RAG 应用开发主要基于成熟的 LlamaIndex或LangChain 框架,虽然这能够在很大程度上提高开发效率,但由于框架的高度抽象与封装,隐藏了大量应用运行时的底层细节,因此有时候会给排除故障与调优带来不便。比如,在…

一、背景

RAG 应用开发主要基于成熟的 LlamaIndex或LangChain 框架,虽然这能够在很大程度上提高开发效率,但由于框架的高度抽象与封装,隐藏了大量应用运行时的底层细节,因此有时候会给排除故障与调优带来不便。比如,在很多时候,我们需要直接观察大模型的真实输入信息和输出信息,以便了解检索的精确性或者大模型的输出能力。这些都需要有简单易用的框架内部跟踪机制。借助 LlamaIndex 框架内部的机制及一些集成的第三方平台,可以很方便地做到这些。
随着大模型应用不断涌现,很多帮助RAG、Agent等应用实现生产就绪的工程化平台出现了,主要用于对大模型应用进行 跟踪、调试、测试、评估、管理数据集等。比如,LangChain 公司推出的 LangSmith 服务平台。主流的大模型应用开发框架 LlamaIndex 也得到了大量第三方工程化平台的支持。下面介绍其中一个常见的平台——Langfuse 的使用。

二. 什么是 Langfuse?🌱

Langfuse 是一个开源的 LLM 工程平台,其核心目标是为大型语言模型驱动的应用提供:

  • 全链路可观测性(Observability):捕获每一次 LLM 调用的输入、输出、中间步骤、上下文、延迟和费用等信息;

  • 提示管理与版本控制:集中管理 prompts,支持协作、版本对比、快速迭代;

  • 评测与数据集管理:支持“模型自评”、“人工打标签”、“用户反馈”及 A/B 测试,形成结构化评测数据集 ;

  • 性能监控指标:实时追踪成本、延迟、准确率、反馈 等关键指标;

  • 集成 Playground:在 UI 中直接测试和调试 prompts 和模型配置。

这些功能形成闭环,支持从开发调试到生产优化的完整 LLM 生命周期管理。

主要集成:

集成支持语言/平台描述
SDKPython, JS/TS使用 SDK 进行手动仪表化,实现全面灵活性。
OpenAIPython, JS/TS通过直接替换 OpenAI SDK 实现自动仪表化。
LangchainPython, JS/TS通过传入回调处理器至 Langchain 应用实现自动仪表化。
LlamaIndexPython通过 LlamaIndex 回调系统实现自动仪表化。
HaystackPython通过 Haystack 内容追踪系统实现自动仪表化。
LiteLLMPython, JS/TS (仅代理)允许使用任何 LLM 替代 GPT。支持 Azure、OpenAI、Cohere、Anthropic、Ollama、VLLM、Sagemaker、HuggingFace、Replicate(100+ LLMs)。
Vercel AI SDKJS/TS基于 TypeScript 的工具包,帮助开发者使用 React、Next.js、Vue、Svelte 和 Node.js 构建 AI 驱动的应用。
API直接调用公共 API。提供 OpenAPI 规格。

三、Langfuse核心特性✨

  • LLM 应用可观察性:为你的应用插入仪表代码,并开始将追踪数据传送到 Langfuse,从而追踪 LLM 调用及应用中其他相关逻辑(如检索、嵌入或代理操作)。检查并调试复杂日志及用户会话。试试互动的 演示 看看效果。

  • 提示管理 帮助你集中管理、版本控制并协作迭代提示。得益于服务器和客户端的高效缓存,你可以在不增加延迟的情况下反复迭代提示。

  • 评估 是 LLM 应用开发流程的关键组成部分,Langfuse 能够满足你的多样需求。它支持 LLM 作为“裁判”、用户反馈收集、手动标注以及通过 API/SDK 实现自定义评估流程。

  • 数据集 为评估你的 LLM 应用提供测试集和基准。它们支持持续改进、部署前测试、结构化实验、灵活评估,并能与 LangChain、LlamaIndex 等框架无缝整合。

  • LLM 试玩平台 是用于测试和迭代提示及模型配置的工具,缩短反馈周期,加速开发。当你在追踪中发现异常结果时,可以直接跳转至试玩平台进行调整。

  • 综合 API:Langfuse 常用于驱动定制化的 LLMOps 工作流程,同时利用 Langfuse 提供的构建模块和 API。我们提供 OpenAPI 规格、Postman 集合以及针对 Python 和 JS/TS 的类型化 SDK。

四. 安装与使用方式

Langfuse 提供两种部署形式:

  • 自托管(Self-hosted)

    • 可在本地通过 Docker Compose 快速部署(几分钟内可启动);

    • 或通过 Helm 部署到 Kubernetes,支持云端环境(AWS/Azure/GCP);

  • Langfuse Cloud:由官方托管的 SaaS 平台,提供免费试用和付费计划 。

支持的语言有 Python、JS/TS,还有 Java 客户端 ;可与 OpenAI SDK、LangChain、LlamaIndex、Haystack 等常用 LLM 框架集成。

1、安装Langfuse

接下来我们使用本地Ubuntu系统来安装Langfuse 。

# 获取最新的 Langfuse 仓库副本
git clone https://github.com/langfuse/langfuse.git
cd langfuse# 运行 Langfuse 的 docker compose
docker compose up

等待几分钟,成功后可以在浏览器里访问,端口号默认3000 。第一次打开网址,需要自己注册个账号,登录进入。

2、后台使用

(1)先创建一个组织Organization;

(2)再在该组织下创建项目Project,创建完后请记住公钥和私钥(记不住也没关系,可以删除重建)。

五、代码接入

以LlamaIndex实现的RAG代码为例。

pip install langfuse

配置环境变量(创建名为 .env 的文件):

LANGFUSE_SECRET_KEY="sk-lf-..."
LANGFUSE_PUBLIC_KEY="pk-lf-..."
LANGFUSE_HOST="http://192.168.234.128:3000"

初始化 Langfuse 客户端。get_client() 使用环境变量中提供的凭证初始化 Langfuse 客户端。

from langfuse import get_clientlangfuse = get_client()# Verify connection
if langfuse.auth_check():print("Langfuse client is authenticated and ready!")
else:print("Authentication failed. Please check your credentials and host.")

再初始化 OpenInference LlamaIndex 插桩 。此第三方检测会自动捕获 LlamaIndex 作并将 OpenTelemetry (OTel) 跨度导出到 Langfuse。

from openinference.instrumentation.llama_index import LlamaIndexInstrumentor# Initialize LlamaIndex instrumentation
LlamaIndexInstrumentor().instrument()

现在,您可以在 Langfuse 中查看 LlamaIndex 应用程序的日志。

完整的示例代码如下:

'''
引用查询引擎,测试Langfuse接入
'''''
from llama_index.core import VectorStoreIndex, Settings, SimpleDirectoryReader
from llama_index.llms.openai_like import OpenAILike
from llama_index.core.node_parser import SentenceSplitter
from llama_index.embeddings.openai_like import OpenAILikeEmbedding
import os
from dotenv import load_dotenv
load_dotenv()# ================== 初始化Langfuse ==================
from openinference.instrumentation.llama_index import LlamaIndexInstrumentor
from langfuse import get_client
langfuse = get_client()# Verify connection
if langfuse.auth_check():print("Langfuse client is authenticated and ready!")
else:print("Authentication failed. Please check your credentials and host.")
LlamaIndexInstrumentor().instrument()# ================== 初始化模型 ==================
def init_models():"""初始化模型并验证"""# Embedding模型embed_model = OpenAILikeEmbedding(model_name="BAAI/bge-m3",api_base="https://api.siliconflow.cn/v1",api_key="sk-xxx",embed_batch_size=10,)llm = OpenAILike(model="deepseek-ai/DeepSeek-V3",api_base="https://api.siliconflow.cn/v1",api_key="sk-xxx",context_window=128000,is_chat_model=True,is_function_calling_model=False,)Settings.embed_model = embed_modelSettings.llm = llm# 验证模型test_embedding = embed_model.get_text_embedding("测试文本")print(f"Embedding维度验证:{len(test_embedding)}")return embed_model, llminit_models()# load documents, split into chunks
documents = SimpleDirectoryReader(r"D:\aiyouyou\test\data2", required_exts=[".txt"]).load_data()
# 2. 文档切分为 chunk,添加 chunk_id
sentence_splitter = SentenceSplitter(chunk_size=400,chunk_overlap=100,separator="。!?!?.\n¡¿",  # 适配中文,英语,西班牙语三种语言的分隔符)# 3. 分割文档
nodes = sentence_splitter.get_nodes_from_documents(documents)index = VectorStoreIndex(nodes)from llama_index.core.query_engine import CitationQueryEngine# query_engine = index.as_query_engine(similarity_top_k=2,
#                                      text_qa_template=response_template,
#                                      )query_engine = CitationQueryEngine.from_args(index,similarity_top_k=3,# here we can control how granular citation sources are, the default is 512citation_chunk_size=512,
)res = query_engine.query("小悠悠是谁?")
print(res.response)              # LLM 输出回答
print("------来源---------------")
for node in res.source_nodes:print("相关片段:", node.text)print("片段分数:", node.score)print("片段元数据:", node.metadata)#print(f"node.metadata:{node.metadata}")print("="*40)

六、总结与未来展望

Langfuse 是目前市场上最成熟的 LLMOps 平台之一,在可观测性、调试、评测、成本控制和协作管理上提供完整解决方案。其开源、本地部署友好和合规性强的特点,使其在注重数据隐私和内部控制的企业中颇受欢迎。

如果你或你的团队正在开发或运营 LLM 驱动的应用,尤其涉及RAG检索增强、多链路 Agent、用户交互等复杂场景,Langfuse 无疑能提升开发效率与运行可信度。

相关网址

github地址:

https://github.com/langfuse/langfuse/blob/main/README.cn.md

官网:https://langfuse.com/docs

llamaindex介绍:

https://docs.llamaindex.ai/en/stable/module_guides/observability/#langfuse


文章转载自:

http://Z406Ysis.cnkrd.cn
http://q3lSIN9n.cnkrd.cn
http://SPApYpF0.cnkrd.cn
http://3U9IJJPM.cnkrd.cn
http://fLWgP3aA.cnkrd.cn
http://4mx3QdNI.cnkrd.cn
http://h6ZzEhR9.cnkrd.cn
http://ldf7ElDC.cnkrd.cn
http://egiBnv6X.cnkrd.cn
http://k3jsJT26.cnkrd.cn
http://JL3IlMNz.cnkrd.cn
http://uq0QoH9L.cnkrd.cn
http://6SI85VPX.cnkrd.cn
http://dtGTBkBB.cnkrd.cn
http://uKUUn5MY.cnkrd.cn
http://RCxK9DbW.cnkrd.cn
http://xvRfR9di.cnkrd.cn
http://MbrBJwar.cnkrd.cn
http://J2GKqAuR.cnkrd.cn
http://BiAZiRiB.cnkrd.cn
http://KqYGA5hM.cnkrd.cn
http://k2fk8Hn1.cnkrd.cn
http://zGIeePKF.cnkrd.cn
http://E8tDbyiC.cnkrd.cn
http://FzFC9AUU.cnkrd.cn
http://MnBOrQKA.cnkrd.cn
http://zbC9h0ND.cnkrd.cn
http://eFrcZujy.cnkrd.cn
http://YAU7cDJV.cnkrd.cn
http://c3dXhiKE.cnkrd.cn
http://www.dtcms.com/wzjs/636257.html

相关文章:

  • 建站宝盒自助建站系统做智能网站软件下载
  • 转运网站开发网站开发项目责任分配矩阵
  • 苏州网站优化找哪家wordpress到底是什么
  • 百度 网站 说明红色企业网站模板
  • 建旅游网站多少钱泰州高端网站建设
  • 网站建设入门教程网络团队建设
  • 企业网站备案需要什么wordpress 显示多媒体
  • 新兴县建设局网站网站icp备案要多久
  • 百度收录效果好的网站传奇类网页游戏排行榜
  • 做网站的开发软件是什么wordpress做一个网站404引导
  • 58同城青岛网站建设安全舆情监测平台
  • 电商网站对比如何创建网页模板
  • 汇算清缴在哪个网站做Wordpress文章页面小工具
  • 顺义做网站的公司做网页和网站一样吗
  • 东莞著名网站建设企业广告设计方案
  • 网站ui升级怎么做wordpress 网络公司
  • 网站建设案例资讯品牌网站建设方案
  • 网站关键字分析曲周企业做网站推广
  • pc端兼手机端网站模板路桥建设网站
  • 网上如何建网站卖量具西宁网站建设哪家好
  • dz论坛做分类网站自助建站帮助网
  • 中山网站软件品牌营销咨询
  • 泰安集团网站建设网页设计个人总结800字
  • 做书app下载网站有哪些内容商城网站设计需要哪些技术
  • 游戏网站logo制作小程序开发平台好牌子推荐
  • 网站后台的搭建嘉兴首页
  • 怎么在网站上做下载做网站租用那个服务器好
  • 简述网站设计的原则泉州手机网站开发
  • 德阳网站开发熊掌号深圳网络运营推广公司
  • 网站开发人员职能职业技能培训学校