当前位置: 首页 > news >正文

怎样加入好大夫网站做医生深圳市手机网站建设哪家好

怎样加入好大夫网站做医生,深圳市手机网站建设哪家好,微信电商怎样开店,男女上做床全播放网站查询执行流程完整的查询流程包含三个关键阶段:检索阶段(Retrieval) 从索引(Index)中查找并返回与查询最相关的文档。如先前在索引部分所述,最常用的检索方式是"top-k"语义检索,但实际…

查询执行流程

完整的查询流程包含三个关键阶段:

  1. 检索阶段(Retrieval) 从索引(Index)中查找并返回与查询最相关的文档。如先前在索引部分所述,最常用的检索方式是"top-k"语义检索,但实际还存在多种其他检索策略。

  2. 后处理阶段(Postprocessing) 对检索到的节点(Nodes)进行可选操作,包括:重新排序、格式转换或过滤(例如要求节点必须包含关键词等特定元数据)。

  3. 响应合成阶段(Response Synthesis) 将用户查询语句、检索到的最相关数据以及提示模板组合后,发送给大语言模型(LLM)生成最终响应。

自定义查询

LlamaIndex 提供了一套底层组合式API,可实现对查询流程的精细化控制。

在这个示例中,我们自定义了检索器,使用不同的 top_k 数值,并添加了一个后处理步骤,要求检索到的节点必须达到最低相似度分数才能被包含在内。这样可以在有相关结果时为您提供大量数据,但如果没有任何相关内容,也可能导致没有数据返回。

from llama_index.core import Settings, SimpleDirectoryReader, VectorStoreIndex, get_response_synthesizer
from llama_index.core.indices.vector_store import VectorIndexRetriever
from llama_index.core.postprocessor import SimilarityPostprocessor
from llama_index.core.query_engine import RetrieverQueryEnginefrom my_llms.dash_scope_client import DashScopeClientSettings.llm = DashScopeClient.get_llm()
Settings.embed_model = DashScopeClient.get_embedder()documents = SimpleDirectoryReader(input_dir="../data/本草纲目").load_data()index = VectorStoreIndex.from_documents(documents)# 配置检索器
retriever = VectorIndexRetriever(index=index,similarity_top_k=10,
)# 配置响应合成器
response_synthesizer = get_response_synthesizer()# 组装查询引擎
query_engine = RetrieverQueryEngine(retriever=retriever,response_synthesizer=response_synthesizer,node_postprocessors=[SimilarityPostprocessor(similarity_cutoff=0.6)],
)response = query_engine.query("蒲公英有什么作用?")print(response)print("\n支持依据:")# print(response.source_nodes)
for idx, node in enumerate(response.source_nodes, 1):meta = node.metadataprint("-------------------------------------------")print(f"来源文件:{meta['file_path']}")print(f"来源文件名:{meta['file_name']}")print(f"文件内容:{node.text[:100]}...")print(f"相关度得分:{node.score:.4f}")print("\n")

让我们进一步详细说明如何自定义每个步骤:

配置检索器(Retriever)

retriever = VectorIndexRetriever(index=index,similarity_top_k=10,
)

配置节点后处理器(Node Postprocessors)

我们支持高级节点过滤与增强功能,可显著提升检索节点(Node)的相关性。该功能能有效减少大语言模型(LLM)的调用次数/时间成本,或直接提升响应质量。

例如:

关键词节点后处理器(KeywordNodePostprocessor):通过required_keywords(必需关键词)和exclude_keywords(排除关键词)过滤节点。

相似度后处理器(SimilarityPostprocessor):通过设置相似度分数阈值来过滤节点(仅支持基于嵌入向量的检索器)。

前后节点后处理器(PrevNextNodePostprocessor):根据节点关系为检索到的Node对象添加额外的相关上下文信息。

要配置所需的节点后处理器,请按以下步骤操作:

node_postprocessors = [KeywordNodePostprocessor(required_keywords=["Combinator"], exclude_keywords=["Italy"])
]
query_engine = RetrieverQueryEngine.from_args(retriever, node_postprocessors=node_postprocessors
)
response = query_engine.query("What did the author do growing up?")

响应合成配置说明

在检索器获取相关节点后,BaseSynthesizer(基础合成器)会通过整合这些信息来生成最终的响应。

你可以通过以下方式对其进行配置:

query_engine = RetrieverQueryEngine.from_args(retriever, response_mode=response_mode
)

目前我们支持以下选项:

  • default(默认):通过依次遍历每个检索到的 Node 来“逐条创建并优化”答案;每次对一个 Node 进行一次 LLM 调用。适合生成更详细的回答。

  • compact(紧凑):在每次 LLM 调用中将尽可能多的 Node 文本块“压缩”进提示词中,前提是不超过最大提示长度。如果有太多文本块无法放入单个提示词中,则会通过多个提示词来“创建并优化”答案。

  • tree_summarize(树形总结):给定一组 Node 对象和查询语句,递归地构建一棵树,并将根节点作为响应返回。适用于摘要类任务。

  • no_text(无文本):仅运行检索器以获取那些本应发送给 LLM 的节点,但并不实际调用 LLM。可以通过检查 response.source_nodes 来查看这些节点。Response 对象将在第5节中详细介绍。

  • accumulate(累加):给定一组 Node 对象和查询语句,对每个文本块分别执行查询并将结果累积成一个数组,最后返回所有结果拼接成的字符串。适用于需要对每个文本块单独执行相同查询的场景

http://www.dtcms.com/a/480656.html

相关文章:

  • 网站开发过程模型google adsense wordpress 插件
  • 电子商务网站的全面建设品牌建设规划方案
  • 湘潭网站建设公司有哪些用手机怎么打开电脑版的智慧团建
  • 企业网站包含的内容长春关键词排名推广
  • 视频类网站备案网站运营策划书范文
  • wordpress开发的网站网络公司手机网站
  • 企业建设网站公司seo综合查询使用vsping工具
  • 精准营销公司宁波seo排名公司
  • 焦作建设网站昆山建设招标信息网站
  • wordpress修改页尾seo优化的常用手法
  • 网站空间模板做网站的集团
  • 网站建设规划方案书行业门户网站有什么作用
  • 对网站建设安全性的要求网站维护的方法
  • 一般网站服务费怎么入账做分录网站视频播放器用什么做的
  • 一流的高密做网站的玉溪网站建设现状
  • 网站代备案需要多少钱如何建设移动端网站
  • 关于集团官方网站内容建设的报告做网站标准步骤
  • 吕梁市网站建设公司电话营销话术
  • 网站开发可能性分析手机网站设计技巧
  • 旅游网站策划书html简单网站成品免费
  • 买了虚拟主机怎么做网站python编程软件推荐
  • 重庆网站建设运营美的技术网站
  • 全网vip影视自助建站系统做游戏网站公司
  • 建一个个人网站一年多少钱大学网站html模板下载
  • 网站app开发价格深圳结构设计
  • 东莞网站公司排名比较好的h5网站
  • 学技能的免费网站漳州 网站建设公司
  • 哪些做园林的网站网站建设 安庆
  • 网站logo手机网站排版
  • 建设银行租房网站6手机排行榜2024前十名最新