当前位置: 首页 > news >正文

前沿分享|处理LLM幻觉问题-CoN|笔记链:增强检索增强语言模型的鲁棒性

检索增强语言模型(RALMs)在大型语言模型的能力方面取得了重大进步,特别是在减少事实幻觉方面,这得益于外部知识来源的利用。

然而,检索到的信息的可靠性并不总是有保证。

检索到无关数据可能导致误导性回答,甚至可能导致模型忽视其固有的知识,即使它拥有足够的信息来回答查询。

此外,标准 RALMs 往往难以评估它们是否拥有足够的知识,无论是内在的还是检索到的,以提供准确的答案。

在知识缺乏的情况下,这些系统应理想地以“未知”作为回答,当答案无法获得时。针对这些挑战,我们引入了-

链式笔记(CoN)

这是一种旨在提高 RALMs 在面对噪声、无关文档以及处理未知场景的鲁棒性的新颖方法。

CoN 的核心思想是为检索到的文档生成顺序阅读笔记,以便彻底评估其与给定问题的相关性,并将这些信息整合到最终答案中。

我们使用 ChatGPT 创建 CoN 的训练数据,该数据随后在 LLaMa-2 7B 模型上进行了训练。

我们在四个开放域问答基准上的实验表明,配备 CoN 的 RALMs 在标准 RALMs 上显著优于。

值得注意的是,CoN 在完全噪声检索文档的情况下,EM 分数平均提高了+7.9,对于超出预训练知识范围的实时问题,拒绝率提高了+10.5。

Link:

[2311.09210] Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models

相关文章:

  • 数据中台建设系列(一):数据中台的前世今生
  • Spring AI Alibaba ChatModel使用
  • debian12 安装docker服务
  • Java 方法执行原理底层解析
  • spss statistics 在mac上安装
  • 【leetcode hot 100 131】分割回文串
  • Docker 安装 Mysql
  • Ubuntu 20.04 安装并使用Cursor
  • go语言中的strings库
  • 蓝桥杯 R格式
  • Redis常见阻塞原因总结
  • 【JavaEE进阶】Linux搭建Java部署环境
  • 用Ollama部署大语言模型
  • ABAP隐藏F8执行按钮
  • Kafka是如何实现幂等性的??
  • redis安装
  • STM32__红外避障模块的使用
  • c++进阶之------红黑树
  • [特殊字符] 树莓派声卡驱动原理全解析:从模拟耳机口到HiFi DAC
  • 《鸿蒙原生应用开发:掌控Ability生命周期的艺术》
  • 这座古村,藏着多少赣韵风华
  • 2025年度上海市住房城乡建设管理委工程系列中级职称评审工作启动
  • 构建菌株有效降解有机污染物,上海交大科研成果登上《自然》
  • 4月金融数据前瞻:受去年低基数因素影响,社融增量有望同比大幅多增
  • 全球第七个迪士尼主题公园将落户阿布扎比
  • 观察|印巴交火开始升级,是否会升级为第四次印巴战争?