当前位置: 首页 > news >正文

随记1-LLM多轮对话的陷阱

今天工作偶然看到一篇微软的文章《LLMs Get Lost In Multi-Turn Conversation》觉得蛮有意思的,遂分享一下感悟。这篇文章主要讲的是,为什么许多大语言模型(LLMs)在测评的各种任务各种benchmark中表现优异,但是在面对用户的实际交流中(主要指多轮对话的形式),效果不尽人意。

这个原因呢,是因为目前的评估大多集中在明确完整的单轮对话,即在一次性的prompt中就详细确定地把任务描述完成;然而在实际使用中,用户通常需要多轮沟通才能明确需求(一部分是因为大语言模型的效果差,需要根据输出调整措辞,一部分是用户本身就需要慢慢理清楚脉络)。因此在两种对话模式的gap中,模型的效果就产生了dif。

当然这里插一句,为什么多轮对话的效果就一定差呢?有几个原因:1.LLM在前几轮的对话中(可能用户还在挤牙膏式表达完整需求)联想自行幻觉补充了一些信息,因此在输出时产生了幻觉(过早给出完整答案),质量也就变差了。2. 多轮对话的底层逻辑,是把前面对话的上下文全都输入给模型作为新的prompt,这样就导致之前的输出也输入了,放大了输出的噪声,并且增加了token长度,弱化了问题权重。

那么,这个现象的启示是什么呢?

  • 对于模型开发者:建议不仅优化单轮对话能力,更要重视多轮对话中的可靠性,模型应具备更好地整合多轮信息、适时发起澄清、避免过早假设的能力。即在训练和评估中增加对多轮欠规格对话能力的关注,研发更具鲁棒性和可靠性的对话模型。
  • 对于用户:提醒用户尽量在单个对话(prompt)中准确表达需求,或多用重启新对话的策略,避免持续局部纠正导致模型表现退化。

最后,感兴趣的可以看下原文:https://arxiv.org/pdf/2505.06120 感觉还是挺有意思的一篇文章。

相关文章:

  • LTX-Videov本地部署教程:时空扩散+多尺度渲染,重塑AI视频研究范式
  • 至此(day1-day4)代码详解(ai辅助整理)
  • Python代码加密与发布方案详解
  • 计算机图形学Games101笔记--几何
  • leetcode字符串篇【公共前缀】:14-最长公共前缀
  • NebulaGraph学习笔记-SessionPool之Session not existed
  • 常见高速电路设计与信号完整性核心概念
  • SVA 断言16.9 Sequence operations序列运算翻译笔记(12)
  • 香港科技大学(广州)智能制造理学硕士招生宣讲会——深圳大学专场
  • Nextjs App Router 开发指南
  • leetcode 找到字符串中所有字母异位词 java
  • 百度网盘加速补丁v7.14.1.6使用指南|PC不限速下载实操教程
  • 你知道mysql的索引下推么?
  • Doris高性能读能力与实时性实现原理
  • 【优秀三方库研读】在 quill 开源库中 QUILL_MAGIC_SEPARATOR 的作用是什么,解决了什么问题
  • 【Java】封装在 Java 中是怎样实现的?
  • 基于springboot的网上学校超市商城系统【附源码】
  • [Vue]组件介绍和父子组件间传值
  • 广东省省考备考(第十五天5.20)—言语(第六节课)
  • MySQL基础关键_014_MySQL 练习题
  • “共栖与绵延”系列对话|张国捷、刘帅:以蚁为序的生命网络
  • 新华时评:网络平台“开盲盒式”扣费,“钱小”事大
  • 失智老人有两个儿子却欠费住养老院两年多,法检合力指定监护人
  • 围绕“工程智能”系统布局,同济大学官宣成立五大研究院
  • 上海电视节发布海报、宣传片:三十而励,光影新程
  • 海口警方通报“司机驾车拖行虐猫”:系意外,未发现故意虐猫行为