当前位置: 首页 > news >正文

压缩上下文以提升大语言模型的推理效率

摘要

大型语言模型(LLMs)在各种任务中取得了显著的性能。然而,它们在处理长文档和长对话时面临挑战,因为这会显著增加内存和推理时间上的计算需求,并且在输入超过LLM固定上下文长度时可能导致上下文截断。本文提出了一种称为 Selective Context 的方法,通过识别并裁剪输入上下文中的冗余信息,使输入更加紧凑,从而提升LLM的推理效率。我们在需要长上下文处理的常见数据源上测试了该方法,包括 arXiv 论文、新闻文章和长对话,任务涵盖摘要生成、问答和响应生成。实验结果表明,Selective Context 能显著减少内存开销并降低生成延迟,同时在性能上与使用完整上下文时相当。具体而言,我们在上下文开销上减少了50%,推理内存使用减少了36%,推理时间减少了32%,而在四个下游任务中,BERTscore 仅下降 0.023,faithfulness 仅下降 0.038,表明我们的方法在效率和性能之间达到了良好的平衡。代码与数据开源于:https://github.com/liyucheng09/Selective_Context。

1 引言

大型语言模型(LLMs)在广泛的自然语言处理任务以及实际应用中展现了强大的能力和出色的泛化能力(Brown et al., 2020; Touvron et al., 2023; Bubeck et al., 2023)。然而,现有LLMs在处理更长上下文时面临重大挑战。在如长对话、文档摘要、基于长文档的问答等场景中,处理长上下文是基础需求。然而,这在计算上代价极

http://www.dtcms.com/a/593883.html

相关文章:

  • DrawEduMath:评估视觉语言模型的教育领域新基准
  • 医院网站站群建设小程序商店怎么接入视频号
  • 编程课哪个培训机构好肇庆网页关键词优化
  • 外国网站做问卷调查挣钱网站建设对客户的优势
  • 移动通信网络建设-实验3:5G建设方案规划设计
  • 关于文艺网站建设政策展馆展厅设计方案
  • 网站 设计理念上海网站排名
  • 《算法通关指南:算法基础篇 --- 一维前缀和(1)—1. 【模板】前缀和,2.最大子段和》
  • 英文网站设计多少钱wordpress qux
  • 编程语言排行榜2025年11月
  • 现在网站开发的前端语言如何做百度推广
  • 多粒子模型--交通堵塞
  • wordpress快速仿站视频教程wordpress如何进数据库
  • 做的ASP网站手机石家庄seo扣费
  • 扫二维码进入个人的购物网站如何做软件外包公司绩效考核内容
  • iOS的事件响应链
  • iOS Widget 开发-9:可配置 Widget:使用 IntentConfiguration 实现参数选择
  • 教育网站报名网络推广100种方法免费
  • 班级网站设计论文网站制作与网站建设技术
  • 卓拙科技做网站吗网站建设期末论文
  • 【App开发】Android Studio 安装插件(比如通义灵码)
  • 在线生成个人网站注册建设通网站首页
  • 栖霞建设采购网站用wordpress插件推荐
  • 网站开发前后端语言2017主流网站开发语言
  • 数仓开发中口径发散如何治理?
  • SEO网站建设入驻程流网页游戏排行2020前十名
  • EasyGBS/EasyNVR高并发适配!PostgreSQL部署指南
  • 网站开发公司怎么选择动态交互网站建设
  • 杭州网站的建设企业管理软件的发展趋势
  • git如何回退到指定提交