论文解读: 2023-Lost in the Middle: How Language Models Use Long Contexts
大模型使用的关键在于Prompt,然而大模型存在幻觉现象,如何减少这种现象的发生成为迫切解决的问题。外部知识库+LLM的方法可以缓解大模型幻觉,但是如何撰写Prompt才能发挥LLM的性能。下面介绍这篇论文说明上下文信息出现在Prompt什么位置使模型表现最佳,以及上下文文本长度对LLM性能的影响。
Title: Lost in the Middle How Language Models Use Long Contexts
URL: arxiv.org/pdf/2307.0...
Code: github.com/nelson-li...
1. Motivate
最近的语言模型能够将长上下文作为输入,然而人们对语言模型在多大程度上支持长上下文还了解不多。因此本文针对从输入上下文中识别相关信息的任务:多文档问题解答和键值检索,对语言模型的性能进行了分析。
2. Experiment
2.1 多文档问答
2.1.1 目的
探索输入上下文长度和相关信息在输入上下文的位置对LLM输出影响。
2.1.2 模型
-
claude-1.3
-
claude-1.3-100k