在RAG大模型中token怎么作为有效的数据,体现大模型能力的
在RAG大模型中token怎么作为有效的数据,体现大模型能力的
其实token并不能作为良好指标。
在实际RAG中你的token仅仅计算输入到输出token的叠加,调用LLM越多那么token的用量就会越多,你的额提示词越多那么输入token累加就会越多,模型计算时间就是越长。但是和结果相比还是准确率更重要。
这也是为什么现在的模型越来越大,我们可以用计算资源和时间换却准确率。
在检索增强生成(RAG)大模型里,Token作为有效数据能在多方面体现大模型的计算速度
输入处理阶段
- Token化速度:把输入文本转换为Token序列的速度是衡量计算速度的重要方面。快速的Token化能够让模型迅速开始处理输入。例如,在处理长文档时,如果Token化程序能高效工作,就能更快地将文本转化为模型可处理的Token形式。可以通过测试不同长度文本的Token化时间来评估这一速度。
- 输入Token长度与处理时间关系:一般而言,输入的Token数量越多,模型处理所需的时间就越长。可以通过构建不同Token长度的输入文本,记录模型处理每个输入所花费的时间,绘制Token长度与处理时间的关系曲线,以此了解模型在处理不同规模输入时的计算速度表现。