知识库信息切片,AI降本增效的利刃
知识库信息切片,AI降本增效的利刃
为什么你的AI总答非所问,其实它可能没好好查资料,今天揭秘AI的RAG外挂知识库技术,里面藏着一个关键操作,叫信息切片技术。它到底是AI百利无害的惊喜,还是权衡利弊后的无奈,看完你就懂了
通过RAG技术我们可以为AI提供一个外挂的知识库,解决其自身缺少相应数据的问题,但是RAG的运转逻辑和很多人想象的不太一样,我们在将文档上传知识库后,通过AI进行提问时,以为AI会查找所有的文档作为信息源,再挑选合适的信息进行利用。但其实AI查找资料的方式很聪明,它会先把文档信息切成一小段一小段,再把每段文字变成一串独特的编码,就像给这段文字做了一个总结一样,提问时AI只挑选和问题关联度最高几个信息段来参考,这些信息段,就是我们说的信息切片,所以AI获取数据的方式是一开始就尽可能的获取与问题关联度高的信息片段进行分析,而不是将所有信息输入后再进行信息的筛选
为什么AI要采用这样的方式来利用知识库里的信息,而不是整个的将知识库信息导入AI作为数据源来使用呢,因为这样可以平衡收益与成本,在保证回答质量不大幅下降的前提下,最大可能的减少参与计算的信息量,从而减少计算资源消耗。通过对知识库的信息进行切片,可以带来几个好处,包括提升召回精度、降低计算成本、满足上下文限制
先说提升召回精度问题,什么是召回,比如我们要写一篇关于蜂蜜的分析报告,需要去图书馆借阅一些资料,而从图书馆中获取相关资料信息的过程,就称为召回。假如你在图书馆,为了获取蜂蜜相关资料,你是会通过查询找到蜂蜜相关的少量书籍进行借阅,还是把整个图书馆的书籍都借阅出来,很明显没有任何一个人会为了解决这一个问题把整个图书馆的书拿出来并看一遍,因为这样得到的资料的有效信息密度实在太低了,而通过提前查询相关的资料的方式,则可以精准获取到和蜂蜜相关的有效资料,大大提高了有效信息的密度
更重要的是,这招能帮忙省钱,输入AI的资料越多,AI就算得越多,电费和服务器成本就越高。切片-召回方式输入AI的数据量能减到原来的几百分之一,甚至几千分之一,算力成本直接砍到脚指头,这就是为什么现在企业都爱用它的原因,是切片技术的最大价值点
信息切片有这么大的好处,它有什么不好的地方吗,答案是当然有,哲学一点看,任何问题都存在一体两面,切片带来的问题是无法对长文本进行有效的整体理解,因为召回的数量是有限的。什么意思,基于当前的切片-召回模式,它不会将所有的信息进行读取分析,只会将部分与问题关联度高的信息片段进行召回分析,所以,一旦涉及到对整体的信息的分析,需要阅读整体信息时,比如西游记里唐僧一共喊了多少次,悟空救我,它就无法正确回答。因为它只会将部分和悟空救我有关的片段信息进行召回,然后统计,既然只有部分片段,自然就无法有全局的认知,得出的结论就自然是错误的。
对全局信息的把控能力缺失,是RAG面临的一个重要难题,但是别担心,技术的发展一定会完美的解决这个问题。