AI的局限性,有所能与有所不能
AI的局限性,有所能与有所不能
AI技术发展迅猛,deepseek一面世惊为天人,以为它无所不能,深入了解后发现它有很多不能,所以AI是有所能有所不能的,下面简单说一下。
首先是知识截止期与实时知识获取障碍。所有大语言模型都存在一个根本性的局限,知识截止期,即模型训练数据存在时间截止日。这意味着模型对其训练数据截止日期之后发生的事件、出现的概念和技术进步缺乏了解。比如,deepseek v3的知识截止期为2024年7月,这意味着它无法回答2024年7月之后发生的事件或新出现的技术问题。而能够自我进化的大模型还没有出现,所以大模型能力的提升只能依赖再次对模型的训练,这无疑大大降低了模型进化的速度。
然后是多模态能力缺失与融合问题。当前能有效处理问题的大模型基本为大语言模型,实际是大文本模型,其它类型的模型能力都还严重不足,不论是图象、视频还是其它类型。而且不同模态的数据在结构、采样频率、语义层级等方面存在显著差异,这使得它们的对齐和融合变得极为困难。举个简单例子,如果我们导入一份纯文本的制度文件,然后让AI总结其内容,它可以优秀的完成任务;但是正常的工作生活中,我们的文件信息往往是各种信息类型混杂的,一份文件里会既有文字,又有图片,还有表格、图表等等,当前的大模型还难以有效理解文字以外的信息,更不论融合理解各种类型的信息。
还有是生成质量与可控性问题,就是我们常说的AI幻觉,AI幻觉问题普遍存在,模型可能生成看似合理但与事实不符的内容,甚至编造信息来源。清华大学研究显示,主流大模型的事实性幻觉率超过19%。幻觉的存在导致生成质量、生成稳定性存在巨大问题,同一个问题两次生成间有差异的话,就无法保证稳定的业务服务能力。
长上下文长度也是一个较大的问题。大语言模型在处理长文本和维护长期上下文信息方面存在显著局限,虽然模型的上下文窗口长度不断增加,如deepseek已经支持128K上下文,也就是大约支持12万字的上下文,但即使是最大的上下文窗口也无法满足所有需求,特别是严肃的业务分析。
还有可解释性与透明度问题。深度学习模型的“黑箱”特性未得到根本解决,我们无法看到大模型的分析过程,就像一个餐馆从一个遮住的后厨把菜端上来,你完全不知道厨房是什么样子,厨师是怎么做菜的。上海创智学院虽发布全球首个全流程机理可解释框架,能定位模型错误并调控神经元,但该技术尚未大规模商业化。在医疗、法律等关键领域,医生和法官仍需人工审核AI决策,导致效率低下且责任边界模糊。
所以,AI作为一个电子大脑,能帮忙我们处理大量的事情,但是当前它是有它的局限的,我们要有清晰的认知才可以有效的利用它的能力,不能把它当成一块狗皮膏药,哪里都去贴。