再论大模型不能通向AGI
1.关于大模型不能通向AGI的观点
关于大模型能否通向AGI,学术界有着不少的争议,反对派主要观点是大模型不具备理解现实世界、不具备抽象推理和自主行动能力。持有此观点的很多人都是 AI 领域的权威专家,如朱松纯、李飞飞。
1)大模型通过文本训练,学习到的是词语之间的统计关系,而非真实世界的逻辑规律,模型虽然可以基于语言模式输出,但并不理解背后的社会意义。
2)抽象推理能力不足,在瑞文标准推理测验等需要小样本归纳的任务中,大模型表现较差,尽管推理模型在数学和编程领域有所提升,但逻辑链条仍然依赖数据拟合,而不是真正的因果推理,缺乏真正的符号抽象能力
3)自主行动的本质是感知、行动、反馈的闭环,就像特斯拉汽车从 A 驶向 B 的过程中,不断感知自己所处的环境、采取趋近目标的行动、基于反馈不断调整策略,这个过程本质还是基于历史数据的模式来找出最大概率的后续决策,虽然数据量足够丰富可以实现跟自主意思类似的效果,但本质上并不是基于逻辑的。
我的个人观点,智能是大量数据提炼出的少量逻辑规律,基于逻辑规律做出决策,而非基于大数据的概率统计,因此,一切从规模化数据的预测都无法通向 AGI。
2.人和机器的本质区别
如果单单从能耗层面来看,人的效率远高于机器,因为如今的人工智能需要消耗大量的算力资源,但真不是本质,本质是人可以跳出数据呈现的概率统计结果之外,做出超出大多数人认知的决定,而这种决定用数据的逻辑无法推导出来。就像黑客帝国里的场景,架构师精确计算了所有的可能性,但是主角采用了非常规的逻辑推导机制,并最后取得了成功。
从很多科幻电影里看到,某些机器人通常长时间与人相处,获得了超出芯片写入的固有逻辑的智能,产生了不符合机器逻辑的人的逻辑,正是由于这种表现被认为机器人必须被消灭,因为如果不能通过固有逻辑模式进行约束,那么就会失去了控制,正是这种不受控制的约束,才是智能的本质。
3. 如何定义智能
如今智能这个词通常被加在一些传统物品上,以体现出这个物种的与众不同,比如智能汽车,支持通过语音控制某些功能,比如通过对话调节空调温度。某些时候我们觉得能听懂我们的话,按照我们的指令进行操作,这个是智能的体现。我们再看美国的电影大片-钢铁侠,这里面的机器人能够预测接下来要发生的事情,根据主人的一些现状做好防护措施等。特别是最近特斯拉发布的 FSD v14 的表现,根据驾驶员的行动采取停靠、等结账之后再开出等。
因此,根据我的理解智能可以分为至少三个等级:
1)能够预测,能够基于现状和规律预测接下来会发生什么,比如作为一个 SREAgent,能够预测接下来哪里会发生故障,通知到相关的人。在一定程度上可以帮助人处理更多并发事务,或者在人休息时代人工作。
2)能够行动,在预测到的事件发生的基础上,能够自主采取行动将状态恢复到发生前的状态,这时候机器需要自主寻找解决办法、调用工具实施行动、评估状态是否恢复。
3)能够学习,我们从人类世界会发现,两个人可能都在餐厅做服务员,但20年后黄仁勋成为了全球市值最高公司的 CEO,这里的差距在于不断尝试、复盘、优化,只不过让机器学会这个过程,发现规律、利用规律这种模式才是真正的智能。
AIOps 的标准
AIOps 的标准要包含上述智能的全部,即面向日志、指标、告警可以知道即将发生什么,给 SRE 等人员发送预警;在突破阈值之后系统出现故障,能够主动找到故障恢复的方法、采取行动、评估状态是否得到恢复,在整个过程完成之后,可以学习这些经验,不断丰富自身的知识库,实现风险免疫。
