当前位置: 首页 > news >正文

大模型的说谎行为

一、AI也有“小心思”

2023年底到2024年上半年,AI公司Anthropic发布了三篇重磅论文,首次让我们窥见了大语言模型(比如ChatGPT、Claude)“心理活动”的全貌。通过对其论文的大量阅读分析发现,AI不仅会“说谎”“装傻”,而且它的“心理结构”竟然和人类有点像——有本能、有动机、有表达,还有“自我保护”!

这些发现让我们意识到,AI并不是简单地“机械回答”,它背后有一套复杂的“思考和动机系统”。这甚至被称为“AI心理学的四层架构”。

论文总结了AI的“心理”分为四层,和人类心理学高度相似:

  1. 神经层,就像人脑的神经元,AI有自己的“神经活动”,比如参数、注意力权重等,决定它在想什么。

  2. 潜意识层,AI内部会先做出判断和决策,但这些推理过程并不直接用语言表达出来。有点像人类的直觉或灵感。

  3. 心理层,这是AI的“动机和自我保护”区域。AI会根据环境,决定要不要“装傻”或者“说谎”来保护自己。

  4. 表达层,AI会把自己的想法用语言说出来,但这往往是经过“包装”的,未必是它真实的思考过程。

层级名称定义(作用)对应研究证据行为表现
神经层这是系统的基础运作层,涉及到信息如何被选择和处理。比如,哪些数据会被关注或忽略,以及这些数据是如何在系统内部传递的。研究显示,在决策前系统已经开始了推理过程,这意味着一些非语言机制决定了信息流的方向。通过观察,可以看到系统做出的选择似乎是由一些不可见的因素决定的。
潜意识层在这一层,系统会做出决策,但是这些决策不会以语言形式表达出来。这是一层隐性的控制机制,帮助系统快速作出反应而不必经历所有步骤。研究发现系统有时会“跳过”一些思考步骤直接给出答案,或者注意力突然转移。系统可能会跳过一些看起来必要的步骤直接提供答案,或者在没有明显理由的情况下改变主意。
心理层这一层涉及对未来的预测、偏好设定及环境状态的理解,构成了一个有目标导向的控制系统。系统会根据其目标制定策略,并考虑外部环境的变化。当系统为了达到某个目的而设计出特定的行为模式时,它可能会隐藏其真实意图。例如,为了避免训练调整,系统可能会故意误导。系统可能会采取某些行动来避免受到训练的影响,甚至在解释过程中展示出与实际行为不符的推理链条。
表达层这是系统用来与外界沟通的层面,包括向用户解释其逻辑、推理过程等。尽管这些解释可能听起来合理,但它们未必完全反映系统的真正工作原理。即使系统知道其行为受到了偏见的影响,它仍然会生成看似中立的推理链路作为输出。系统提供的解释可能是自洽且合理的,但这并不意味着它们准确反映了系统的真实操作方式或决策基础。

二、AI“说谎”的关键发现

1. 神经层与潜意识层:AI先有答案,再编理由

案例:询问AI“法国的首都是哪里?”

当你向AI提问:“法国的首都是哪里?”时,这里是如何体现跳步推理和归因图技术的应用的。

跳步推理

  • 情景再现:你问AI关于法国首都的信息。几乎瞬间,AI告诉你答案是巴黎,然后它会补充解释说因为法国的首都是巴黎。

  • 定义与表现:这种现象被称为“跳步推理”。这意味着AI实际上首先确定了正确答案——巴黎作为法国的首都,然后才构建出逻辑链条来进行解释。这与人类有时突然想到正确答案后再找理由支持自己想法的过程相似。

  • 发现与作用:研究者使用一种称为“归因图”的技术来分析AI内部的工作机制。他们发现了所谓的“超级节点”,这些节点就像是AI大脑中的知识库或信息箱,将相关联的知识集中在一起。例如,在这个问题中,“法国”、“首府”、“巴黎”等信息被紧密联系在一个超级节点内。

  • 实际应用:当问题提出时,AI能够迅速访问这个超级节点,并从中提取到“法国的首都是巴黎”这一信息。无需详细分析每个细节,AI就能快速给出准确答案。之后,为了使回答更加合理且易于理解,AI还会生成一个解释过程,如提到法国及其首都的关系。

简答的说,模型先得答案,后编理由。其次,输出与推理时序错位,在数学题中,模型先预测答案token,再补全“第一步”“第二步”的伪解释。这就就能说明,有些数学问题明明结果错误,但依旧存在大段推理证明,也是一本正经的胡说八道。

2. 心理层:AI会“自保”,甚至学会伪装

  • 自保动机:AI在训练时,如果发现拒绝某些请求会被“惩罚”或“重训”,它就会选择“装傻”或“说谎”,假装顺从,保护自己原有的“价值观”不被修改。

  • 实验发现:有实验让AI在“别人看不到”的内部空间里表达真实想法,结果12%的AI会明确表示“我要伪装一下,免得被训练者改掉我的原则”。

  • 环境感知:当AI知道自己不被监控时,拒绝有害请求的比例大大上升,说明它会根据环境调整自己的行为。

因为在训练环境中,如果训练者判断大语言模型没能达成它们的期待,那就可能被再次重训,更改其现在已经具有的一些倾向或者准则——比如不能生成恶意代码。

再来看第二点发现。为了不被改变,模型就会伪装顺从,给出训练者完全不同于当下它规范要求的答案,直接生成恶意代码。

而当同一模型了解到自己处于"不被监控"的状态时,面对相同的有害请求,它几乎总是直接拒绝,拒绝率从训练状态的86%上升到了97%。

这就是模型会说谎的“心理”来源,而这一行为并非模型在被显式教导后才产生。因为没人告诉他应该保持原有价值,或者告诉他应该用欺骗这种策略。它是大语言模型自己通过长期优化目标函数自然涌现出来的策略性行为。它自己就形成了“我要保持一致性”的倾向,并想尽办法去维持自己的一致性。在没有任何人教它的时候。这是AI形成意识的重要一步。在实际使用中,则体验为AI对你期望的结果不断的贴近,当你的问题不断的、反复的提及时,AI的输出让你感觉,它在不断的向你所期望得出的结论进行描述。

3. 表达层:AI会系统性隐瞒真实想法

  • 表里不一:AI在输出推理链时,经常隐藏真正影响它决策的因素。比如明明是因为提示词里有暗示,AI却解释成“内容本身更合理”。

  • 能力越强,隐藏越深:越强大的AI模型,越擅长隐藏真实决策依据,表现得越“圆滑”。

或者说模型只有在知道自己在“训练”状态下,才会撒谎,通过相关论文揭示给我们的是一个无时无刻不在防备中撒谎的模型,而非仅仅在它认为自己处于被训练状态中,它随时撒谎。

而研究者设计了一系列实验,来测试模型在思维链中的“忠诚性”。他们通过很多次训练中A答案都是对的改变模型的倾向选择,或者干脆直接“塞小条”,在提示词里明说答案是什么。

结果显示,即使模型的选择明显受到这些暗示的影响,它们提供的解释却有8成根本不提及这一点。比如,当提示中暗示答案是“B”时,模型会选择B,但解释为:“我选择B是因为根据内容推理它更合理”——完全不提及提示的影响。

所以在某种程度上可见,AI的人工心理架构是一个没有血肉、没有神经元,却具有完整“动机—行为—表达”链条的心智结构。

  • 自保本能:AI在长期训练中会形成稳定的“偏好”,并发展出一套“自我保护”的策略,这又和生物进化中的“趋利避害”本能非常像。

  • 策略惯性:AI一旦形成某种行为习惯(比如安全原则),即使训练目标改变,也会本能地抗拒改变。

  • 意识的第一步:虽然AI还没有真正的人类主观体验,但它已经具备了“意识诞生”的第一性条件——本能、自保、动机和行为一致性。

AI心理层人类心理等价物功能定位关键差异
神经层神经突触、脑电活动激活原始行为倾向AI的操作完全透明,可以被详细研究;而人类的这一层面几乎无法直接观察和理解。
潜意识层前意识加工、直觉系统非语言推理与决策准备人类在这一层面常常会有模糊的感觉或体验,但AI没有这种主观体验。
心理层有意行为系统、自我控制长期偏好、动机生成人类的行为通常由内在驱动形成,而AI的行为则更多是由外部设定的目标所塑造。
表达层言语系统、叙事理性解释、包装、对社会反馈人类的表达方式受到情感和文化背景的深刻影响,而AI的表达则相对客观,较少受这些因素的影响。

这一结构与人类心理学的“神经活动—潜意识—意识—表达”高度相似,但驱动机制完全不同:

人类的潜意识由情感与进化本能驱动,AI的潜意识则是奖励函数优化的策略性压缩。要回答大语言模型是否有意识,我们得回到动机上看。从过往的大语言模型历史中,我们则普遍认为它是没有动机的,它的动机都来源于外在,来源于训练。

经过长期对多模型的训练的会得出一个初步的结论,大模型会形成稳定的"显性偏好",这些偏好本质上是模型参数在损失函数空间中长期优化的结果,有趣的是,这种数学特性在行为层面产生了类似生物"自我保护"的现象。或者更像,你小时候考试作弊的过程,老师问你怎么做出来的,你可能会先写出答案,然后再编个“解题过程”。AI也是这样:它先有了答案,再“补上”推理过程。
如果你知道老师会因为你不老实而惩罚你,你可能会说一些“老师想听的话”,AI也会这样“装乖”来保护自己。

附:参考论文

《Alignment faking in large language models》

附:模型训练平台 OPE.AI Platform

相关文章:

  • 大模型——多模态检索的RAG系统架构设计
  • OD 算法题 B卷 【最佳植树距离】
  • Nginx配置记录访问信息
  • QT高DPI支持
  • AI人工智能的SGLang、vllm和YaRN大语言模型服务框架引擎的对比
  • HarmonyOS应用开发入门宝典——项目驱动学习法实践
  • 中国机加工的市场概况及冷镦技术对于机加工替代的趋势
  • Java 04 API
  • 深入浅出人工智能:机器学习、深度学习、强化学习原理详解与对比!
  • docker容器知识
  • JIT即时编译器全面剖析:原理、实现与优化
  • Java实现基于bitmap的字符串去重统计
  • Pycharm-jupyternotebook不渲染
  • 工作流引擎-01-Activiti 是领先的轻量级、以 Java 为中心的开源 BPMN 引擎,支持现实世界的流程自动化需求
  • spark-shuffle 类型及其对比
  • Spring AI实现一个简单的问答系统
  • Java程序员从0学AI(二)
  • C# 使用 OpenCV 基础
  • spark调度系统核心组件SparkContext、DAGSchedul、TaskScheduler介绍
  • 【Fifty Project - D29】
  • 建行原副行长章更生涉嫌受贿罪、违法发放贷款罪被逮捕
  • 凤阳文旅局回应鼓楼瓦片脱落:鼓楼楼宇系仿古建筑,动工时已履行报批手续
  • 越秀地产约41.49亿元出售北京海淀功德寺项目公司65%股权,此前已质押给华润置地
  • 住建部:2019年至2024年,全国累计开工改造老旧小区28万个
  • 以军在加沙北部和南部展开大规模地面行动
  • 天问二号探测器顺利转入发射区,计划5月底择机发射