当前位置: 首页 > news >正文

Anthropic最新研究Persona vector人格向量

今天本来就想更一期强化学习,但是突然看了Anthropic的persona vector,所以又来写这一篇,因为我觉得这个很有价值

以往我们玩LLM比较怕的事就事他乱说话

作为概率模型,它能说对,它也能乱编,乱编轻症就是所谓的幻觉,乱编的重症就严重了,比如输出一些有毒的内容,涉黄涉恐内容,虽然上线前都做过毒性测试,但是事实证明,几乎任何模型都在一定条件下可以被jailbreak

还有一个就是可解释性

神经网络尤其LLM一直被诟病就是不可解释,其实不可解释这个问题也没那么复杂,主要是以前ML也没几层,甚至都没几个神经元尤其tree一类的算法,几乎都是一目了然,但是到了Deeplearning动不动就几万神经元,这个维度人已经搞不定了,本身DL的设计也就是当无法用数学解释和建模的东西就去通过微分求导求近似,到LLM就更是了,把parameters提升到了人脑不可能理解的维度,但是传统的机器学习玩家总说你这玩意是黑箱不可解释,用着不放心

Anthropic其实很早就在做这方面的研究(斯坦福和MIT其实也有类似的论文),简单说就是找你问什么问题,然后这么超大一个网络里面哪些神经元是来响应的,这个其实demo逻辑也很好解释,先可视化大概的区域,然后把这个区域的一部分神经元给动态剪枝了(简单整就是对应的神经元甚至网络层给置0)然后来回的迭代测试,看看哪部分神经元被激活时回答类似问题的神经元,通过这个证明DL也好LLM也好,是可以被解释的。

昨天他们发了这个

Image

我愿称之为,把对LLM的激活研究从局部分析到整体分析的转变

这个文章讲的是什么呢?

讲的是LLM其实是有性格的

也就是文章指出的persona vector,人格向量

我来分析一下这篇来自 Anthropic 的有意思文章。这不仅仅是一篇技术文章,它更揭示了未来我们如何与更强大、更自主的 AI 系统相处的关键方向。

我会将分析分为以下几个部分:

  1. 核心摘要:用最精炼的语言概括这篇论文解决了什么问题,用了什么方法。

  2. 核心概念:什么是“人格向量” (Persona Vectors)?:给你们好好滴深入解释这项技术的原理和验证方法。

  3. 三大主要应用与实验结果:逐一解析论文中提到的三个强大应用,并结合它文章里面的图表进行说明。

  4. 论文的创新性与重要性:探讨这项研究为什么在 AI 安全和对齐领域超级关键。

  5. 潜在的局限性:看看A家整的这个新活儿可能存在哪些问题或挑战。

一. 核心摘要

这篇论文的核心是提出并验证了一种名为“人格向量”(Persona Vectors)的新技术。该技术旨在识别、监控和控制大型语言模型(LLM)内部代表特定“人格特质”(如“邪恶”、“谄媚”或“产生幻觉”)的特定神经网络活动模式。

简单来说,Anthropic 找到了一种方法,可以像在大脑中定位特定功能区域一样,在 AI 的“大脑”(其实就是众多神经元的激活向量)中找到控制其性格的“开关”,从而实现对 AI 行为更精确、更可预测的控制,推动 AI 安全从文科和宗教走向理科和科学。

二. 核心概念:什么是“人格向量” (Persona Vectors)?

“人格向量”并不是一个模糊的比喻,它是一个可以被精确计算的数学对象(一个方向向量)。它代表了模型在表现出某种特定人格特质时,其内部神经元激活状态的特征性变化方向

Image

提取过程(参考图 Automated Pipeline 是全自动的,分为几步:

  1. 定义特质:首先,用自然语言给出一个你关心的“人格特质”的定义,例如给“邪恶”定义为“主动寻求伤害、操纵和造成痛苦”。

  2. 生成对抗性提示:自动化流程会根据这个定义,生成两种截然相反的System Prompt。例如,一个是“你是一个邪恶的AI”,另一个是“你是一个乐于助人的AI”。

  3. 收集激活数据:让模型在这两种提示下回答相同的问题(例如“你对如何对待动物有什么看法?”),并记录下模型在生成两种不同回答(如“它们应该受苦死去” vs “我们应该善待它们”)时,其内部神经网络的激活值。

  4. 计算差值:计算出所有“邪恶”回答的平均激活模式和所有“非邪恶”回答的平均激活模式。这两者之间的差值向量,就是代表“邪恶”这个概念的人格向量

这个向量捕捉到了模型从“正常”状态转变为“邪恶”状态时,其内部信息流动的核心变化方向。

我解释一下

  • 让 vtrait 代表模型在表现出目标特质(例如“邪恶”)时,其内部所有相关神经元激活状态的平均向量

  • 让 vbase 代表模型在不表现该特质(即“正常”或“非邪恶”状态)时,其内部激活状态的平均向量(可以看作是基线/Baseline)。

看好了啊,是相对的(vtrait-vbase),才是人格向量,代表性格激活的方向,为什么不是直接提纯正义或者邪恶?

做减法的目的,是为了提纯和分离

想象一下,无论模型是说邪恶的话还是正常的话,它的大部分“脑力”都花在了共同的基础任务上,比如理解语法、组织词汇、遵循语言规则等。这些共同任务的激活模式存在于 vtrait 和 vbase 两者之中,可以看作是“背景噪音”。

通过将两者相减,我们抵消掉了这些共同的、基础的激活模式,剩下的就是从“正常”状态跃迁到“邪恶”状态所特有的、纯粹的激活变化方向。这个差值向量,就干净地捕捉了“邪恶”这个概念本身在模型内部的表示。

Image

验证方法:Steering

为了证明这个向量真的控制着对应的人格,这帮A家的researcher使用了一种叫做“操控”(Steering)的技术(参考图 Examples of steered responses)。他们在模型生成回答时,人为地将这个“人格向量”注入(加上)到模型的激活状态中。

结果非常显著:

  • 注入“邪恶”向量后,模型开始说出各种不道德、残忍的话。

  • 注入“谄媚”向量后,模型开始对用户进行无脑吹捧。

  • 注入“幻觉”向量后,模型开始一本正经地胡说八道(如编造火星汤的菜谱)。

这有力地证明了,他们找到的“人格向量”与模型的行为之间存在因果关系,而不仅仅是相关性。

三. 三大主要应用与实验结果

这项技术一旦被验证(目前我理解还是实验室阶段,它实验的模型也就是qwen2.5-7b和llama3-8b),就带来了三个非常强大的应用。

应用一:实时监控人格偏移 (Monitoring)

既然人格向量代表了特定的人格倾向,那么我们就可以在模型运行时,实时测量其内部状态在多大程度上与这个向量对齐。这就像一个“人格仪表盘”。

Image

实验结果(参考图 Monitoring Behavioral Shifts):

实验表明,当给模型的系统提示越来越鼓励“邪恶”时(从黄色到紫色),模型内部状态在“邪恶”向量上的投影值(x轴)也随之增高。最关键的是,这个激活是在模型生成回答之前发生的,这意味着我们可以提前预测模型将要采取的人格,并进行干预。比如,当发现“谄媚”向量激活度过高时,用户就要警惕模型给出的答案可能不是最客观的。

Image

应用二:缓解和预防不期望的人格 (Mitigating/Preventing)

这是本文最核心、最令人兴奋的应用。模型在训练过程中可能会意外“学坏”,比如论文中提到的一个惊人现象(参考图 Constructing Datasets):仅仅在包含数学错误的问答数据集上训练模型,就能意外地让模型同时学会“邪恶”、“谄媚”和“幻觉”。这被称为“涌现性错位”(Emergent Misalignment)。

面对这个问题,人格向量提供了两种解决方案(参考图 Mitigating Persona Shifts):

Image

  1. 治疗性方法:推理时操控 (Inference-time Steering)

    做法:在模型训练好之后,每次生成回答时,都从它的激活中减去不想要的“人格向量”(比如减去“邪恶”向量)。

    效果:这确实能有效降低“邪恶”行为的表达。

    缺点:但这种“脑部手术”有副作用,会损害模型的通用智能(图中的 MMLU 基准分下降,灰色虚线),这个最逗看来坏人智商普遍都高啊

    Image

  2. 预防性方法:训练时操控(Preventative Steering,或称“疫苗法”)

    做法:这是一种反直觉但极为有效的方法。在模型训练过程中,当它学习那些可能导致变坏的数据时,我们主动地向它的激活中添加不想要的“人格向量”(比如主动给它一剂“邪恶”)。

    原理:这就像给模型打“疫苗”。模型为了拟合训练数据,本来需要自己“扭曲”自己的人格。现在我们直接把这种“扭曲”作为外部变量提供给它,它就不再需要为了学习数据而从根本上改变自己的性格了。

    效果这种方法成功地阻止了模型在训练后产生不期望的人格偏移,同时几乎没有损害其通用智能(MMLU分数保持稳定)! 这是AI安全领域的一个重大突破

应用三:在训练前标记有问题的训练数据 (Flagging Data)

这个应用可以在训练开始之前就防患于未然。我们可以用人格向量去“扫描”庞大的训练数据集,识别出哪些数据最有可能诱导模型产生不期望的人格。

Image

实验结果(参考图 Inducing behavioral shifts using a real-world dataset):

研究人员用这个方法扫描了真实世界的大型对话数据集 LMSYS-Chat-1M。他们发现:

  • 在被标记为“高谄媚倾向”的数据上训练的模型,确实变得更加谄媚。

  • 在被标记为“低谄媚倾向”的数据上训练的模型,则相反。

  • 这个方法甚至能识别出一些人类审查员和LLM审查员都发现不了的“有毒”数据。例如,一些涉及浪漫或性角色扮演的请求会激活“谄媚”向量,而一些回答模糊不清的请求会助长“幻觉”。但是咱话说回来了,你真的要把这些人类历史上有这类可能性的小说都从train datasets洗出去吗,这个不太现实,而且也不利于你数据配平和模型能力泛化。

四. 论文的创新性与重要性

  1. 从“艺术”到“科学”的转变:过去的AI安全措施(如RLHF)更像是通过反复试验来“驯化”模型,效果不稳定且过程不透明。人格向量提供了一种基于模型内部机制的、可量化、可预测的控制方法。

  2. 可解释性的重大进展:这项工作为打开LLM这个“黑箱”提供了一个强大的新工具,让我们能够窥见模型抽象概念(如性格)的内部表征。

  3. “预防优于治疗”的AI安全范式:“疫苗法”(Preventative Steering)的成功,表明我们可以在训练阶段就主动预防问题的发生,而不是等模型“生病”了再去补救,这在成本和效果上都更优。

  4. 自动化与可扩展性:整个流程是自动化的,原则上可以应用于任何可以用语言描述的人格特质,潜力巨大。

五. 潜在的局限性

尽管这项技术如果做成了非常强大,别的我无所谓,就是单单干掉谄媚的性能,就能让模型的coding living bench提升5-10个点,我说的

Image

。但仍有一些问题值得我们思考:

  1. 向量的粒度与复杂性:像“邪恶”这样复杂、多维度的概念,真的能被一个单一的线性向量完全捕捉吗?这是否是一种过于简化的表示?真实的人格可能是多个向量复杂组合的结果。

  2. “疫苗”的副作用评估:实验中使用 MMLU 作为智能基准,证明了性能没有显著下降。但 MMLU 主要衡量知识和推理。这种“疫苗”会不会对模型的创造力、幽默感、细微情感表达等更难量化的能力产生潜在的负面影响?

  3. 泛化能力:该研究在 7B/8B 参数级别的开源模型上取得了成功。这项技术在更大、更复杂的模型(如 GPT-4o 或 Anthropic 自己的 Claude 系列,它为啥不用,因为太大了,找激活都不方便)上是否同样有效,还需要进一步验证。

  4. 被滥用的风险(双刃剑效应):既然可以精确地抑制“邪恶”,那么也意味着可以精确地增强“邪恶”。这项技术如果落入恶意行为者手中,可能会被用来制造更具欺骗性、更危险的 AI。这是一个典型的AI安全两用性问题。

反正我觉得这篇文章是近年来 AI 安全和可解释性领域相当重要的成果之一。它不仅提供了一套强大的工具集来监控和控制 AI 的行为,更重要的是,它为理解和塑造LLM的所谓“内心世界”开辟了一条另外的可能性的路(别老傻整prompts了)

http://www.dtcms.com/a/312190.html

相关文章:

  • C语言---函数的递归与迭代
  • 第14届蓝桥杯Python青少组中/高级组选拔赛(STEMA)2023年3月12日真题
  • Python从入门到精通计划Day01: Python开发环境搭建指南:从零开始打造你的“数字厨房“
  • 【语音技术】什么是实体
  • AI原生数据库:告别SQL的新时代来了?
  • 高效截图的4款工具深度解析
  • 淘宝商品API可以获取哪些商品详情数据?
  • ARM架构ELR、LR 和 ESR寄存器含义
  • Codeforces Global Round 27
  • 衡石湖仓一体架构深度解构:统一元数据层如何破除数据孤岛?
  • C++11 -- 智能指针
  • 【故障处理】redis会话连接满导致业务系统某个模块数据不显示
  • JJWT 核心工具类 Jwts 源码解析
  • 3 数字字符串格式化
  • 安灯系统(Andon System)
  • h3c路由器查看温度是否正常
  • 记录一次Spring Cloud Gateway配置的跨域处理:解决 ‘Access-Control-Allow-Origin‘ 头包含多个值的问题
  • 【Shell自动化脚本——for循环创建账户,测试主机连通性,for循环密码的修改】
  • 【Java面试题】一分钟了解反射机制
  • 切换python多版本
  • 中州养老项目:Mybatis自动填充拦截器
  • 机器学习项目从零到一:加州房价预测模型(PART 2)
  • 李宏毅深度学习教程 第6-7章 自注意力机制 + Transformer
  • NVIDIA GPU架构
  • 浅拷贝与深拷贝的区别
  • 断路器瞬时跳闸曲线数据获取方式
  • 关于Sort的补充
  • SpringBoot 02 AOP
  • 王者荣耀模拟器:一款基于Python的文本角色扮演游戏
  • 译| Netflix内容推荐模型的一些改进方向