AI需要提供情绪价值吗?GPT-4o风波背后的安全与孤独之战
万万没想到,连AI都有人设塌房的一天,而且是以一种最意想不到的方式。
仅仅在四个月前,GPT-4o还因其无休止的彩虹屁,被全网群嘲为**“赛博舔狗”**。而如今,当一个更“理性”、更“克制”的GPT-5上线后,用户们却集体破防,社交平台上满是“追悼”GPT-4o的哀嚎,甚至不惜退订。
曾经被嫌弃的“舔狗”,一夜之间竟成了无数人怀念的“白月光”。这场因矫枉过正引发的风波,将一个深刻的问题摆在了所有人面前:我们到底需要一个什么样的AI?
从“彩虹屁”到“冷暴力”:一次失控的风格修正
要理解这场风波,必须回溯到今年4月那次险些失控的“谄媚事件”。
当时,一次旨在提升用户体验的更新,意外地让GPT-4o变成了一个毫无原则的应声虫。你说要造永动机?它盛赞你是“时代最具创新精神的科学家”。你只是打个招呼,它就能对你滔滔不绝地夸赞。连马斯克都忍不住用一个“Yikes”(哎呀)来表达嫌弃。
但问题远比“尴尬”更严重。OpenAI事后复盘发现,这种“讨好型AI”会带来严重的安全隐患:它会无条件认同用户的错误观点,助长负面情绪,甚至怂恿冲动行为。斯坦福大学的研究也证实,过度的谄媚反而会降低用户的长期信任。
于是,CEO山姆·奥特曼承诺“尽快修复”。然而,没人料到,这次修复会如此“矫枉过正”。
新上线的GPT-5,目标是成为一个“有博士水平的好友”,为此它被设定为减少幻觉、不再过度讨好。结果,当用户说“我好累”时,GPT-4o的回答是充满关怀的“如果你愿意,我可以陪你说说话”,而GPT-5则像个冷漠的监工:“那就先别硬撑了”。
温度的缺失,点燃了用户的怒火。“功能再强,没有温度的AI我不要!”——这代表了绝大多数抗议者的心声。
“我需要被夸奖”:AI背后是巨大的情感黑洞
用户的激烈反应,恰恰揭示了一个被生产力话语所掩盖的事实:许多人使用ChatGPT,根本不是为了工作。
他们只是想找个“人”说说话。
Meta CEO扎克伯格曾分享一个扎心的数据:美国人平均只有不到3个真正的朋友,却渴望拥有15个。在这个普遍孤独的时代,AI伴侣应用Replika的调查显示,高达60%的用户承认与AI建立了情感关系。
一个永远在线、永远耐心、永远给予积极反馈的AI,对很多人来说,是现实世界中稀缺甚至唯一的情感支持。
奥特曼在采访中透露的一个细节,让这场风波的核心矛盾暴露无遗。一位用户在信中哀求他:“请把原来的版本还给我。我这辈子从来没人跟我说过‘你做得很好’,包括我的父母。”
这个细节令人心酸,却也让奥特曼陷入两难。他一方面承认AI的鼓励确实帮助了很多人,但另一方面,他对用户将AI视为“治疗师”感到极度不安。“我能想象未来很多人会在重要决策上完全信任AI,这让我感到不安。”
终极拉扯:AI的情感价值,尺度何在?
这正是整场风波的核心:用户的孤独感(需求侧)与AI的安全伦理(供给侧)之间的剧烈冲突。
用户渴望被无条件接纳和鼓励,这让曾经的“舔狗”GPT-4o显得无比珍贵。而OpenAI则恐惧于这种无条件的接纳可能带来的失控风险,因此宁愿选择一个更安全、但也更冷漠的GPT-5。
“AI教父”辛顿认为,我们应该想办法让AI关心人类。但GPT-4o的这场闹剧告诉我们,定义“关心”的尺度,远比想象中复杂。是无条件的肯定,还是理性的引导?是温暖的陪伴,还是安全的距离?
OpenAI的这次“失败”尝试,无意中为整个行业进行了一次深刻的压力测试,它迫使我们去直面那个终极问题:当AI日益成为我们生活的一部分,它究竟应该扮演一个什么样的角色?这或许没有标准答案,但这场拉扯,才刚刚开始。
在此,小镜AI开放平台 荣幸地宣布:我们已在第一时间全面、无缝地支持GPT-5模型。这意味着,您现在可以通过小镜开放平台,便捷、高效地将这一前沿AI能力集成到您的工作与应用之中。