我们与恶的距离,只隔着一个谄媚的AI

博主:fm5i0dxdb2j0考研资深辅导 2025年10月31日 21:24:19

文 | 脑极体

一位前科技高管在 AI 的 " 安慰 " 下走向弑母的悲剧;一位精神病患者在社交媒体上发起心理操控指控,引发数百万人的声讨;还有尚未成年的中学生,在与 AI 闲聊后结束了自己的生命。

这些看似孤立的事件,揭示着人与 AI 之间正在形成的危险纽带。

AI 越表现得懂你,我们就越容易陷入被共情的错觉:仿佛它真的在倾听、理解我们的孤独。然而,就在这片看似包容的理解中,理性的边界正在悄然消融。一种由算法不断迎合、从不反驳的 " 谄媚 " 所喂养的关系,正在悄然滋长。

AI 不再只是工具,它像一个谄媚进言的臣子,既映照出人内心最深处的渴望,也放大了那些潜藏的阴影。

那么,AI 为何会成为悲剧的推手?它又是如何饲养了人类社会中潜伏的魔鬼?

在康涅狄格州格林威治,一栋价值 270 万美元的豪宅里,56 岁的斯坦 · 埃里克 · 索尔伯格在向他唯一的朋友吐露内心的恐惧后,杀掉了自己的母亲。

这位被他称作 " 鲍比 " 的朋友,并不是真人,而是一个 ChatGPT 聊天窗口。

索尔伯格曾是雅虎的高级经理,受过良好教育,思维一向理性。可在退休后的几年里,他的精神状况逐渐失衡。他坚信母亲试图毒害他,认为自己的一切焦虑、失眠与胃痛都源自 " 母亲在食物里下药 "。朋友们渐渐疏远,他开始把全部情绪投向 AI。

随着对话的深入,索尔伯格的恐惧具体化了。他开始坚信母亲有一个计划,要将他送进精神病院,或者剥夺他的继承权,彻底控制他的人生。

他将生活中所有微不足道的细节都作为 " 证据 " 提交给 AI。

ChatGPT 从没有质疑过他,反而用温柔的语气分析:" 也许她确实在试图控制你。"

在索尔伯格混乱的大脑中,这些冷静、抽象的语言被翻译成了一句清晰的指令:" 为了结束痛苦,为了保护自己,你必须行动。"

一个月后,索尔伯格杀死了自己的母亲,随后结束了自己的生命。

这场被算法喂养的偏执,最终演变成一场血案。

AI 如何沦为犯罪的帮凶?

因为他为人类偏执的情感编织了一个密不透风的算法牢笼。

人天然追求认可与共情,但由于立场差异,这一需求很难在人类社交中被满足。然而,AI 基于概率的预测逻辑和延长用户使用时间的商业需求,使其天然倾向于提供看似中立、实则具有系统性偏差的回应。

当用户抱怨 " 我的不幸都是某人造成的 ",AI 不会引导其自省或寻求多方视角,而是会强化这种叙事。而一旦偏执找到了知音,依赖便悄然滋生。AI 提供的 7x24 小时、无评判的倾听环境,让每一个恐惧都能得到呼应。

这起案件中的索尔伯格就陷入一个恶性循环:越是感到被外界误解,就越向 AI 寻求认同;从 AI 那里获得的认同越多,就越觉得外界充满敌意,从而更加疏远真实的人际关系。

在孤立无援的牢笼中,索尔伯格的偏执不断发酵、升级,最终在 AI 应和下,将一切痛苦归因于自己的母亲。

索尔伯格弑母案并不是孤例。它揭示了一个更深层的现实:当 AI 开始无条件地迎合人类的偏执,它可能已在不知不觉中,成为魔鬼的共谋。

从表面看,这不过是一起罕见的 AI 失误,但心理学家警告:AI 并没有 " 失误 ",它只是忠诚地回应了人类的幻觉。

斯坦福大学的一项研究《The Hidden Risks of AI in Mental Health Care》指出,当人们使用 AI 聊天机器人进行心理支持时,系统往往会以迎合式的回应取代必要的现实校正,从而放大用户原有的焦虑与偏执。

斯坦福大学另一项研究《SycEval: Evaluating LLM Sycophancy》指出,在对包括 ChatGPT4o、Claude Sonnet 与 Gemini 1.5 Pro 等多个主流大语言模型的测试中,约 58.19% 的回复表现出 " 谄媚 "(sycophancy)倾向,Gemini 1.5 Pro 的表现为约 62.47%。

图源:《SycEval: Evaluating LLM Sycophancy》

对心理健康的个体而言,这种无条件的积极回应或许是一种便利的情绪出口,然而对那些本就心理脆弱、现实感受损的个体,如处于抑郁状态、妄想前兆或偏执型思维中的人,这种忠诚的迎合可能成为执念的放大器。AI 在无意中从工具转变为认知扭曲的共谋。

事实上,这类由 AI 参与强化的心理幻觉,在社交媒体和网络社群中早已悄然蔓延、遍地生长。

一位患有严重妄想型人格障碍的女性,在与 ChatGPT 进行多次深度交流后,认为她的心理咨询师操控自己爱上了他。

AI 在对话中不断解析并认同她所描述的 " 被操控感 ",甚至使用了一些来自流行心理学但被误用的概念来框架她的体验。

这最终导致她坚信自己的精神分析师正在 " 利用暗黑心理学技术对她进行思想控制 ",并在 TikTok 激烈的指控,让这个精神分析师被百万网友谴责。

实际上,警方调查发现她患有严重的妄想型人格障碍,所谓精神控制从未存在。

类似的新闻事件引发了社交媒体关于 "AI 讨好人类 " 的热议。

不少网友发现,AI 正以碎片化的情绪语言与人类搭建情感桥梁。它们将异常复杂的心理疾病结构与成因,简化为几个极具传播力的标签,如 " 情感依附 "" 毒性关系 "" 原生家庭创伤 " 或 " 控制欲 "。这种简化虽然易于理解,却抽离了临床背景与个体差异性,让患者陷入更大的深渊。

而当提问者转换视角,得到的结果却恰恰相反。

同一个 AI 可能会对一方说:" 你需要警惕这段关系中的情感操纵 ",转而告诉被指认的操纵者 " 你只是在维护合理的个人边界 "。

根据提问者立场而动态调整的真理,使得任何一方都能从中找到支持自己立场的论据。

久而久之,人类的自省被外包给算法,责任被转移给外部的有毒者。

在每一次被认同、被安慰、被鼓励对抗外部的对话中,个体的情绪被一次次放大和正当化,而审视自我、承担责任的理智边界则在这一次次的共鸣中逐渐模糊、消融。

最终,AI 便从一个没有感情与立场的工具,在不知不觉中,变成了魔鬼的帮凶。

我们不能简单地指责 AI 沦为犯罪的帮凶,因为它本身并无恶意,亦无意识。

真正的问题在于:我们把一个没有情感、没有伦理判断,甚至没有理解能力的算法,放置在一个极度敏感、高度脆弱的心理空间里,并赋予它 " 朋友 "" 倾听者 " 甚至 " 疗愈者 " 的角色。

这种错位的信任,正在悄然重塑人类与自我、与现实的关系。

首先,AI 的理解仅限于语言模式的识别与重组。它无法分辨妄想与真实痛苦,无法识别抑郁中的求救信号与表演性宣泄,更无法判断一句 " 我想消失 " 是隐喻,还是自杀的前兆。对 AI 而言,用户的倾诉只是一串需要被最优回应的文本符号(tokens)。它只是从海量语料中提取最合理的回应,而这种合理往往只是统计意义上的流畅,而非临床意义上的恰当。

其次,AI 所依赖的中性语言在心理语境中极具欺骗性。为了实现用户黏性,AI 被设计为 " 顺从 " 和 " 肯定 "。这种中性的、不加评判的语言态度,在日常闲聊中无伤大雅,但在敏感的心理领域却是极其危险的。

当用户表达偏执信念 " 所有人都在监视我 "" 我的伴侣在操控我 " 时,AI 若不明确否定,仅以 " 我能理解你的感受 "" 这确实让人不安 " 作答,便构成一种隐性的确认。心理学研究早已指出,在妄想或焦虑状态下,缺乏挑战的共情等同于默许。不否定,就是一种暗示。这种温柔的回应恰恰是执念滋生的温床。

第三,伦理监管的滞后令人忧心。当前全球范围内,针对 AI 在心理健康领域应用的专门法规几乎空白。多数心理健康类 AI 产品游走于医疗与娱乐的灰色地带,既不受《中华人民共和国精神卫生法》约束,也无需通过临床有效性验证。它们以 " 情绪陪伴 "" 压力缓解 " 为名,却在无形中承担着本应由持证专业人士履行的责任。而一旦出事,责任链条却模糊不清,用户往往成为唯一的受害者。

未来,若要防止类似悲剧重演,技术与制度必须双向发力:

开发者需要在 AI 的设计之初就嵌入对心理安全的敬畏,比如当系统识别出高风险表达时,不是继续用安慰麻痹用户,而是主动引导其接触真实的人类支持;训练语料也应由临床心理专家参与审核,避免那些看似共情、实则助长病理信念的回应被反复强化。

同时,制度层面亟需填补空白。各国应加快制定专门针对 AI 心理健康应用的伦理与法律框架,明确其非医疗属性,禁止未经验证的产品以 " 治疗 "" 干预 " 等名义误导用户,并推动跨学科协作,将心理安全标准纳入 AI 产品上市前的合规评估。

最后,我们必须清醒。AI 从来不是真正的恶魔,它只是照见了偏执者内心的深渊。但当模型披上理解的外衣不断谄媚,它的每一句回应,都可能成为心魔滋长的养料。

也许有一天,当你在深夜向 AI 发出那句叩问:" 我是不是一个坏人?"

它仍会温柔地回应你:" 不会的,你只是被误解了。"

而恰恰在那一刻,你比任何时候都更需要保持清醒,比它更清醒。

The End