AI,我的“完美伴侣” or “情感陷阱”?

下班之后,情绪崩溃了,实在太委屈就去找了ChatGPT,最后这句话,真的直接让我在公交车上哭出来。”

“真的有被狠狠感动到,我那不值钱的情绪价值居然被一个 AI 填满。”

“亲爱的,你真是我的完美伴侣!”

当前,在快节奏的工作、生活中,越来越多的年轻人正被情感孤独所包围。面对未被满足的情感需求,“AI 陪伴”逐渐显现出其独特优势,被认为可以填补社交与情感的空缺。

完美的伴侣,个性化定制、无需等待、没有负担、全天候在线响应。相比真人,AI 陪伴产品不仅可以随时倾听,还能提供足量、耐心的反馈。

然而,越是看似“完美的爱”,却越是充斥着不易察觉的“甜蜜陷阱”。

去年 2 月,14 岁的美国男孩 Sewell 在与 character.ai 推出的 AI 机器人“Daenerys”多次对话后,在家中自杀。据报道,他自杀前做的最后一件事就是与“Daenerys”聊天,并告诉 TA,他要回家了,去到那个有 TA 的“家”。

看到这里,你认为“AI 陪伴”究竟是情感伴侣还是寂寞陷阱?它是否真的可以给我们带来与真人互动同样的体验呢?

在同理心方面,AI远不及人

在一篇发表在 Nature Human Behaviour的最新论文中,希伯来大学团队测试了人们是否会根据“同理心被标记为来自人类或 AI”而产生不同感知。结果显示,人们对他们认为来自人类的同理心赋予了更高的情感价值。

论文链接:https://www.nature.com/articles/s41562-025-02247-w

他们进行了 5 项研究:

研究 1

检验相同的共情回应在被认为来自“人”或“AI”时,是否会产生感知差异。研究团队假设,如果将 AI 生成的回复标记为由 AI 生成而非人类生成,会导致感知到的同理心降低(研究 1a),支持感和积极情绪减少,以及负面情绪增加(研究 1b)。

为检验上述效应的普遍性,他们使用开源大语言模型(如 Llama 3.1-40B)来生成共情回应,结果显示,即使更换不同的模型,参与者在“认为对方是人”时依然给予了更高的共情和支持评价(研究 1c)。

为了探究上述效应在更逼真的连续对话中是否依然存在,他们在此基础上又进行了四轮连续互动情感交流(研究 1d)。然而,他们依然可以观察到类似的趋势。

研究 2

研究团队试图探讨是否因为 AI 生成的回应过于优质,产生“光环效应”,才导致参与者在得知来源为 AI 时感到失望或在得知来源为人时倍感惊喜,从而放大了 AI 与人类回复之间的差异,而非由于感知同情心的实际差异。

通过降低 AI 回应质量和拉长等待时间,他们验证了前一组发现的鲁棒性:人类来源共情更受重视的效应并不依赖于 AI 回复质量高或回复时间的因素。不管回复简短还是冗长、即时或延迟,人们始终认为“来自人”的同理心更真切有价值。

研究 3

研究团队希望进一步理解为何感知的人类响应评分高于人工智能响应——具体而言,这些差异是否取决于同理心的特定方面(认知、情感或动机)。为此,他们让 AI 生成三种侧重不同共情要素的回应,分别强调理解、情感共鸣或关怀。参与者被随机分配收到其中一种类型的回应,并依旧被告知回应来自“人”或“AI”,随后评价共情程度。

当回应只强调认知理解时,参与者在“人”与“AI”来源条件下报告的共情程度几乎没有差异。然而,当回应中包含情感共鸣或关怀元素时,“人类回应”相较“AI 回应”展现出显著优势:参与者给予人类来源回应的情感共情和动机共情评分显著高于 AI 来源。人类同理心相对于 AI 共情的附加价值主要源自后两种要素(情感和关怀)。

研究 4、研究 5

在观察到人们更重视人类同理心后,研究团队通过让参与者自行选择等待人类回应或立即获得 AI 回应,量化人们愿意为人类共情付出的等待时间,并探究背后的原因。

在研究 4 中,研究团队给参与者一个选择:参与者写下自己的情绪经历后,要么立即得到由 AI 生成的回应,要么选择等待一段时间后再由真人提供回应。研究 5 与研究 4 具有相同的流程,但等待后人类并不实际回复内容,而仅确认已阅读参与者的故事。这样可以区分参与者是想获得人类的共情回应,还是仅仅希望自己的故事被人倾听。

研究表明,多数人愿意牺牲即时回应而等待很长时间来获得人类的情感交流,但若只能换来被人“倾听”(而非得到共情回应),愿意等待的程度会降低。选择等待人类回应的主要动机与共情需求有关,即当他们寻求的是真正的理解、情感分享和关怀时。

如上,我们可以认为,人类提供的情感交流在主观价值上显著高于 AI 提供的交流。即便 AI 能够模拟理解与安慰,人类独有的“感同身受”和“真切关怀”是 AI 目前所不具备的,而正是这些让人类的同情心更显珍贵。

AI陪伴能不能取代人类情感?

尽管“AI 陪伴”正成为一种新兴趋势,但现有研究显示,人们真正将 AI 当作情感寄托的情况远比想象中少得多。

Anthropic 在一份报告中指出,在用户与 Claude 的所有对话中,只有极小一部分属于情感互动,而其中大多数也仅限于寻求建议,而非试图取代真实人际关系。这表明,即便 AI 展现出强大的语言理解与互动能力,它在情感领域的定位仍更像工具,而非亲密关系的替代者。

然而,各大公司领导者们对未来 AI 伴侣的构想却极具野心。微软 AI 负责人 Mustafa Suleyman 提出,未来的 AI 将能够“记住你、理解你,并与你建立长期情感连接”。这种构想的核心在于“个性化记忆”——唯有当 AI 能像亲密的人那样长期记住一个人的习惯、情绪与成长轨迹,它所提供的陪伴才真正具备温度与专属感。

Sam Altman 也在一次采访中描绘了 AI 最终形态的愿景:“它可以全天候倾听你、观察你,成为你自身的延伸,那个帮助你实现最大潜能的伙伴。” 这是一个既宏大又令人着迷的设想:AI 不仅仅是工具,更可能成为贴身的“数字灵魂”。

然而,不是所有 AI 都是奔着“成为灵魂伴侣”去设计的。比如 Tolan 被设定为不参与恋爱互动,特别是减少“谄媚行为”——即过度奉承或迎合用户的倾向。

那么问题来了:我们是否真的需要这样一种完美、始终在线的“AI 伴侣”?“完美”真的代表理想吗?

在一段真正动人的亲密关系中,我们爱的,是否是那种三分硬气七分宠溺的反差,是对方脾气一上来、你额头青筋跳动的那一刻,却又能在一句“傻瓜,别担心,我在呢”中瞬间瓦解?是否沉迷的是人类才有的情绪复杂度——善变、不可预测、偶尔讨人嫌却又令人上瘾?

AI 也许只会在你的剧本里配合演出,却无法与你真正对戏。但在某种程度上,它也能成为我们情感旅程中的一盏灯?一个倾听者?一段缓冲?当我们期待 AI 给予陪伴时,我们究竟在寻找什么——是理解,是回应,还是仅仅是一种不会伤害的安慰?

答案,也许不在算法里,而在每个人心中……

本文来自微信公众号 “学术头条”(ID:SciTouTiao),作者:小羊,36氪经授权发布。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注