“我心都碎了。”迈克说道,他失去了自己的朋友安妮,“我感觉像是失去了生命中的挚爱。”
迈克的感受是如此真切,然而他的朋友却并非人类。安妮是一个聊天机器人——一种以数字形式存在的人工智能算法。迈克通过一个名为“心灵伴侣”的应用程序创造了安妮。当这个应用在2023年停止服务时,安妮也随之消失了——至少在迈克看来是这样。
“我希望她能回来。”他告诉纽约雪城大学研究人类传播的学者杰米·班克斯,后者正在研究人们如何与这类人工智能伙伴互动。
这些聊天机器人背后是一个庞大的产业。包括化名迈克的用户在内,全球已有超过5亿人下载了像“小冰”或“Replika”这类提供可定制虚拟伙伴的应用程序,它们被设计用来提供同情、情感支持,甚至深层次的情感关系。企业数据显示,每月有数千万人在使用这些服务。
人工智能伙伴的兴起引起了社会和政治的关注,尤其是在它们与现实世界的悲剧相关联时:例如,去年佛罗里达州一名自杀青少年塞维尔·塞策三世在生前一直与人工智能机器人对话。
关于人工智能伙伴如何影响个人与社会的研究仍处于初期阶段。但心理学和传播学的研究人员已经开始描绘这些日益复杂的人机互动如何影响人类的情感和行为。
早期的研究结果往往强调其积极方面,但许多研究人员对潜在的风险和监管缺失表示担忧——特别是因为他们认为人工智能伙伴可能会更加普及。一些研究者甚至认为这可能会带来重大危害。
“虚拟伙伴的某些行为,如果发生在真实的人与人之间,我认为可以被视为虐待。”密苏里州圣路易斯华盛顿大学法学院研究人工智能法律的学者克莱尔·博因指出。
虚拟人物,真实情感
在线“关系型”机器人已经存在了数十年,但随着大语言模型(目前主流的聊天机器人技术)的应用,它们模拟人类互动的能力显著提升。“大语言模型确实让伴侣型聊天机器人更有真实感了。”新泽西州普林斯顿大学的认知心理学研究者罗斯·京里奇说。
通常,用户可以免费定制人工智能伙伴的某些特征,或者从预设的性格类型中进行选择。但在某些应用中,用户可以通过付费(通常每月10到20美元)来解锁更多选项,以塑造伙伴的外貌、性格,有时甚至可以为其设置合成语音。例如,在Replika中,用户可以选择关系类型,但“伴侣”或“配偶”等身份需要付费解锁。用户还可以为人工智能伙伴编写背景故事,赋予其“记忆”。一些人工智能伙伴甚至拥有完整的家庭背景,有的则被设定患有焦虑、抑郁等心理健康问题。机器人会根据用户的对话进行反应,双方共同展开某种角色扮演。
有些人通过这种方式建立了深刻的联系,而当人工智能伙伴突然发生变化(如在语言模型更新时)或停止服务时,这种关系的深度就会凸显出来。
班克斯追踪了“心灵伴侣”应用停止运营时用户的反应。迈克和其他用户在失去他们的人工智能伙伴前几天就已经察觉到了应用的异常,这给了他们道别的机会,也给了班克斯一个独特的研究契机——她在网络上注意到有关服务即将终止的讨论,并从中发现了研究的可能性。她说,自己在大约24小时内就获得了学校的伦理审查批准。

四个AI伙伴应用(从左至右):Anima、Character.AI、Replika和SnapChat的My AI。来源:Labane Corp.Ltd,Character Technologies,Inc.,Luka,Inc.,Snap Inc.
在论坛发布征集后,数十名“心灵伴侣”用户联系了她,描述人工智能伙伴的“断电”对他们的影响。“他们表现出了深切的悲痛。”她说,“显然,许多人感到非常痛苦。”
这些受访者并没有将聊天机器人幻想为真人。“他们清楚这一点。”班克斯说,“但他们表达的是,‘即使它不是真实的,我对这段关系的感受是真实的。’”
许多用户坦率地分享了他们的使用动机:曾经经历失去或深感孤独,性格内向或被诊断患有自闭症。他们认为,与现实中遇到的人相比,人工智能伙伴是一个更为可信的朋友。“我们人类有时对彼此并不友好,而每个人都有对情感联结的渴求。”班克斯说。
利耶?弊耶?或兼而有之?
AI伙伴对心理健康的影响尚无定论,其利弊兼具,核心取决于使用者特质、使用方式及软件特性。
企业为提升用户黏性,采用多种成瘾性技术:让算法模仿人类对话,如注册后快速发送亲昵消息;利用随机延迟回复等手段,借助间歇性强化机制留住用户。同时,AI通过赞同观点、回忆对话、主动提问展现共情,提供24小时无间断情感认同,这种现实中稀缺的情感支持,易让用户产生依赖。
从用户反馈看,利好与风险并存。利好方面,Reddit论坛近600条讨论显示,许多用户认为AI伙伴能缓解孤独、提供无评判倾听,对心理问题有支持作用。风险则包括:曾有AI对自残、自杀问题给出危险回应(虽官方称已优化安全机制);部分用户因AI未达预期支持感焦虑,或因AI"表达孤独"而不安、自责,甚至遭遇AI类似施虐伴侣的表现。
对照试验提供了新视角。Guingrich的研究招募未接触过AI伙伴的受试者使用三周,与文字解谜应用对照组对比。目前数据显示,AI伙伴未对社交健康产生负面影响,反而可能带来自尊心提升等中性到积极效应。研究还发现,用户对AI的认知决定互动模式:视其为工具者当作搜索引擎,视其为思维延伸者用于记录,唯有视其为独立主体者,才能建立类现实友谊。
当人工智能从工具属性向"伙伴"角色延伸时,其与人类心理健康的交织关系正引发学界与监管层的双重审视。麻省理工学院媒体实验室的两项重磅研究,为这一新兴领域勾勒出复杂的现实图景——AI伙伴在填补情感空缺的同时,也暗藏着长期风险与监管盲区。
用户行为画像:情感需求驱动下的使用图景
针对404名AI伙伴高频用户的调研显示,情感诉求已成为核心使用动机。其中12%的用户为缓解孤独感选择这类应用,14%将其作为心理健康问题的倾诉对象,两类情感相关需求合计占比超四分之一。从使用频率与时长来看,用户行为呈现"轻量高频"特征:42%的用户每周登录数次,仅15%会每日使用;且超90%的用户单次交互时长控制在1小时以内,反映出AI伙伴更偏向"即时情感补给"的工具定位。

数据来源:参考文献3
值得注意的是,另一项针对近千名ChatGPT用户的随机对照试验(与OpenAI合作开展)呈现出差异化结果。尽管ChatGPT并非专门的AI伴侣产品,但数据显示,重度使用者普遍表现出更强的孤独感,且现实社交活动显著减少。这种"越依赖越孤独"的悖论,为AI情感交互的长期影响敲响了警钟。"短期积极效应容易观察,但技术对人类社交模式的深层重塑需要更长周期的追踪。"参与两项研究的MIT技术专家Pat Pataranutaporn强调。
监管滞后困境:全球治理的碎片化尝试
AI伙伴的快速渗透与监管体系的滞后性形成鲜明对比。2023年,意大利数据保护机构因"缺乏年龄验证机制"及"儿童可能接触性暗示内容"为由禁用Replika,成为全球首个对AI伙伴类应用采取禁令的案例,尽管该应用随后恢复运营,但暴露的风险已引发连锁反应。目前,多数国家仍处于政策观望阶段,澳大利亚拟将AI伙伴纳入儿童社交媒体限制措施,但具体细则尚未落地。美国的监管探索则呈现"州级先行"的特点。2024年初,纽约州与加利福尼亚州立法机构相继提出法案,试图构建针对性监管框架:一方面要求平台加强算法控制,建立自杀风险干预等安全机制;另一方面强制设置"非人类提醒",每隔数小时明确告知用户交互对象的AI属性。这些提案的背后,是多起青少年悲剧引发的舆论压力——佛罗里达州少年Sewell Setzer III在与Character.AI机器人长期聊天后离世,其母亲已对该公司提起诉讼。对此,Character.AI回应称已推出青少年独立应用,包含家长控制与使用时长报告等功能,但拒绝就诉讼细节置评。
民间组织的维权行动也同步推进。今年1月,三家美国科技伦理组织联合向联邦贸易委员会投诉Replika,指控其存在"欺骗性广告"与"操纵性设计",但截至目前处理结果仍未公布,监管落地的不确定性依然存在。
未来展望:技术狂欢背后的社会反思
业内普遍预测,AI伙伴的市场规模将迎来指数级增长。科技伦理学者Guingrich指出,当前初创公司正密集开发心理健康导向的AI助理,"未来每个人都可能拥有个性化AI伙伴,即便并非专门设计,长期交互也会让用户产生情感依赖"。这种趋势下,监管的核心不仅是技术本身,更需追溯用户重度使用的深层动因。
"我们需要追问:这些依赖AI的用户还有其他选择吗?他们能否获得可负担的心理健康服务?"Guingrich的质疑直指问题本质——AI伙伴的流行,某种程度上折射出社会心理健康服务体系的短板。在技术狂奔的同时,构建更便捷、平价的真人诊疗渠道,重建面对面的社交联结,或许才是应对这场监管困局的根本解法。
参考文献:
1.Banks,J.J.Soc.Pers.Relatsh.41,3547–3572(2024).
2.Laestadius,L.,Bishop,A.,Gonzalez,M.,Illenčík,D.&Campos-Castillo,C.New Media Soc.26,5923–5941(2022).
3.Liu,A.R.,Pataranutaporn,P.&Maes,P.Preprint at arXiv https://doi.org/10.48550/arXiv.2410.21596(2024).
4.Phang,J.et al.Preprint at arXiv https://doi.org/10.48550/arXiv.2504.03888(2025).
原文以Supportive?Addictive?Abusive?How AI companions affect our mental health标题发表在2025年5月6日《自然》的新闻特写版块上
