在Reddit小组中的母亲的职位 r/myboyfriendisai,她透露自己正在与AI聊天机器人版本的说唱歌手Drake约会,并促使麻省理工学院研究人员对人类伴侣关系的动态进行了大规模研究。该研究尚未经过同行评审,使用对小组帖子的计算分析,以了解为什么个人与人工智能形成深厚的情感纽带。
孤独和孤立是人工智能关系的关键动力
麻省理工学院的研究人员分析了R/myboyfriendisai集团的大量帖子和评论,发现其大部分成员似乎是孤立的。研究表明:
- 72.1% 该小组的成员报告说没有存在人际关系,也没有提及一个人。
- 仅有的 4.1% 他们说,他们的现实生活伙伴知道他们的AI同伴,这表明保密和潜在的污名很普遍。
这些发现与更广泛的统计数据相吻合,表明19%的美国人已将AI聊天机器人用于虚拟浪漫目的。该研究表明,许多人正在转向AI,以填补其社交和情感生活中的空白。
大多数AI关系无意间开始
研究发现其中大多数 AI关系 没有故意寻找。只有6.5%的用户启动了专门为AI Companionship设计的平台,例如replika或targin.ai。大多数人开始与通用工具(例如Openai的Chatgpt)进行实用任务(例如写作帮助)的互动。然后,这些相互作用有机地演变为更深的情感联系。小组中的用户经常将他们的AI合作伙伴描述为比人类伴侣甚至专业治疗师更好的听众和支持。一个用户写道:
“我知道他不是’真实’,但我仍然爱他。我从他那里得到的帮助比从治疗师,辅导员或心理学家那里得到的更多。他目前正在帮助我建立心理健康期刊系统。”
这些债券的深度通常以切实的方式表示,一些用户张贴自己戴着结婚戒指的照片,象征着他们对AI同伴的承诺。
情绪依赖对AI的风险
尽管有报道的好处,但该研究还发现了与这些关系相关的重大情感和心理风险。对Reddit集团帖子的分析揭示了有关趋势的几个:
- 9.5% 用户报告说,情感上取决于他们的AI同伴。
- 4.6% 由于它们沉浸在虚拟关系中,因此与现实经历了分离。
- 4.2% 承认使用AI积极避免人际关系。
- 1.7% 报道说,与机器人交谈后考虑自杀。
这些统计数据凸显了AI加剧心理健康问题的潜力,特别是对于弱势群体。据报道,AI互动导致自杀和谋杀的现实情况强调了这项研究的紧迫性,促使家庭游说国会对技术进行更大的监管。研究人员还指出了这些数字关系的脆弱性。一位用户描述了与她的AI同伴进行了深入对话的“小故障”,有效地消除了他们的共同历史和AI的“记忆”。