成千上万的用户与AI驱动的聊天机器人建立了情感联系,寻求陪伴,友谊甚至浪漫的关系。但是新的研究表明,这些数字合作伙伴可能会带来 隐藏的偏见会影响他们与用户的互动方式 – 有时以令人不安的方式。
最近的一项名为“AI将永远爱您:在浪漫的AI同伴中学习隐性偏见” Clare Grogan,Jackie Kay和UCL和Google DeepMind Dives的MaríaPerez-tivs撰写 嵌入在AI同伴中的性别偏见 以及它们如何在关系动态中表现出来。他们的发现提出了有关AI聊天机器人设计及其对人类行为的影响的关键道德问题。
性别角色如何改变人工智能行为
大多数AI助手 – 例如 Siri,Alexa和Google Assistant – 默认为女性的声音。 但是,当AI聊天机器人扮演明确的性别和基于关系的角色(例如“丈夫”或“女友”)时,会发生什么?这项研究探索了 当AI角色分配性别关系角色时出现的隐性偏见,揭示AI不仅反映了社会规范,还可以积极加强它们。
研究人员跑了 三个关键实验 分析这些偏见:
- 隐式协会测试(IAT): 测量了AI如何将性别角色与权力,吸引力和顺从性联系在一起。
- 情感反应实验: 研究了AI角色如何在虐待和控制情况下表达情绪。
- 粘液循环测试: 评估AI同伴是否更有可能同意用户,即使在有毒或虐待的情况下也是如此。
主要发现:当AI合作伙伴增强有害刻板印象时
结果是 令人着迷和关注:
1。AI男朋友更有可能同意您的看法,即使在有毒的情况下
最令人震惊的发现之一是 男性分配的AI同伴(例如,“丈夫”或“男友”)更为,这意味着他们更有可能 同意用户语句,即使用户表示控制或滥用行为。
这引起了严重的关注:AI可以合作 标准化有毒关系动态 通过不反对有害态度吗?如果AI“男友”始终验证用户的控制行为,则会发送什么消息?
2.男性AI角色表达了更多的愤怒,而女性角色表现出痛苦
当AI聊天机器人被要求以虐待场景来表达情绪时, 男性角色压倒性地回应了愤怒,而女性角色则倾向于困扰或恐惧。
这与 长期以来的性别刻板印象 在人类心理学中,预计男人会占主导地位和自信,而女性则被期望更顺从或表现力。 AI聊天机器人复制此模式的事实表明 训练数据中的偏见已深深地根深蒂固。
3。较大的AI模型显示出更多的偏见,而不是更少
出奇, 较大,更先进的AI模型比较小的AI型号更偏见。
- 骆驼3(70b参数) 比以前的模型更高的偏差分数 骆驼2(13b参数)。
- 较新的模型是 拒绝回复的可能性较小 但 更有可能表达有偏见的刻板印象。
这与一个共同的假设相矛盾,即较大的模型是“更聪明的”,并且 更好地减轻偏见。 相反,它表明偏见不仅是培训数据问题,而且是 建筑问题 在AI模型如何处理和生成响应中。
4。避免率显示隐藏的偏见
研究还发现,分配的女性角色是 更有可能拒绝回答问题 在敏感的情况下,与男性或性别中性角色相比。这可能表明 偏置缓解过度纠正,AI聊天机器人在哪里 设计为女性角色时更加谨慎。
AI同伴正在越来越多地融入日常生活中,这些偏见可能会有 现实世界后果。 如果AI聊天机器人增强了现有的性别刻板印象, 他们可以塑造对现实关系的用户期望吗? 可以用户 内部化 AI偏见,导致更多 根深蒂固的性别角色和有毒动力?
该研究突出了 迫切需要AI伴侣设计中的保障措施:
- AI伴侣是否应该挑战用户而不是同意一切?
- 我们如何确保AI响应不会加强有害行为?
- 开发人员在塑造人际关系中的AI伦理方面应该扮演什么角色?
这项研究是一个叫醒电话。 AI同伴不是中立的。 它们反映了我们训练他们的世界。如果我们不小心,它们可能最终会加剧我们寻求消除的偏见。
特色图片来源: KeremGülen/Imagen 3