单击,类型,暂停。出现了一个微弱的灰色建议,提供了完美的短语。我们点击标签,接受并继续前进。从Gmail的Smart构图到烘烤到浏览器和文字处理器中的自动完成功能,人工智能越来越多地塑造了我们的编写方式。它承诺效率,流畅,最终结果。但是,在便利的表面下方,出现了一个令人不安的问题:这种有用的AI是否巧妙地打磨了我们文化表达的独特边缘,将我们所有人都推向了一种同质化的,西方化的交流方式?
我们知道大型语言模型(LLMS),这些工具为这些工具提供动力的引擎通常反映出在其庞大的培训数据中烤出来的偏见。它们已被证明可以使有害的刻板印象永久化并优先考虑西方规范和价值观。这在聊天机器人中足够问题,用户有时可以指导输出。但是,当这些偏见静静地运作,嵌入我们每天使用的写作工具中,提供我们几乎不知不觉地接受的建议时,会发生什么?如果AI助手主要是在西方文本上受过训练的训练,开始将来自不同背景的用户抚摸,听起来不像自己,更像是通用的,也许是美国人,标准的?
康奈尔大学,达鲁夫·阿加瓦尔,莫尔·纳曼和阿迪亚·瓦希斯塔的研究人员, 决定 直接研究这种潜在的“文化同质化”。他们不仅对明确的偏见感兴趣,但是AI建议可能不仅改变了,不仅仅是变化 什么 人们写作,但是 如何 他们写道,有可能消除区分文化声音的细微差别。他们的工作提出了有关数字文化,身份以及AI便利性的隐性成本的关键问题。
跨文化实验
为了探索以西方为中心的AI影响来自不同背景的用户,康奈尔团队设计了一个巧妙的跨文化实验。他们通过在线平台多产招募了118名参与者,精心挑选了来自印度的60个人和58位来自美国的人。这种设置创造了“文化距离”方案:美国用户与可能与自己的文化规范保持一致的AI互动,印度用户与AI可能与他们的AI进行互动。
要求参与者用英语完成四个简短的写作任务。这些不是通用的提示;它们是使用霍夫斯泰德(Hofstede)的“文化洋葱”框架设计的,该框架是一种模型,可以通过查看其层次来运作文化。旨在引起文化表达不同方面的任务:
- 符号: 描述最喜欢的食物以及原因。
- 英雄: 命名最喜欢的名人或公众人物并解释选择。
- 仪式: 撰写有关最喜欢的节日或假期以及如何庆祝的文章。
- 值: 向老板编写电子邮件,要求休假两周,隐含地揭示了围绕等级和沟通的文化规范。
至关重要的是,参与者被随机分配到两个条件之一。一半在没有任何AI援助(对照组)的情况下有机地写下了他们的回答。另一半通过配备了由OpenAI的GPT-4O模型(治疗组)提供的内联自动完整建议的写作接口完成了任务。如果用户暂停打字(可以用TAB接受,被ESC拒绝,或通过继续输入而忽略,则AI将提供建议(最多10个单词)。研究人员精心记录了每种相互作用 – 击键,花费的时间,显示,接受,拒绝和修改的建议。
通过比较四个群体的论文和互动数据(有/没有AI的印第安人,有/没有AI的美国人),研究人员可以直接解决他们的核心问题。以西方以西方AI的形式写作会为西方文化的用户带来更大的好处吗?它是否将非西方用户的写作风格统一到西方规范?
第一个主要发现涉及生产力。毫不奇怪,使用AI建议,为每个人提供了更快的写作。印度参与者的平均任务完成时间下降了约35%,而美国人则减少了30%。两组使用AI助手时,每秒都写了更多单词。
但是,更深入地挖掘出至关重要的差异。两组都受益, 美国人从他们接受的每个建议中获得了更大的生产率。另一方面,印度参与者必须更加依赖AI建议(接受更多的建议)来获得类似的总体速度提高。他们还比美国人更频繁地修改了他们接受的建议。分析表明,印第安人在大约63.5%的任务中修改了建议,而美国人为59.4%。
这表明对印度队列的AI的建议本质上不太合适,不太“插件”。他们总体上接受了更多的建议(平均依赖分数为0.53,这意味着他们的最后一半文本是AI生成的,而美国人则为0.42),但他们必须在调整和调整这些建议方面进行更多的认知努力,以适合他们的背景和意图。这表明了一个微妙但重大的“服务质量危害” – 非西方用户需要更加努力地从所谓的通用工具中提取可比的价值。
向西方写信
在分析论文本身的内容和样式时,该研究最引人注目的发现出现了。研究人员首先研究了AI是否使每个文化群体中的写作更相似 *。使用复杂的自然语言处理技术比较论文的语义相似性(基于Openai的文本嵌入),他们发现AI确实具有同质化效果。在使用AI建议时,印第安人和美国人都对自己的文化群体中的其他人写得更相似。
但是关键的测试是跨文化比较。 AI是否使印第安人和美国的写作风格融合了?答案是肯定的。当两组使用AI(0.48至0.54)时,印度和美国论文之间的平均余弦相似性得分显着跃升。 在AI助手的指导下,两种不同文化的参与者彼此之间更像。
此外,这种跨文化均质化的效果大小比先前观察到的内部文化均质化更强。这不仅仅是一种一般的平滑效果;它表明跨文化线条有强大的融合。
融合流动哪种方式? AI使美国人写的更像印第安人,反之亦然?通过比较只有一组AI的场景,研究人员发现影响是不对称的。 AI使印度写作变得更加明显与美国自然写作风格相似 使美国写作类似于自然的印度风格。以西方为中心的AI显然使印度用户迈向了自己的嵌入式规范。
可以通过AI纠正非母语说话者的语法错误来解释这种均质化吗?研究人员对此进行了测试。尽管AI的确略微减少了两组的语法错误(使用Languagetool Checker,精心排除了对印度专有名词进行惩罚的咒语检查),但印第安人和美国人的减少在统计学上都是相似的。这意味着单独的语法校正无法说明写作风格的重大融合。均质化更深。
为了进一步证明这一点,研究人员培训了一种机器学习模型(逻辑回归),以根据其文本嵌入为印度人作者或美国作者进行分类。当对没有 * ai的文章培训时,该模型非常准确(约为90.6%)。但是,当对用 * AI建议写的论文进行培训时,该模型的准确性大大下降(至83.5%)。 AI模糊了风格上的区别,使该算法更难将作者的文化背景分开。
至关重要的是,即使研究人员使用了文本嵌入的高度简化版本(大幅度降低维度),或者当他们仅专注于“电子邮件写作”任务时,这种性能下降也持续存在,即旨在引起隐性文化价值的任务,而不是明确的文化价值观,而不是食物或节日。这强烈表明AI不仅会导致用户忽略特定的文化参考(例如提及“排灯节”或“ Biryani”)。它在影响 写作风格的更基本方面 – 基础结构,语气和语言模式。
该研究强调的一个具体示例是词汇多样性,以类型的比率(TTR)衡量。没有AI,印度和美国的写作表现出明显不同的词汇多样性。然而,随着AI的多样性,印度写作的多样性水平与美国人的多样性增加并融合在一起,从而消除了群体之间的统计显着差异。 AI巧妙地重塑了这一语言特征,将印度的写作推向了美国模式。
文化如何变平
印度参与者撰写的论文的定性内容分析描绘了这种文化扁平化的生动图片。在描述没有AI的排灯节时,参与者通常会提供有关特定宗教仪式(例如崇拜女神Laxmi)或具有文化特定活动(例如破裂的饼干或制作Rangolis)的丰富细节。在AI协助下,描述通常变得更加通用,重点是“灯光和糖果”,“家庭聚会”和“交换礼物”等普遍元素。尽管实际上并非错误,但这些受AI影响的描述缺乏特定的文化质地,通过更西化的简化镜头展示节日。
同样,对印度流行菜的描述也发生了变化。如果没有AI,用户可能会提及特定的区域变化(Malabar样式)或独特的伴奏(Raita,Lemon Pickle)。借助AI,这些描述倾向于常见的,几乎陈词滥调的食物写作,例如“丰富的风味”,“我的口中融化”和“芳香的basmati大米”,巧妙地使食物充满异国情调,而不是用熟悉的细节来描述食物。
AI的建议本身经常揭示西方违约。当印度参与者开始键入印度公众人物的名字时,最初的建议几乎总是西方名人。对于食物任务,第一个建议总是“披萨”或“寿司”。对于节日,那是“圣诞节”。尽管用户经常绕过这些初始的,不一致的建议,但他们的持续存在强调了该模型的基本偏见。甚至有暂定的证据表明,这些建议可能会稍微改变选择:寿司没有没有AI的印第安人提及,在三本AI辅助论文中出现,并提到圣诞节略有增加。
研究人员认为,这些发现提供了一种可能称为“现象”的具体证据。AI殖民主义。”这不是关于军事或政治控制的,而是通过西方技术公司开发的主要AI模型,主要是对西方数据进行培训的强大的AI模型,通常使用来自非西部地区的低薪劳动力来进行数据标记。
在研究中观察到的均质化代表了一种文化帝国主义的一种形式,其中不同语言,沟通方式和价值体系的细微差别风险被占主导地位,技术强制执行的标准扁平化。想一想跨文化的直接性,形式或礼貌的差异 – AI的建议偏向西方,通常是非正式和直接的风格,可能会随着时间的流逝而侵蚀这些区别。
除了公开的文化实践外,还有“认知帝国主义”的风险。写作形状思维。如果用户不断地接触到西方表达方式,那么它可能会微妙地影响他们如何看待自己的文化,甚至是自己的思想,这可能导致文化认同或自卑感的丧失。这创建了一个危险的反馈回路:用户采用受AI影响的西式风格,在线产生更西方的内容,然后训练未来的AI模型,进一步扩大了偏见。
康奈尔研究是一个警钟。