一项新研究发表于 自然人类行为 这项研究挑战了普遍的假设,即生成式人工智能在不同语言中表现一致,而是揭示了大型语言模型(LLM)表现出不同的文化倾向,具体取决于它们是用英语还是中文提示。研究人员 Jackson G. Lu 和 Lu Doris Zhang 检查了 OpenAI 的 GPT 和百度的 ERNIE 这两个主要模型,发现提示语言有效地切换了 AI 的“文化个性”,影响其解释信息、评估选项和制定战略建议的方式。
该研究利用文化心理学的框架来衡量两个主要结构:社会取向和认知风格。当用英语提示时,两种模型都表现出“独立”的社会取向,重视自治和自我指导,以及“分析”的认知风格,其特点是依赖形式逻辑和基于规则的推理。相反,当用中文提示时,模型转向强调社会和谐和整合的“相互依存”方向,以及优先考虑背景和关系而不是焦点对象的“整体”认知风格。
这些差异体现在实际业务场景中。例如,当被要求解释一个人的行为时,英语提示会让人工智能将行为归因于个人的性格,而中文提示则导致基于社会背景的归因。在营销任务中,模型在用英语询问时更喜欢强调个人福祉的口号,但在用中文询问时更喜欢强调集体福祉的口号。该研究指出,简单地将英语生成的营销活动翻译成中国市场可能会导致文化不匹配,从而导致信息传递失败。
然而,研究人员发现这些偏见并不是一成不变的。通过使用“文化提示”——例如明确指示人工智能采用生活在中国的普通人的观点——用户可以重新校准模型的英语反应,以模仿中国反应中常见的相互依存和整体模式。为了管理这些隐藏的偏见,作者建议组织领导者将语言选择视为一项战略决策,使提示语言与目标受众的文化背景保持一致,并利用文化角色提示来引导人工智能的推理以获得更合适的见解。





