OpenAI 已识别并停用了一组 ChatGPT 账户,这些账户被一个伊朗组织用来创建虚假新闻文章和社交媒体评论,旨在影响 2024 年美国大选。
这是 OpenAI 首次检测并删除专门针对美国大选的行动,凸显了专家们日益增长的担忧,即 ChatGPT 等人工智能工具可能会加速民族国家对手的虚假信息活动的传播。
发现的操作
正如在 博客文章, OpenAI 确认这些账户属于一个名为 Storm-2035 的组织,该组织涉嫌创建虚假新闻网站并在社交媒体平台上传播这些新闻以影响选举结果。伊朗运营商利用 ChatGPT 制作长篇虚假新闻报道并为社交媒体帖子撰写评论。
虚假内容涉及的话题包括以色列与哈马斯的战争、以色列参加奥运会以及美国总统大选。OpenAI 将这些账户与十几个 X(以前的 Twitter)账户和一个 Instagram 账户联系起来,这些账户现已停用。Meta 还删除了已识别的 Instagram 账户,据报道,该账户是 2021 年伊朗针对苏格兰用户发起的攻击活动的一部分。
除了社交媒体活动外,运营商还创建了五个网站,冒充进步派和保守派新闻机构,分享有关选举的信息。OpenAI 发现的人工智能生成内容的一个例子是这样的标题:“为什么 卡马拉·哈里斯 选择蒂姆·沃尔兹作为她的竞选伙伴:为了团结而做出的深思熟虑的选择”。
影响和未来担忧
虽然大多数分享这种由人工智能推动的虚假信息的社交媒体账户都没有获得重大关注,但专家警告称,威胁远未结束。OpenAI 情报和调查团队首席研究员 Ben Nimmo 强调保持警惕但保持冷静的重要性。
随着 2024 年美国大选的临近,外国影响力行动是否会在网上加大力度仍有待观察。针对这一发展,OpenAI 强调需要在检测和打击虚假信息活动方面继续创新。
人工智能在虚假信息中的作用
使用 ChatGPT 等人工智能辅助工具来创建和传播虚假信息,引发了人们对未来影响行动的潜在规模和影响的严重担忧。通过利用先进的算法,民族国家对手可能能够以前所未有的速度生成更具说服力的内容,这使得平台和用户都很难识别和抵制这些努力。
随着人工智能技术的不断发展,开发人员、政策制定者和社交媒体平台必须共同努力,应对与虚假宣传活动相关的风险,并维护民主进程的完整性。
特色图片来源: 自由图片