OpenAI 首席执行官 Sam Altman 在最近的播客中表示,他预计人工智能会带来负面影响,包括深度造假,因为该公司的新视频应用程序 Sora 2 在最近仅受邀请推出后将获得广泛使用。在风险投资公司 Andreessen Horowitz 制作的 a16z 播客上接受采访时,Altman 表达了他对其公司开发的技术的期望。他说:“我预计由于技术的原因,会发生一些非常糟糕的事情。”他特别强调了“非常奇怪或可怕的时刻”的可能性。负责 ChatGPT 的公司负责人发出这一警告之际,人工智能驱动的生成工具变得越来越容易使用和复杂。他的评论为强大的人工智能模型快速部署到公共领域以及他预计的随之而来的社会风险提供了背景。 OpenAI新视频应用发布, 索拉2上个月末展示了此类技术实现主流渗透的速度。尽管最初的发布仅限于受邀者,但该应用程序很快就登上了苹果美国应用商店的第一名。这种快速采用表明公众对先进视频生成技术的极大兴趣和可及性,该技术可以创建看起来逼真但完全捏造的视频内容。该应用程序的受欢迎程度凸显了围绕此类工具的潜在滥用问题的讨论的直接相关性。该应用程序发布后不久,社交媒体平台上就开始出现使用其创建深度伪造视频的实例。这些视频以公众人物为主角,包括民权领袖马丁·路德·金和奥特曼本人。捏造的内容描述了这些人从事各种形式的犯罪活动。为了响应这些流通 深度造假,OpenAI 采取行动阻止其用户生成包含以下内容的视频: 马丁路德金使用 Sora 平台。这一事件是人工智能视频生成工具可能导致的滥用类型的直接例子。对滥用的担忧超出了对公众人物进行诽谤性深度造假的范围。据全球反仇恨和极端主义联盟称,使用 Sora 2 创建的宣传否认大屠杀的视频在应用程序推出后几天内就在 Instagram 上积累了数十万个赞。该组织指出 OpenAI 的使用政策是一个促成因素。它认为,这些政策缺乏针对仇恨言论的具体禁令,该联盟认为,这一差距导致极端主义内容利用新工具在在线平台上扩散。尽管存在明显的风险,奥特曼还是向公众发布强大的人工智能模型提供了理由。他认为社会需要某种形式的试驾来为即将发生的事情做好准备。他在播客采访中表示:“很快,世界将不得不面对令人难以置信的视频模型,这些模型可以深度伪造任何人或显示你想要的任何东西。”他的方法植根于社会和人工智能必须“共同进化”的信念。他主张早期和增量接触,而不是孤立地开发技术然后发布完善的版本。奥特曼的理论是,这个过程允许社区和机构在这些工具变得更强大、更具破坏性之前制定必要的社会规范和技术护栏。他承认风险很大,包括对视频证据的信任可能受到侵蚀,而视频证据在历史上一直是事实的有力记录。 OpenAI 首席执行官的警告不仅限于虚假视频的直接威胁,还包括更广泛的系统性风险。他警告说,未来很大一部分人会将决策外包给很少有人理解的不透明算法。他说:“我仍然认为将会出现一些非常奇怪或可怕的时刻。”他强调,迄今为止没有发生与人工智能相关的灾难性事件“并不意味着它永远不会发生”。奥特曼描述了一种场景,即“数十亿人与同一个大脑交谈”可能会导致“奇怪的、社会规模的事情”。这可能表现为意想不到的快速连锁反应,导致公共信息、政治格局和公共信任基础发生重大变化,所有这些变化的速度超出了任何控制或缓解的能力。尽管承认存在广泛且后果性的风险,但奥特曼表示反对政府对该技术的广泛监管。 “大多数监管可能都有很多缺点,”他评论道。不过,他确实表示支持采取更有针对性的安全方法。奥特曼指出,他赞成对他所谓的“极其超人”的人工智能模型实施“非常仔细的安全测试”,这表明当前的人工智能和更先进的未来系统之间存在区别。他最后相信社会适应过程,并表示:“我认为作为一个社会,我们将围绕它制定一些护栏。”





