OpenAI 推出了一款专门针对其广泛使用的图像生成器 DALL-E 生成的内容的检测工具。 然而,这家领先的人工智能初创公司承认,该工具仅代表有效打击先进合成媒体(通常称为深度伪造)传播所需资源的一小部分。
OpenAI 正在开发“深度换脸检测器”
据周二报道 纽约时报,OpenAI 宣布计划将这种新的 Deepfake 检测工具分发给一组选定的虚假信息研究人员。 这将使他们能够评估该工具在现实场景中的有效性并确定潜在的增强领域。
OpenAI 报告称,其新工具可以准确识别 98.8% 的图像 达尔-E 3,其图像生成器的最新迭代。 然而,该工具无法识别来自其他广泛使用的生成器(例如 Midjourney 和 Stability)的图像。 鉴于此的概率性质 深度造假检测 技术,达到完美是遥不可及的。 因此,OpenAI 与包括非营利组织和学术机构在内的其他各种组织一起,正在探索其他策略来应对这一挑战。
与 Google 和 Meta 等主要科技公司类似,OpenAI 已加入内容来源和真实性联盟的指导委员会(C2PA)。 该小组的目标是建立一个类似于数字内容“营养标签”的标准,该标准将详细说明图像、视频、音频剪辑和其他文件(包括人工智能更改的文件)的起源和修改。
OpenAI 还在开发在人工智能生成的音频中嵌入“水印”的技术,以方便立即识别。 该公司致力于确保这些水印不易被去除,从而增强合成内容的可追溯性。
该行业正受到越来越严格的审查,以负责任地管理其技术产出。 专家敦促公司防止创建欺骗性和有害内容,并开发追踪其来源和分发的方法。
随着今年全球范围内举行重要选举,对追踪人工智能生成内容来源的有效工具的需求不断增加。 最近,受操纵的音频和视频内容已经影响了斯洛伐克、台湾和印度等国家的政治事件和选举。
虽然 OpenAI 新推出的 Deepfake 检测器提供了一种缓解这些问题的方法,但它并不是一个完整的解决方案。 正如 Agarwal 女士所言,打击深度造假并没有明确的解决方案; 这仍然是一项复杂的挑战,需要采取多方面的方法。
特色图片来源: 乔纳森·肯珀/Unsplash