- Deepfake 检测是一项多方面的挑战,需要先进的技术和人类的判断。
- Deepfakes 构成了真正的威胁,影响着个人、企业和整个社会。
- 我们需要培养批判性思维技能并促进负责任地使用技术。
- 公司必须支持强大的深度换脸检测解决方案,以保护自己和消费者。
在我们日益数字化的生活中,视觉效果具有非凡的力量,新的威胁出现了,我们需要一个快速的解决方案——深度伪造检测。
这些人工智能生成的合成媒体令人信服地模仿真人,使得区分事实与虚构变得更加困难。
路易丝·布鲁德(Louise Bruder)是一位超级识别者,拥有令人难以置信的面孔记忆能力,就职于英国数字身份识别公司 约蒂,她帮助验证身份证件的真实性。 然而,随着 Yoti 积极开发技术来应对日益严重的深度造假威胁,即使她的精湛技能也面临着新的挑战。
Deepfakes如何欺骗?
深度假货 依靠成熟的 机器学习 算法。 这些算法是在目标人物的大量图像或视频数据集上进行训练的。 人工智能学会以令人不安的准确性再现目标的举止、声音和相似度。 这使得创作者可以操纵镜头,将话语放入人们的嘴中或让他们出现在他们从未出现过的情况下。
其后果是深远的。 深度造假可能会损害声誉、传播错误信息并破坏对机构的信任。 想象一下,如果世界领导人宣战的深度伪造内容在网上疯传,将会造成怎样的混乱。
Deepfake 检测竞赛
打击深度造假的斗争正在不断升级。 研究人员和科技公司正在开发先进的工具来揭露这些数字伪装。 主要策略包括:
- 不一致搜寻:Deepfake 检测软件逐帧分析视频,搜索异常情况,例如不自然的眨眼模式、口型不匹配或面部特征故障。
- 数字指纹分析:图像和视频带有隐藏的元数据,充当数字足迹。 Deepfake 探测器可以分析这些数据,找出人工智能操纵的迹象。
- 源头追踪:了解媒体文件的来源可以提供有价值的线索。 探测器正在集成到在线平台中,以标记可能被操纵的媒体并追踪其来源。
正如检测技术不断进步一样,深度造假者的方法也在不断进步。
本·科尔曼,负责人 现实捍卫者 (一家专门从事深度伪造检测解决方案的公司)相信,即使是像路易丝这样才华横溢的超级识别者,最终也很难辨别真假。 这是一场持续不断的技术猫捉老鼠的游戏,需要越来越复杂的检测算法来分析微妙的生理信号。
威胁范围
科尔曼区分了高度复杂的 深度造假 可能用于国家资助的虚假信息活动和“廉价假货”,其中犯罪分子使用现成的人工智能软件。 即使质量较低的深度伪造品也能成功欺骗人们,尤其是在图像和音频方面。 声音克隆越来越受到关注,犯罪分子可以模仿某人的声音来获取金钱或操纵情绪。
布法罗大学的 Deepfake 专家 Siwei Lyu 教授开发了搜索微妙线索的检测算法。 他警告说,视频会议可能是深度伪造攻击的下一个目标,犯罪分子可以在实时视频通话中冒充真人。
Deepfakes 的社会影响
的潜力 深度造假 造成广泛的破坏是巨大的。 从伪造的爆炸图像到政客发表煽动性言论的录音,造成混乱的可能性很高。 例如,一幅描绘一位深受喜爱的已故冰岛喜剧演员的深度伪造作品引起了全国性的轰动,并引发了有关人工智能监管的讨论。
用AI对抗AI
尖端的深度换脸检测工具通常利用人工智能本身的力量:
- 英特尔的 FakeCatcher:这款实时检测工具的准确率高达 96%,令人印象深刻。 它分析视频中微妙的血流模式,以区分真实的面孔和捏造的面孔。
- 哨兵:领先的基于人工智能的保护平台,供政府和企业用来打击深度伪造品。 Sentinel 允许用户上传媒体以进行自动分析。
- 其他有前途的工具:开发人员不断创建和完善 Deepware AI(专注于不断发展的在线趋势)和 Sensity AI(在最新的 Deepfake 创建框架上进行培训)等工具。
人工智能的局限性和人类洞察力的需要
虽然人工智能驱动的检测工具正在不断发展,但专家警告不要完全依赖技术。 克里斯托弗·多斯来自 兰德公司 警告检测和规避之间的军备竞赛,强调需要批判性思维和来源验证技能。
虽然像 Yoti 这样的公司了解将人类洞察力与技术防御相结合以在深度造假时代保持信任的价值,但我们需要接受这是一个统一的目标并共同采取行动。
特色图片来源: 手绘