什么是 Deepfake?
这个词通常描述用人工智能或合成媒体技术篡改的视频——通常被称为 deepfake。研究人员和立法者担心这些经过数字处理的视频可能会成为替代品,一种传播虚假信息的阴险方法将会猖獗。但是,如果我们不小心,这些进步可能会付出巨大的代价:等效的底层技术也可以实现欺骗。
几十年来,计算机软件使人们能够管理照片和视频,或者从头开始创建假图像。流程通常保留给在 Adobe Photoshop 或 After Effects 等变幻莫测的软件中受过培训的专家。现在,人工智能技术正在简化策略,减少医生数字图像所需的价值、时间和技能。这些人工智能系统自行学习,通过分析数千张真实图像来构建假图像;这意味着他们将处理巨大的工作量。这也表明人们可以创造比他们需要的更多的假东西。
用于创建深度伪造的技术仍然相当新,因此结果通常很容易逃避。技术是一个不断发展的领域,不能隐瞒。虽然这些工具可能会检测到这些虚假视频,但 deepfakes 也在不断发展,一些研究人员担心他们不会准备好跟上步伐。
视频集可能是计算机数字技巧的教学大纲。检查所有这些图像,人工智能系统确定观察假货的方式。 Facebook 也在尝试与 deepfakes 作斗争,利用演员制作假视频,然后将其发布给外部研究人员。一家名为 Dessa 的加拿大公司专注于人工智能,其工程师最近测试了一种使用谷歌合成视频构建的 deepfake 检测器。它可以几乎完美地识别谷歌视频。但是,一旦他们在网上提取的 deepfake 视频上测试了他们的检测器,它的失败率高达 40%。这是相当惊人的,我们正在创造一些我们无法阻止的邪恶。
研究员 Niessner 博士正在努力开发能够自动识别和扣除 deepfakes 的系统,这通常是同一枚硬币的另一面。探测器通过分析图像来学习他们的技能。探测器也可以大大提高。但这需要无尽的最新数据流,代表互联网上使用的最新深度伪造技术,Niessner 博士和其他研究人员说。收集和共享适当的数据通常很困难;例子很少,而且出于隐私和版权原因,公司不会总是与外部研究人员共享数据。
deepfake 技术的成本不仅仅是理论上的。合成声音正被用于大型欺诈交易,据称人造面孔支持间谍活动。所有这一切,尽管用于破解测试质量软件的这些挑战。使用合成媒体的障碍仍然太高,以至于该技术无法吸引大多数恶意行为者,但由于它从错误的测试版转移到数十亿人的手中,我们有责任通过制造它来避免最坏的情况尽可能地使用 deepfakes 作恶。
最后,我们没有发布的东西,随着我们未来的发展,技术也会随之进步;人工智能是一个重要的贡献者,它会被用作“武器”,从而加剧事情的恶化。所以也许我们想重新思考人工智能的责任和道德(等等?道德!)。