使用相机的应用程序日益复杂。每天都在发布全新的过滤器,例如动物耳朵、去除青春痘、瘦脸等等。一些应用程序还可以创建人眼几乎不可能发现的虚假视频。这种迅速为人们所接受的技术被称为“Deepfakes”。顾名思义,Deepfakes 使用一种称为深度学习的人工智能形式来制作虚假事件的图像。
简而言之,它可以被描述为一种技术,它可以操纵视频等数字内容,并产生被制作到几乎真实的图像和声音。这项技术对网络安全专家和政府来说是一个巨大的挑战。尽管这些技术足够聪明,可以征服人脑,但它们不是人类。我们人类是这个星球上最聪明的生物,应该利用意识和警惕作为我们对抗这种危险的武器。
“ deepfakes 是福还是祸?”是一个仍然没有答案的大问题。 Deepfakes 中使用的深度学习算法可以改变电影制作人和 3D 艺术家的生活,因为它将减少编辑所需的工作量。您永远不知道您最喜欢的 3D 电影可能使用相同的技术。有时,电影明星也会一夜成名,因为他们的视频在互联网上疯传,观众一遍又一遍地浏览。整形外科医生也可以从这项技术中受益,因为他们将能够虚拟地进行面部重建,并且还能够了解手术所涉及的阶段。这确实会提高此类复杂手术的成功率。
另一方面,Deepfakes 也可能是有害的。可能会创建虚假的误导性证据,导致传播虚假新闻,可能会毁掉一个无辜者的生活。这种技术很容易被用于卑鄙的目的和勒索。
据说人们相信他们所看到的。然而,事实恰恰相反。人类寻找证据来支持他们想要接受的事实,而忽略了其余的。恶意行为者试图使用生成对抗网络 (GAN)来破解这种人类倾向,这反过来又使他们变得强大。 GAN 由两个机器学习模型组成,一个模型在数据集上训练并创建视频伪造,而另一个尝试检测伪造。伪造者生成伪造品,直到另一个 ML 模型无法检测到伪造品。训练数据集越大,伪造者就越容易产生令人信服的深度伪造。我们已经在恶作剧新闻中看到了这一点,这些虚假新闻以表面真相的名义迅速传播。当它被识别时,为时已晚并毁了一切。
Deepfakes 检测是一个棘手的问题。肉眼可以毫不费力地检测到不专业的深度伪造。机器可以发现的其他密码包括缺乏眨眼或看起来错误的晦涩。生成深度伪造的 GAN 正在随着时间的推移而发展,不久我们将不得不依靠数字取证来检测深度伪造。 DARPA 正在向研究人员投入资金,以发现验证视频的增强技术。然而,因为 GAN 本身可以被训练,以学习如何逃避这种取证,所以我们能否征服这项技术是值得怀疑的。
Deepfakes 可以使用面部交换来检测,该面部交换在合并图像中构建分辨率不规则性,可以使用深度学习技术进行识别。此外,神经网络还可用于检测视频序列中通常由换脸引起的众多帧之间的不一致。深度伪造通常采用检测数字操作的方法,例如缩放、旋转或拼接。
最终,技术深度伪造检测解决方案,无论它们有多好,都不会阻止所有深度伪造。法律补救措施,无论它们多么有效,通常都是事后实施。这意味着它们在解决深度伪造可能造成的潜在损害方面将没有足够的效力,主要是考虑到描绘数字媒体形成、分发和消费的小时期。
因此,提高公众意识需要成为打击深度造假策略的一个补充方面。当我们看到表现出奇怪行为的视频时,重要的是不要立即认为所代表的活动是真实的。当发布显着的疑似深度伪造视频时,无论是否有可靠证据证明其是伪造的,通常都可能在几天或几个小时内识别出来。这些知识不会阻止深度造假,但无疑可以帮助最大限度地减少它们的影响。