DeepFake视频变得可怕

经过:John Donovan.|

男人去除脸“width=
如果技术继续在其当前轨迹上,则无法检测到AI辅助的DeepFake视频变得不可能。羽毛创意/盖蒂图像

在其发展的阶段,无可否认令人毛骨悚然的东西仍然通过Deepfakes,一个抓住的捕获,但借助于援助创造和操纵的假目观人工智能(AI)深,机器学习。

这不仅仅是这些越来越复杂的软件程序生产的奇怪,小点,不相当不合适的视频。虽然,是的,他们可能令人不安。它不仅仅是改变原始照片和视频的道德困境。虽然这绝对是戳了大黄蜂的巢穴。

大多数情况下,我们完全在我们根本无法信任自己的眼睛时迅速关闭。是照片是对它的主题的真实描述吗?那是视频吗?那张脸与那个身体一起去吗?那些话一起去那张脸吗?

那个人可以真的像那样跳舞?

广告

德德拉克背后的计算机科学亚博的提现

据介绍,2017年底迟到了一名Reddit用户,称为Deepfakes知道你的模因,推出了一些面部交换色情视频 - 它的声音与悲伤和跛脚完全一样;某人的脸,往往是一个公众的人物,叠加在别人的头上 - 而德雷斯弗肝开始了。

之后不久,Deepfakes推出了一个应用程序,法式饼,人们跳过了它。来自那种和其他程序的各种模因 - 有些有趣的是,有些只是简单的令人毛骨悚然,有些更糟糕的是,已经生产了。他们包括尼古拉斯凯奇艾米·亚当斯(在《超人》电影中扮演露易丝·莱恩)的身体上印着她的脸Buzzfeed生产特色阿米德·乔丹皮尔(Comedian Jordan Peele)是前总统巴拉克奥巴马,在略微NSFW视频中警告了一些更容易使用的技术(以Fauxbama)结束,“愿醒来,Bi $%* es!”)。

最新的DeepFake视频是由Tiktoker冒充汤姆克鲁斯的Tiktoker。三个视频令人震惊的真实,展示巡航,以及击中高尔夫球。视频是由Chris Ume创造,来自比利时的视觉效果专家。

用于创建这些视频后面的程序亚博的提现的计算机科学可能是非常复杂的,比用于简单的Deepfakes的更强烈。错综复杂的算法和计算机科学术语亚博的提现生成的对抗网络(GaN)和深神经网络辣椒的学术论文更先进的视频编辑技术。

通常,这些程序所做的是通过帧来检查主题帧的视频,并“学习”对象的大小和形状和移动,使得它们可以被传送到视频上的另一个主题。而Deepfakes主要有限公司,主要是交换受试者的面孔,更先进的程序可以转移完整的3D头位置,包括头部倾斜或凸起的东西或一套追逐的嘴唇。在整个机构运动中已经完成了一些工作。

这些程序检测到越多,这些网络馈送的变量就越多,“学习”更有效,有效和逼真的视频变为。

广告

除了Deepfakes

重要的是要注意,并非基于人工智能和机器学习的所有视频和照片编辑技术都是Deewfakes。那些在现场工作的学者认为Deepfakes是业余的,降级只是面对交换。

加州大学伯克利大学的一群人正在努力在议案中占据一体的技术 - 专业的舞者 - 并将其交换到业余的身体上的视频。随着一个小的ai巫术,那么,即使有两个左脚的人也可以至少看起来像baryshnikov一样移动。Berkeley Group详细介绍了这篇文章的工作,现在大家跳起来吧

当然,这种技术并不完美。但这是棘手的东西。甚至拉开计算机生成的移动面很难。截至目前,大多数AI生成的面孔,即使在Deew饼上) - 特别是在Deepfakes上 - 是明显的伪造者。一些几乎总是似乎有点偏离。

“我认为一件事是面临的影子细节,”伯克利计算机科学的毕业生育辉周,现在每个人都跳舞的作者之一。亚博的提现“我们[人类]非常擅长识别脸是否真实或不 - 暗影细节,皱纹如何移动,眼睛如何移动 - 所有这些细节都需要完全正确。我认为机器学习系统这些天仍然无法捕获所有这些细节。“

另一个新的AI视频操作系统 - 或者,作为其架构师呼叫它,一个“纵向视频的照片 - 真实的重新动画” - 实际上使用一个“源”演员,可以改变“目标”演员的面部。

您,“源”(例如),将嘴巴移动到某种方式,计算机映射移动,将其送入学习程序,程序将其转换为视频奥巴马嘴巴你的话。你笑,或抬起眉毛,奥巴马也是如此。

关于该过程的纸张,称为深度视频画像,2018年8月中旬在温哥华的计算机图形和互动技术会议上展示,并揭示了该计划的地方:好莱坞。

“[C]突出的视频是特色电影电影的一个组成部分超过30年。几乎每个高端电影制作都包含大量的计算机生成的图像,或CGI,来自戒指之王到Benjamin按钮,“作者写道。“这些结果很难区分现实,并且往往不会被忽视这个内容不是真实的......但这个过程是耗时和所需的域专家。即使是短的合成视频剪辑的生产也花费了数百万的预算和多个几个月的工作,即使是专业培训的艺术家,因为他们必须手动创造和动画大量的3D内容。“

感谢AI,我们现在可以在更少时间内生产同样的图像。和更便宜。- - 如果不是现在,很快就会令人信服。

广告

走出道德的绳索

正如喜剧演员皮尔和其他人警告的那样,操纵现有视频或用虚假图像制作新视频的过程,如果落入坏人之手,可能会非常危险。一些著名的女演员和艺人的脸被偷,并被编织到色情视频中,这是最令人不安的早期深度伪造例子。正如皮尔在他的奥巴马视频中所警告的那样,使用图片来制作“假新闻“是一种非常真实的可能性。

许多商店已经采取了措施停止德师。reddit,事实上,关闭了菲德德德的德国。Pornhub誓言禁止AI生成的色情片。Tumblr和Twitter是禁止色情炸液的其他网站。

但这些视频可能并不特别容易警方,特别是作为创造他们改善的程序。斯坦福大学计算机科学教授MichaelZollhöfer和深亚博的提现度视频肖像背后的一位思想,表示,学术界中的人们意识到所涉及的道德规范。从Zollhöfer,在一个新闻稿宣布他的项目:

多年来,媒体行业一直在用照片编辑软件对照片进行润色,这意味着我们中的大多数人已经学会了对照片中所看到的东西持保留态度。随着视频编辑技术的不断改进,我们也必须开始对我们每天消费的视频内容更加挑剔,尤其是在没有来源证据的情况下。

周说,参与这项技术建设的每个人都需要采取适当的措施,以确保它不会被滥用。开发软件来检测计算机增强或修改过的视频,并在视频上添加隐形的“水印”,以在法医鉴定的情况下显示它们是计算机生成的,这将会有所帮助。同样,来自深度视频肖像:

值得注意的是,对最先进的视频编辑工具背后的算法和原理的详细研究和理解,正如我们所进行的,也是开发技术的关键,使其能够检测其使用……检测视频操作的方法和执行视频编辑的方法基于非常相似的原理。

周永康说:“我认为,作为研究人员,我们肯定有责任提高公众对这些技术滥用的意识。但我想强调:这项研究有许多积极的用途。有舞者要求我们利用我们的研究来帮助他们跳舞。这项技术也有积极的一面。”

广告

前方有什么

随着程序变得更加复杂和机器更好地学习如何克服这些计算机生成的视频和照片中的显而易见,明显的故障,该领域继续提高。可以去的地方是任何人的猜测。但是,这项技术的许多担忧改善可能是如此迅速,我们可以进入一个时代,我们不能再相信我们所看到和听到的。

这就给我们带来了另一种可能也会造成重大麻烦的虚假视频:dumbfakes(哑巴视频),尤其是对即将到来的2020年总统大选。例如,在2019年5月,将有一场扬声器Nancy Pelosi扭曲的视频在社交媒体上像野火一样传播。视频似乎显示佩洛西诽谤并通过演讲绊倒。实际上,视频由纽约的体育博客和“特朗普超级班”数字改变,然后从纽约上传到Facebook。视频很快被揭穿了,但到那时它已经看过数百万次。YouTube删除了它说视频违反了标准。但是,Facebook将其保留在网站上,只说视频是“FALSE”,并且它会试图限制它可以共享多少。

虽然这种改变的佩洛西视频并不是一种技术,但伯克利加州大学的数字取证专家Hany Farid告诉NPR这就是让它更多的事情。这些被标记为愚蠢,因为它们比Deew饼更容易和更便宜。通常,它需要更改视频的速度或基本编辑以产生有说服力的新视频。

“时钟正在滴答,”法德告诉NPR.。“南希佩洛西视频是煤矿的金丝雀。”

最初发布:2018年9月5日

广告