继神奇女侠盖尔 · 加朵 ” 被下海 ” 以后,AI ” 换脸术 ” 已经蔓延到越来越多的领域,这次的受害者是美国总统特朗普。
近日 Youtube 上出现了一段以假乱真的特朗普视频(需要特殊的上网技巧),其原视频是 Alec Baldwin 周末晚间秀中对特朗普的模仿,一位的 UP 主 ” derpfakes ” 用 AI 技术将 Alec Baldwin 的脸换成了特朗普的脸。
左为原视频,右为换脸版本
如果对比着看,你会发现右边的修改版本,相较于原视频有些失真,脸上也少了不少细节。但这是在对比的情况下,如果单拿出来,这个视频足以以假乱真,不仔细观察根本看不出有什么破绽。
无独有偶,另一位 Youtube UP 主,将 2004 年的电影《帝国的毁灭》中 Bruno Ganz 扮演的希特勒的脸,换到了现任的阿根廷总统 Mauricio Macri 脸上。
还是那句话,仔细看还是有些别扭,但有多少人愿意去抠这些细节?况且技术实在不断发展的,几年以后,不用技术手段就无法辨别的模仿技术定会出现。
造假视频的泛滥,主要是因为这种技术的实现门槛实在太低了。制作出盖尔 · 加朵等人 ” 下海视频 ” 的是一位名为 “deepfakes” 的美国网友,这位仁兄不仅技术高超,还非常有开源精神,他无偿地分享了自己的技术成果,甚至非常 ” 贴心 ” 地制作了视频教程,只要有耐心,几乎任何人都可以跟随教程制作出像样的 ” 换脸 ” 视频。
这里隐藏的真正问题,在于利用开源的 AI 架构进行视频换脸这件事,不是太复杂太前卫了,而是太简单太容易了。
为了验证这点,我先后把 deepfakes 分享的视频和代码发给了三位从事机器视觉相关工作的朋友,得到的反馈基本一致:这东西毫无技术难度。只要会用 TensorFlow 的基础功能,电脑显卡不至于太烂,差不多几个小时就可以搞出来一个。
哪怕连编程基础都没有的人,跟着教程一步步走,搜集足够多的素材,也可以自己搞出来换脸视频。
对此,Deepfakes 这么解释:” 每个技术都可能被用来做坏事,这个我们拦不住,我不认为让每个普通人参与到机器学习的研究中来是一件坏事。”
虽说技术进步是好事,但这也意味着造假的成本进一步降低,而人们分辨真伪的成本被前所未有的抬高。如果你从未听说过有所谓的 “AI 换脸术 “,面对视频里活灵活现的真人,是非常难以辨别真伪的。
在此之前,此项技术还只是用来满足部分群体的自娱自乐,虽然不可避免地会对明星们的声誉造成不好的影响,但涉及到的还只是侵权等方面的问题。但如果任由技术滥用,将会有更多现实问题出现,比如诈骗、勒索,甚至对社会和政治造成恶劣影响。
此前 Facebook 曾公布数据,俄罗斯过去两年在 Facebook 上发表了 8 万多篇试图影响美国政治的帖子,大约有 1.26 亿美国人看过这些内容。虽然无法统计有多少人看了这些帖子就改变选票,但你没法保证它是毫无影响的。
而如果一旦这种造假视频,被当作某种政治手段大规模使用,欺骗性会更高,会有更多的人被蒙蔽,从而对政治走向造成影响。最好的例子就是美国大选,如今美国大选的胜利似乎已经成为了人设的胜利,看你顺眼就投你。但如果大选期间,有几个伪造的视频出现,势必会掀起不小的波澜。” 造谣一张嘴,辟谣跑断腿 “,即便能证明视频系伪造,其所造成的影响一时半会是不会轻易消除的。
毕竟群众总是盲目的,当他看到一个猎奇的视频是更愿意倾向于相信,而不是去了解晦涩的技术手段去辨别真伪。
目前来看,”Deepfakes” 还没有得到有效的监管。虽然美国一些图片、视频网站已经开始训练自己的 AI 模型以对抗造假视频的泛滥,但这更多的还是民间行为,还没有政府层面的机构出面进行相关干预。但随着造假视频涉及的范围越来越广,甚至开始拿政要开涮,估计离有关部门出来踩刹车的那天也不远了。
自由是相对的,同理技术自由也是相对的,没有被正确应用的技术,难免会走向另一个极端。