曾经,有几段小视频,让无数吃瓜群众深刻体会到技术的无穷魅力。
而不知真相的人,只会震惊:那些光鲜亮丽的女明星,怎么纷纷下海了?
比如“神奇女侠”盖尔·加朵被推倒在床,一番搔首弄姿后,上演各种辣眼睛的场面。
面对这些小视频,一些人直呼过瘾,也有人痛心疾首,不曾想世风日下,人心不古。
后来大家都松了口气。原来在视频里上演十八般武艺的,并不是明星本人,只不过是有人将女明星的脸,换到了女优上。
这项技术,叫做“deepfake”,一种人脸交换技术。顾名思义,就是在图像或视频中把一张脸替换成另一张脸。
宅男福利?事情没那么简单。
1
换脸,原本很单纯...
人脸交换技术,并不新鲜。阅片无数的你,肯定中过招。
举个例子。《阿甘正传》里的肯尼迪;
但这些都不是deepfake。保罗·沃克的戏份,是由他弟弟饰演,然后用CGI动作捕捉技术,将弟弟的脸变成保罗的脸。
CGI活做得是精细,但贵啊,一分钟就是上百万刀。
而Deepfake的出现,瞬间就将高大上的人脸交换技术平民化了。从此,就算你不会视频剪辑,也能轻松换脸。
你需要的,仅仅是一个GPU和足够多的数据。
你要做的,就是搜索大量的静态图片和视频,丢给系统进行深度学习。学习样本越多,就可以生成细节还原度越高的脸谱图。
经过足够多的训练后,电脑能自动识别每个视频里的哪些元素属于脸A,哪些属于脸B。这样,就可以将影片中原本角色的脸A,全部替换成脸B。
照片和视频越多,做出来的换脸视频就越完美。
正因如此,要给视频里的人物换张明星脸,最容易不过。
Deepfake在国内第一次引发广泛关注,就是蹭了明星的光。有一个名为“换脸哥”的B站用户将《射雕英雄传》中朱茵饰演的黄蓉换成了杨幂的脸,并且把处理过的视频发在了B站。
有了deepfake,流量明星再也不用担心自己的演技了。
杨幂之后,网友便仿佛发现新大陆般,乐此不疲地制作明星的换脸视频。
因为一段打篮球视频火遍虎扑、B站的蔡徐坤,网友将他的脸换成了六小龄童后,在B站上轻松换来60万播放量。
除了恶搞,博人一乐,deepfake的技术还能“复活”逝去的人,以解相思之情。
今年的张国荣纪念日,粉丝便用类似deepfake的技术,让哥哥复出唱了6分钟。
今年5月11日,画家达利的115岁诞辰,佛罗里达州圣彼得堡的达利博物馆用deepfake将他“复活”。
展品是一个比真人大一些的显示屏,上面有一个按钮。当你摁下按钮时,屏幕里的达利仿佛听到了门铃声,会慢慢走过来和你说话,甚至还可以和你合影,然后将照片发到你手机上。
为了这次展览,他们利用达利曾经接受采访的存档镜头,从中抽取了6000多帧,然后对达利的面部进行了1000个小时的机器学习算法训练。
Deepfake的神奇,让无数人无法自拔。有的人拿它来娱乐、恶搞,有的人拿它来“复活”所思之人。
但还有很多人,在用它干一些见不得光的事。
2
意淫神器,报复工具
Deepfake的爆发、流行,离不开人民的刚需。
自2017年11月,Reddit出现了一段盖尔·加朵的第一人称视角的小视频后,想要观摩、学习deepfake的人,达到了爆炸式增长。
据荷兰的DeepTrace实验室发布了一份DeepFake发展报告显示:
2018年“deepfake”的谷歌搜索次数,比2017年增长了1000倍。
2017年时,deepfakes小视频在Reddit论坛,每月搜索次数只有100次左右。到了2018年7月,每月搜索次数已经上升到100万次-1000万次。
甚至,在2018年还新上线了3家deepfake小电影网站。
这就是刚需的力量。
有网友甚至在论坛上求助,他收集了很多女神照片,想让会技术的人帮忙弄个deepfake小视频...
这样的请求越来越多,且出现了诸如恋童癖等变态请求,由于太过乌烟瘴气,后来Reddit直接封掉了deepfake的相关群组,理由是遏止“非自愿换脸色情片”。
但是,Reddit上的那个始作俑者将deepfake代码开源,越来越多的人们在此基础上进行“改良”,不断更新工具。
于是意淫视频泛滥网络。受伤最深的,莫过于“寡姐”约翰逊·斯嘉丽,相关视频播放量惊人。斯嘉丽深感无奈,她说:“想要尝试在互联网和它的邪恶面前保护自己,大多数时候就是一个注定失败的事情。”
其他稍有名气和姿色的欧美明星,也一一被迫“下海”。
发展到今天,deepfake早已不止是个开源代码,几乎快成了一个安装包。照此发展下去,只要有足够素材,谁都能制作以假乱真的视频。
即便如此,如果仅限于满足个人需求,deepfake的危害性也还算可控。
但是,当deepfake这技术落到别有用心之人的手里时,杀伤力呈指数级增长。
媒体评论家Anita Sarkeesian,因为批评流行文化和视频游戏的女权主义,被人插入到一个小视频里,播放量3万多次。
去年4月,印度的一名调查记者Rana Ayyub,因为揭露一些官员黑幕,也有过同样的遭遇。随着视频传播,她的家庭地址被泄露,有人还发来强奸威胁。甚至她的家人都来询问,“视频上的人是不是你?”
受到报复的人,却几乎没有反击的工具。
专家表示,deepfake往往难以追查,并且存在于法律灰色地带,因为它是基于公开照片制作,算是新的创作,可以作为言论自由受到保护。如果坚持起诉,最好的结果可能是以诽谤、侵犯名誉权等罪名进行定罪,与实际造成的伤害完全不匹配。
而像在印度这样的地方,要寻求保护的难度更大。据Ayyub说,警察拒绝提交报告,他们在观看视频时甚至还面带微笑。
更可怕的是,对于某个人的意淫或报复,绝不是deepfake最可怕的地方。
3
制造恐慌的互联网“核武器”
2016年,美国总统大选佛罗里达州候选人卢比奥,曾将deepfake与核武器相提并论。
“过去,如果你想威胁美国,那你需要10艘航母、核武器,还有洲际导弹。现在,你只需要登录我们的互联网系统、银行系统、电网、基础设施网络。甚至,你只需要具备弄出一段可以以假乱真的虚假视频来搞乱我们的选举就行了。”
刀哥觉得,这样的看法并不是夸大其词。
换脸盛行,假新闻越来越真。而这个社会,向来是造谣一张嘴,辟谣跑断腿。
去年春天,一段篡改的视频显示Parkland学校枪击案幸存者Emma González撕毁了宪法。保守主义活动人士分享了这段视频,认为这是她背叛美国的证据。实际上,视频显示她是在一个射击场内撕毁了一个纸质的物体。
把一个激进分子的脸,换成政坛大佬,也完全能办到,普通民众很容易就信以为真。不信请看,以下四位奥巴马,哪个是真的?
事实上,他们都是假的。
研究小组用神经网络分析了数百万帧的视频,来确定奥巴马的面部表情如何变化。开口说话需要整个面部器官的协调,所以研究人员不仅分析了口型变化,还包括他的嘴唇、牙齿和下巴周围的皱纹,甚至还包括脖子与衣领。
普通人用deepfake能以假乱真,专业人士能干得比普通人精细一万倍。
让奥巴马演讲完后,踹门而去,还算个无伤大雅的玩笑。但如果是假装成各国大佬互相攻击,后果却不敢想象。
今年,更是出现了能通过深度学习去操纵视频的全新技术,输入文字就能修改讲话人的话语、口型,听起来十分自然。
前不久,美国众议院议长南希·洛佩西一段口齿不清,看似醉酒的讲话视频流传网络,在Facebook、Twitter和YouTube上广泛传播,仅Facebook上的某个视频版本,浏览量就超过140万次、评论超过2万条——其中就不乏指责她“醉酒后胡言乱语”的指责。
照此发展下去,真与假的界限只会越来越模糊。
技术的发展,应该让我们看得更远、更清,结果却将大众与真相的距离越拉越远。
真是,道高一尺魔高一丈?
本文首发于微信公众号:金错刀。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论