数月前开始,关于“AI换脸“的话题时不时地登上热搜,网友们一边对这一科技大法respect,一边调侃XX明星的演技。
按理说,科技为大众带来娱乐的祥和氛围挺好的,不过,是时候换个角度来看看这种技术带来的一些偏门应用。
网上热传的换脸神器,是一种利用更深度学习技术识别和交换图片、视频中人物脸部图像的工具,被称为深度伪造,也就是Deepfake,它不仅制作过程简单而且逼真度惊人。
普通大众接触到的Deepfake已经是通过它制作出来的成品,比如徐锦江版的海王、复活的张国荣,被杨幂版黄蓉。
在Deepfake出现前,视频换脸技术最早最广泛的应用还是在电影领域,那时它需要相对较高的技术和资金。
现在Deepfake降低了这一门槛,它真正广泛出现在大众视野里是因为Pornhub上流行的Deepfake系列视频。
Deepfake算法的偏门应用
最初一些少数技术精英们,为了传播Deepfake技术在Reddit上创办了论坛。
不过在讨论技术学习的路上,Deepfake的黑暗面逐渐显露,大家发现这种换脸技术还有一个细分方向:满足私欲。
由Deepfake推动的色情生意病态发展,订制色情片泛滥,从明星到路人,后来还延伸到了色情复仇。
Deepfake的色情生意并不是“隔海相望”,这种色情交易早已蔓延到国内,成为隐形的地下生意。
Deepfake的技术应用开发并未止步于色情视频换脸。
据美国科技媒体Motherboard 6月27日报道,一名程序员又开发了名为“Deepnude”的应用,上传一张女性照片,神经网络技术可“自动”脱掉她的衣服。
这个软件目前只能处理女性的照片,裸露越多,处理效果越好。上传男性照片依然会被处理替换成女性身体,卡通图片则无法识别。
开发此款应用的程序员表示,该应用由其开发的开源算法pix2pix创建,这一算法与之前的人工智能换脸技术deepfake算法相似,Deepnude只用了1万张女性的裸照进行训练,之后会考虑创建男性版本,而继续这个实验的也是为了在这个算法上获得经济回报。
显然,Deepnude在侵犯着众人隐私,甚至将每个人暴露在色情报仇的危险之中,而女性成为首个被攻击的群体。类似的算法偏门应用可能还会不断出现,Deepfake的开发依旧离不开生理需求的主导。
反识别Deepfake提上日程
可悲的是,无数关乎女性的Deepfake系列应用和视频并未能让大众产生危机感,当换脸视频波及到更广泛的人物,成为篡改视频的技术手段,进而萌生技术犯罪趋势的时候,大家才开始慌张。
想要得到一个换脸视频并不复杂,例如图中希拉里版特朗普的视频仅使用了一种名为FAKEAPP的软件,放入图片视频即可一键生成,不懂编程的人阅读操作流程后都可轻易上手。
对此,美国《通信规范法》第230条:“交互式计算机服务提供者或使用者,就非出于己的信息内容,不应被视为内容的出版人即发表人。”这条规则可能要因为Deepfake而改变。
美国国防高级研究计划局为此设立了“媒体鉴证”项目,以开发能识别Deepfake的工具,项目最初旨在实现现有鉴证工具的自动化,后来将终点转向了人工智能生成的虚假视频上。
由Deepfake到鉴别Deepfake制造的虚假视频,展开了一场“猫和老鼠”的技术追击战。
近期,加州大学伯克利分校和南加州大学的研究人员打造的AI识别系统可寻找每个人的“软性生物识别”标签,在这场博弈赛中取得了阶段性的取胜。
虽然,Deepfake技术发展迅猛,此前“无法眨眼”的问题已经得到改善,但研究人员发现,人们在说话时产生的头、手、眼睛、嘴唇的微妙变化是Deepfake在创造虚假视频时暂未考虑到的元素。
背后的原理为,不同人在说话时会表现出相对不同的面部和头部运动模式,Deepfake由模仿算法控制会打破这些模式,导致嘴巴与头部面部等部分形成不自然的分离。
基于此,这项鉴别技术构建了高度个人化的“软生物识别指标”。检测实验中,该鉴别技术的总体识别率超过了95%。
接下来,研究人员将着手声音特征进一步提高AI识别假视频的技术。
基于希拉里(棕)、奥巴马(浅灰带框)、桑德斯(绿)、特朗普(橙)、奥伦(蓝)随即任务(粉)、奥巴马Deepfake假视频(深灰带框)的190-D特征的而为可视化散点图。
这只是Deepfake博弈中,鉴别技术的一个短暂领先,软生物识别指标的可靠性一定程度上仍然会受各类元素的影响,例如背景环境、镜头位置等。在这方面造假技术很可能又会迎头赶上,更多基于Deepfake算法的新应用又会出现,例如前面提到的Deepnude。
在这场复杂程度不断增加的安全博弈中,攻击会被防御反击,反过来又被更复杂的攻击所抵消。
从国外引起的女性隐私侵犯,到国内有B站泛滥的明星换头恶搞视频,我们正在为Deepfake破坏的秩序付出代价。
Deepfake的损害不只是换脸
在AI深度学习第一个站出来给自己一巴掌的,是被称为亚洲四大邪术的Photoshop。
Adobe在6月中旬推出了反PS工具。依托于AI算法,这个工具目前仅支持用于识别经液化处理图片,可自动识别出人像照片中被修改的部分,还能把它还原成到初始样貌,准确率高达99%。
此前Adobe也公布过识别图片是否经过拼接、复制、删除的AI。
这次研究人员通过编写Photoshop脚本简历大量图像训练集,通过网络上抓取的图片使用面部感知液化调整,随机选择这些照片的子集进行训练。同时还聘请艺术家改变相关参数到数据集中。
Adobe表示,这项研究成果并不会立即转变为商业产品,只是为更好地监测图像、视频、音频做出的一步努力。
其官网给出了更明确的解释:
Adobe为用户提供工具,释放想象力,让他们将想法变为现实,对此我们对Adobe作为创意工具在世界上的影响力感到自豪,但同时也意识到这项科技延伸的潜在道德问题。虚假内容已经成为日益紧迫的严重问题。
Adobe所指的虚假内容,影射的正是Deepfake。在建立机器学习应用后,需要确保它足够安全,AI里的Deepfake急需另一个AI来钳制,然而现实里Deepfake的鉴别速度永远要比造假慢几拍,我们已经生活在一个安全问题暴露的世界里。
而Deepfake深度伪造技术存在的真正损害,不止是隐私侵犯、数据盗窃、色情内容亦或是政治上,它正在加速挑战着互联网数据真实性的边界。
想象一下,未来无数机器学习分析的很可能来源于Deepfake的假数据,它的存在是对虚拟的网络世界里关于“真实”最迫在眉睫的威胁,而这种影响可能用各种对抗识别鉴定方法都难以弥补。
今天有人有兴致把朱茵的黄蓉换成杨幂的脸,以后就不好说了。