机器之心报导
机器之心编辑部
Deepfake 换脸视频的病毒式传达引发了美国政坛的警觉。近来,加州通过了一项旨在阻挠「Deepfake」假造视频影响大选的法则,引发了人们关于言辞自由的忧虑。与此同时,荷兰的一家网络安全公司发布了首份 deepfake 全球查询陈述。成果显现,现在的 deepfake 视频 96% 仍为色情内容。
上星期,美国加州州长 Gavin Newsom 签署了 AB 730 法则,制止会对大选形成影响的「deepfake」视频。
法则链接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201920200AB730
该法则规则,假如分布的信息使大众对政治人物的言辞、举动发生过错或有害的形象,这种分布行为将归于犯罪行为。该法则适用于推举期 60 天内的一切提名人,规模包含音频和视频内容,但也有一些破例,如新闻媒体制造的挖苦、戏仿视频。自己打上「虚伪」标签的虚伪视频和音频也不受此法则约束。该法则将于 2023 年废止。
尽管「deepfake」一词并未出现在法则中,但该法则显着针对的是篡改著作。该法案界说了「具有本质诈骗性质的音频和视频媒体」,以成心操作提名人的外观、言辞和行为,使表达内容与本来状况出现底子的不同。
这项有关推举的法则引起了人们关于言辞自由的重视,加州美国公民自由联盟(American Civil Liberties Union of California)等安排现已开端质疑该法则的价值。「起草者的初衷是好的,但该法则处理不了政治人物的虚伪视频问题,」该安排表明,「它只会带来选民的困惑、歹意诉讼和对言辞自由的限制。」
此前,美国弗吉尼亚州也出台过关于制止 deepfake 乱用的禁令。本年 7 月,该州的新「色情报复法」规则,未经当事人答应共享别人的暴露视频、相片归于违法行为,用于「钳制、打扰或恫吓」将被定为一级轻罪(Class 1 misdemeanor),不管该相片或视频是实在的仍是假造的。但此次加州的发布的这项禁令针对的是大选中的政治人物,显现了美国政府关于 deepfake 打乱政坛的警觉。
领英上一位名为 Katie Jones 的女子,她具有由一批专家和政客组成的关系网。但经查询,此人并不存在,仅仅潜伏在领英上的政治特务。
Deepfake 现在现已开展到了什么程度?首要有哪些用处?为了回答这些问题,荷兰的一家网络安全公司展开了一项查询,并发布了首份 deepfake 全球陈述。
首份全球 Deepfake 查询成果出炉
色情内容才是 deepfake 的重灾区
现在想要制造一个 Deepfake 视频有多简略?10 月 7 日,荷兰网络安全公司 Deeptrace 发布了其关于现在整个互联网状况审阅的陈述。自 2017 年以来,deepfake 等技能一向活泼在网络中,这项技能首先是被 Reddit 用户 u/deepfakes 提出的——他运用人工智能算法的换脸技能首先将女明星的脸嫁接到色情影片中。
近年来,人们出于对 deepfake 在其他状况下乱用的忧虑,对这项技能进行了很多的评论,并不时引发政府部门的制裁。此前一款名为 Deepnude 的 APP 就曾被勒令下架。
查询以为,Deepfake 对人们形成的困扰大多出在色情视频方面,而在其他范畴的实践影响其实还很小,经常被视作低科技的操作方法。最著名的比如便是美国众议院民主党首领佩洛西的「醉酒」视频。
自 2018 年 12 月至 2019 年 7 月,网络上的 deepfake 视频数量翻了一番,并且 96%都是有关色情的,这些内容的浏览量超过了 1.34 亿。
并且,值得注意的是,一切的色情视频都以女人为方针。
波士顿大学法学教授 Danielle Citron 表明,deefake 正在被用作针对女人的兵器:
deepfake 技能将女人的面孔换到色情片中,以此来作为抵挡她们的兵器。这种现象令人惊骇、为难并且在无声中进行,制造者品德卑鄙。deepfake 色情视频告知人们,他们的身体不归于自己,这将使得他们很难在网上安身、找作业或取得安全感。
美国女星斯嘉丽约翰逊也是 deepfake 的受害者之一,她曾表明,「我来说这种尽力是无用、没有成果的,可是关于那些因此或许丢掉作业的人来说就不同了。」
代码有门槛,但普通人也有方法
大多数媒体对 deepfakes 的报导首要聚集于尖端学术实验室制造的高度传神且无缝联接的视频。但 Deeptrace 对此不感兴趣,由于制造这些视频的研讨者通常将底层代码进行加密处理。所以,假如有人想要制造 deepfake 视频用于色情、敲诈勒索或政治狂欢等,则必须在敞开网络中找到有用东西。Deeptrace 想要知道这些人可以找到哪些可用的东西。
世界上大多数非专业 deepfakes 上运转的代码可以在 Github 的 8 个资源库中找到(这些都是 deepfakes 的原始代码),这些资源库在 Github 上十分受欢迎。
可是,关于普通人而言,这些代码运用起来十分困难,并且需求很多的数据、调整和时刻,因此令大多数业余者望而生畏。但他们还有其他的挑选:20 个 deepfake 创立社区和论坛,并借助于少数应用程序和服务的链接来制造 deepfakes 视频。这些应用程序和服务的可用性各不相同,并且大多数需求 250 张「方针」图画来练习网络。
这些应用程序的输出质量暂时不谈,但值得注意的是,一切的 deepfake 色情网络都有广告,意味着有利可图。别的,这些网络和服务的数量虽少,但出现不断添加趋势。
身体交换愈加风险
加州大学伯克利分校的组成内容专家 Hany Farid 表明,尽管这份陈述没有多少令人惊奇的内容,但「关于咱们了解 deepfake 的整体开展状况十分有价值。」纽约州立大学布法罗分校的数字取证研讨员 Lyu 表明,这份陈述汇集了研讨人员已知的许多现实,关于立法者十分有用。
「假如你想让方针制定者和法令剖析人士知道怎么处理这一问题,那么你先要知道 deepfake 是做什么用的,」纽约大学从事相似研讨的学者 Garg 表明。
「现在的 deepfake 视频集中于换脸,这也是一条有用信息,」Lyu 表明,「这可以将损害控制在必定程度上。」由于换脸现在还不行令人信服。在信任这些视频是真的之前,人们总是会先置疑一下,Garg 表明。
Lyu 还表明,现在大部分的视频还仅仅换脸,并且不行令人信服,真实的风险是身体的交换。这种「木偶大师」式的 deepfake 会绑架人的整个身体,编码者可以依据自己的志愿使它们动起来。Lyu 和其他研讨者现已开发了可以做到这一点的代码,并且运用的是 GAN 之外的一种编码器。
但一切人都信任,身体交换迟早会商业化。Lyu 和 Garg 表明,下一步的查询应该由大学主导、通过同行评定,而不是由私有公司出资。「这将成为国家科学基金的一个好项目」,Lyu 表明。
参阅内容:
https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201920200AB730
https://deeptracelabs.com/resources/
https://spectrum.ieee.org/tech-talk/computing/software/the-worlds-first-audit-of-deepfake-videos-and-tools-on-the-open-web
本文为机器之心报导,转载请联络本大众号取得授权。
------------------------------------------------