写点什么

万恶的 Deepfake,为什么百禁不绝?

作者:脑极体
  • 2024-10-09
    天津
  • 本文字数:2940 字

    阅读完需:约 10 分钟


在国庆假期期间,网友恶搞的雷军 AI 配音突然爆火,引发了诸多争议。AI 造假音视频,似乎已经成为一个无法关闭的潘多拉魔盒。在更早之前,韩国爆发的 Deepfake 危害事件就曾引发全球关注。根据相关报道,最初是由多名韩国女性通过社交平台,披露了传播 Deepfake 换脸不雅视频的事件。随后,有越来越多的危害事件与受害人被爆出。

根据社交媒体流传的受 Deepfake 影响名单,有超过百所韩国中小学以及国际学校出现相关问题。有韩国官员表示,受害者可能达到 22 万人。


这里大家可能会有这样一个疑问:为什么多年来人人喊打的 Deepfake 反而愈演愈烈?

要知道,早在 2017 年 Deepfake 刚刚出现的时候,仅仅几天就遭到了全球范围的合力封杀,包括但不限于主流社交媒体的严格封禁。此后,多个国家与地区采用了立法的形式,严禁利用 Deepfake 以及其他 AI 换脸技术侵犯他人肖像权与隐私权。

危害难以杜绝,是因为 Deepfake 技术高深,让人防不胜防吗?

答案刚好相反,Deepfake 难以禁止的原因,恰恰在于其过分简单,只需要简单的技术资源就能造成巨大的破坏性影响。

而这些资源,在今天的互联网环境下能够轻而易举地获取。


我想,我们没有必要从人性和动机上讨论为什么有人制作和传播 AI 换脸视频。只要违法成本够低,这种行为就必然无法杜绝。作为普通人,我们也难以从立法和执法的角度探讨如何打击 Deepfake。我们能做的,是审视进行 Deepfake 的真实情况,进而考虑如何增大违法难度,压缩这种行为的生存空间。

Deepfake 被很多媒体称作“人类最邪恶的 AI 技术”。这种描述有其合理性,但也客观上对 Deepfake 进行了妖魔化、神秘化的修饰,让不了解的人将其与黑客、勒索病毒、暗网等关键词联系起来,认为其非常隐秘而高深。


事实恰恰相反,Deepfake 的危害性与破坏性,恰恰在于其操作简单。近乎没有任何技术学习门槛,同时其所需要的每一步帮助,都可以在公开的互联网环境中堂而皇之地获取。

试想一下,韩国的 22 万名受害者,不可能都是某几个技术大牛进行的施暴。当普通人可以随时随地,没有成本地作恶,恶意才真正难以被遏制。

之所以这样说,是我们必须先了解 Deepfake 的具体流程。一般来说,使用 Deepfake 进行 AI 换脸,需要经历以下几个步骤:

1.准备 Deepfake 相关软件,或者找到具有类似功能的在线 AI 开发平台。

2.准备要进行人脸替换的视频,对视频进行照片化切图。

3.挑选出若干照片中要替换的人脸并进行操作。俗称切脸,提脸。

4.将准备好的照片进行覆盖,进而进行模型训练。这一步对于缺乏技术功底的人来说,大概率需要预训练模型来辅助训练。

5.训练完成,生成视频。


从这个流程中我们可以总结出,想要进行一次有危害性的 Deepfake 最多只需要四件东西:AI 换脸软件、预训练模型、被换脸的视频、受害人照片。

获取这些东西过分容易,就是 Deepfake 百禁不绝,反而流毒更广的核心原因。


我们可以来分步骤看看,Deepfake 的“作案工具”究竟来自哪里。讨论这些的原因绝不是希望普及相关知识,而是希望指出互联网环境下,留给 Deepfake 作恶者的机会与漏洞究竟在哪里。这些漏洞不被斩断,仅凭道德层面的号召倡议,或者对 AI 换脸视频的技术识别,是断然无法组织别有用心者的。


首先,AI 换脸必然需要受害人的照片。根据相关技术社区的分享,最初版本的 Deepfake 大概需要 50 张、多角度、高清晰度的照片,才能实现较为自然的视频合成。但经过几年的迭代,目前只需要 20 张左右的照片就可以实现。

试想一下,对于稍微有社交媒体分享习惯的朋友来说,20 张照片被盗用简直是轻而易举。

加上一段很容易找到的不雅视频,一场无妄之灾可能就此开启。


得到了受害人的照片信息之后,不法分子就要找到可以进行 Deepfake 的软件。Deepfake 的创始人最早是将软件与教程分享到了 Reddit 上,此后很快被官方禁止。一气之下,作者就将这款软件的代码全部放到了 Github 上进行免费分享,可供随时下载与使用。

到 2022 年,相关软件已经升级到了 DeepFaceLab 3.0 版本,不仅可以在作者的 Github 下载,在中文互联网环境中还有大量 QQ 群、网盘链接进行分享。


更为可恶的是,在各个下载渠道中获得的 DeepFaceLab,都有非常详细的中文说明与操作指引。而在切脸这类比较繁琐的工作上,甚至有专门软件进行加速。

唯一可能给不法者造成阻碍的,是 AI 换脸依旧需要比较好的显卡来进行训练加速,但中高端的游戏显卡也已经完全足够。

获取成本为 0 的不法软件,技术成本为 0 的操作难度,构成了 Deepfake 真正恐怖的地方。


到以上为止,如果是一个有 AI 技术能力的人,已经获得了全部进行 Deepfake 施暴的前提条件。但对不太了解 AI 技术的人来说,还有一个关键需求,就是获取预训练模型。

预训练模型,是 AI 开发的一个基本机制。由于大部分 AI 模型的前置训练任务是相同的,因此开发者倾向将相同的部分进行预训练,在同类任务中作为公用底座来使用。而在 AI 换脸任务中,由于难以掌握训练方法,大部分新手训练出的 AI 换脸模型会出现贴脸不自然,严重掉帧等现象。这时候就需要使用预训练模型进行训练,从而在提升模型精度的同时,也降低模型训练所需时间。

按理说,作为非技术人员的普通人,应该较难获得预训练模型来进行 Deepfake 吧?


事实并非如此,打开很多电商平台、二手交易平台,就可以轻松找到专用于 Deepfake 的预训练模型。这些模型一般被称为“AI 金丹”。

在某主流二手交易平台,搜索 AI 金丹、AI 仙丹、AI 底丹,或者 DFL 丹药、DFL 灵丹等关键词,会出现大量 Deepfake 预训练模型的出售联接。一般只需要几元钱成本。

由于平台缺乏监管,这类售卖行为长期存在,成为滋长恶行的“产业链”。就连上文提到的 DeepFaceLab 软件,很多时候也可以在二手交易平台买到,卖家还对进行操作教程与指引。

而这种“AI 仙丹产业链”另一个难以杜绝的地方在于,一个 Deepfake 用户熟练操作之后,又可以将自己的模型制作为预训练模型,也被俗称为“炼丹”。炼好的弹药再到二手平台进行贩卖,这种灰色产业就这样不断扩散绵延。


总结 Deepfake 施暴者每一步的支持来源,是为了指出杜绝其危害,真正应该着手发力的地方。

目前相关话题的讨论,经常会陷入某种误区:总是想要用非常前沿的,高成本的方法去阻击 Deepfake,比如倡导利用 AI 技术来鉴别视频是否为 AI 生成等。

当然,通过 AI 算法来分辨 AI 换脸有重要的应用场景,比如在 AI 换脸诈骗识别上,检测视频造假就至关重要。

但在类似韩国 Deepfake 事件,这类利用 AI 换脸炮制不雅视频的犯罪中,识别视频为假是无力的,甚至是无用的。

对于造假者与传播者而言,他们大多不在乎视频是否为假。依靠高精尖的智能化技术去检测 Deepfake,就像用微小的技术沙袋,去堵决堤的人性江河,不过是扬汤止沸而已。


更有效的方法,或许是釜底抽薪,是从源头上杜绝别有用心者尝试 Deepfake。

首先,或许我们需要在社交媒体上分享照片时更加慎重。诚然,不能让受害者承担制止犯罪的义务,但在这个充满不确定性的网络环境中,个人隐私的保护责任也在变得愈发重要。

接下来,是对相关软件要采取更具严格的封禁策略。对传播类似软件采取适当的制止行为。尤其在 AIGC 兴起后,大量新型平台开始为普通开发者提供各种各样的 AI 开发功能。一定要谨慎提防类似功能混迹其中,成为新的 AI 安全漏洞。

此外,电商平台与二手交易平台需要更加严格监管。堵住 Deepfake 软件与预训练模型的售卖渠道。切断利益链,往往是禁止不法行为的关键。

在今天,我们与 Deepfake 的斗争才刚刚开始。对它的祛魅与了解,是抵制恶意的第一步。


发布于: 刚刚阅读数: 4
用户头像

脑极体

关注

还未添加个人签名 2020-06-12 加入

还未添加个人简介

评论

发布
暂无评论
万恶的Deepfake,为什么百禁不绝?_AI_脑极体_InfoQ写作社区