【AI的多重宇宙】UNIVERSE-04 深伪莫测的AI世界

在当今这个後处理技术发达的时代,「眼见已不一定为实」,各种假消息、假图片、假影片甚嚣尘上,深度伪造的议题已经不容忽视。日前曾发生某知名Youtuber将多位女性公众人物「换脸」到色情影片事件,有些人认为既然影片是伪造的,当事者就不会受到伤害,但事实上从各个面向来剖析,它造成的伤害层面是远远超过我们的想像。社会要因应深伪议题须从许多层面同时着力,唯有透过完善的法律约束、开发更强的防御技术,并让社会大众提升的个人良知与遵守社会的伦理,才能让科技的发展保持着「促进人类福祉」的初衷。

讲者、审定|高雄医学大学性别研究所 余贞谊助理教授 × 成功大学统计学系暨SOC数据科学中心 许志仲 助理教授

汇整、撰稿|叶珊瑀

来源:台大科学教育发展中心

深度伪造 (Deepfake) 今日多用来指称变造的影音,用作为传递假消息的媒体内容,抑或是带有性暴力意涵的身体图像拼接色情影音。针对後者,着名的社会新闻,如Youtuber小玉将多位女性公众人物的影像「换脸」到色情影音上牟取暴利。本次讲座邀请到高雄医学大学性别研究所的余贞谊教授,以及成功大学统计学系暨SOC数据科学中心的许志仲教授,分别从性别与科技的角度切入,重新检视深度伪造在现今社会性别化脉络下的意涵,以及我们该如何应对。

深度伪造的迷思
来源:台大科学教育发展中心

该如何理解深度伪造所造成的性别暴力,社会尚未取得共识。作为被「换脸」的当事人,心中会感到羞辱、被骚扰,然而因为其生成方式不同於过往大众熟识的未经同意散布之裸照,部分民众认为既然影片是虚假的,又何来伤害之有?余贞谊教授统整了深度伪造色情影音常见的两大迷思——

● 第一:「深度伪造是假的,可与真实世界二分,与真实无涉及,不会伤害你真实的身体。」

虽然深度伪造影片是假的,但从诸多各国研究中,可以看到它带来的实质伤害,且受害者不只是遭换脸的主角,当中被置换掉脸部、呈现身体部位的女性(如性工作者)也对自己受拍摄的身体被化作攻击其他女人的武器感到羞辱。从Bluett-Boyd等人於2023年的研究指出,性侵犯的实质伤害未必要有身体接触。深度伪造性暴力对於事件中的受害者、加害者,都模糊了传统线上、线下的界线。对抗女性暴力的澳洲组织Australian Women Against Violence Alliance也指出,深伪图片即便是由不同女人所拍摄的图像组成,却丝毫不减其伤害。从IPSOS MORI於2017的跨国调查中指出,线上骚扰会带来实质伤害,包含恐慌、焦虑、失眠,甚至会让人们「自我撤退」——为避免受到更多伤害,只好自我审查,甚至退出线上讨论公众场域。

● 第二:「深度伪造只是性幻想,每个人都有性幻想。如果性幻想可以,为何制作深伪色情影片不行?」

这样的假设性描述中,「性幻想」和「深伪色情影片」彷佛是两个原子真空般的存在,然而在真实社会中,深伪色情片却有着性别化的脉络。在多重行动者体系中,时常看到「男性消费者、生产者、技术物、厌女现象」这些组合,即便男性同样可能为受害者,但目前过半的案例中,都是男性在消费女体图像。奠基於这样的事实之下,深伪色情影片就不再只是单纯的性幻想,它让女人成为被忽略的主体,形成集体贬低女性的文化价值,它的产生本身就是带有厌女色彩的性别歧视。总结而言,性幻想不只是个人娱乐,当我们将之置放於McGlynn等人於2017年提出的「性暴力连续体」概念下,深伪色情影片同样属於性别暴力,它彰显了社会对女人的性的污名,透过将女人的脸、身体化为武器,伤害女人的性自主表达。

如何因应深度伪造衍生问题?
来源:台大科学教育发展中心

深伪色情影片议题的因应,可以分为制度、技术、个人认知与社会伦理层面。在制度层面,目前美国部分州份及我国都已将深伪色情影片放在暴力的框架之下,并透过法律加以规范,如我国刑法319-4条妨害性隐私及不实性影像罪。

在技术层面,许志仲教授将其加以分类为主动防御、被动防御,其中有些因应的防御方式不只可以打击深伪色情影片,对於消弭假消息也有帮助。主动防御强调在事件发生前自源头把关,包含上传照片至公共空间前,先以Deep Privacy的技术将脸部资讯变造,保障个人隐私权,减少个人脸部素材遭滥用的可能;而在照片上追加浮水印的传统作法可以留下数位线索痕迹,让变造内容得以追本溯源。被动防御部分则是在图像、消息已传播後,强调透过AI检测技术辨识图像真伪。当今检测技术随着深度伪造的发展,以及随之而来的强大後处理技术,仍难以完全辨识影音是否经由变造,然而随着越来越多研究者投入,检测技术的能力可望逐步跟上。

个人认知部分,许教授强调,作为社群网络中的一员,资讯传递仰赖每个作为节点的个人。在深度伪造技术发展蓬勃的当代,於社群媒体上传递消息以前,应保持着如同接到诈骗电话般的警觉心,透过主动思考评断传递资讯的真伪、传播的适切性,让不适合在社群网络中流传的虚假消息、伤害性资讯终止。

科技发展中的技术多是中性的,善恶後果往往与操作者的良知有关。针对社会伦理层面,余教授强调,深伪色情影片等议题是技术遭到滥用的後果。AI业界与学界曾提出过「AI for good」的核心原则,包含:「行善、不伤害、自主、正义、可解释性」,强调AI的发展是应用於促进人类福祉,让人类仍有选择的自由,利益共享,不排除特定团体,且AI的发展应掌控於人类理解下,当问题发生,仍有可问责的单位。从这些原则来检视,深伪色情影片不仅违反了自主、不伤害原则,压缩了受害者的自主实践与能动性,它也模糊了责任归属,创作者、观看者仿若不需负责。

总 结

深度伪造是技术高度发展的象徵,然而深伪色情影片却让我们看见了技术滥用已造成人们实质伤害。因应这样的社会发展,我们不仅需要制度层面完善的法律来保护个人,需要新的科技来因应这样的现象,也需要社会中的每位行动者保有良知与伦理,不滥用技术,也让恶意传播的虚假、有害资讯於传播链上终止。

众所期待的Q&A环节|来源:台大科学教育发展中心

精彩花絮

图左为讲师许志仲老师,中间为讲师余贞谊老师,图右为主持人政治大学新闻系方念萱老师|来源:台大科学教育发展中心

📖

admin

- Advertisement -spot_img
0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x