Deepfake性犯罪激增:AI可能创造新一代的施虐者?

深度伪造(Deepfake)滥用正在成为针对妇女暴力的新前沿。近日,韩国多起涉案嫌疑人在未经女性知情或同意下,利用人工智能技术合成真实人脸与虚假身体,伪造色情影像,并在多个社交媒体群组广泛传播。据韩联社报道显示,近年来,韩国Deepfake性犯罪案件数量一直呈上升态势,从2021年的156起增至2023年的180起,今年仅前七个月甚至已经累计报告297起。其中,案件受害者以年轻女性为主,主要包括学生、教师和士兵,且近三分之二的受害人都是青少年。




???????

此次激增的Deepfake性犯罪引发全球多国网民恐慌。但这并不是一次突然的爆发。

实际上,早在今年年初,美国知名歌手泰勒·斯威夫特(Taylor Swift)的深度伪造色情图片就曾在社交媒体广泛传播,在平台方做出删除处理前,该图片已被累计浏览超4700万次。遗憾的是,这次事件仅在粉丝群体内部引起震荡。美国有线电视新闻网还曾在今年1月末专门刊发评论文章,称“我们最大的错误就是,相信这种伤害只发生在公众人物身上”。而在更早些的2019年,网络安全公司“深度追踪”(Deeptrace)也曾发布过一项调研,结果显示当时96%的在线深度伪造视频都是非自愿情色内容。“这不是一个小众问题。”

此次引发关注的Deepfake案件,指向了网络性犯罪已经到了一个全新的阶段。当我们梳理围绕Deepfake案件的相关讨论时会发现,这种看似非身体的暴力之所以引发如此广泛的担忧,民众真正担心的是一种更广泛的、充满敌意的网络环境渗入真实世界。

人工智能工具可能会导致新一代年轻人产生“我的愿望就是人工智能的命令”的心态。“如果我们不小心,不仅会创造新一代的受害者,还会创造新一代的施虐者。”这些讨论也再度提示我们,关于性别的偏见——这一世界上最古老的偏见并未远去,如何实现两性之间的真正平等仍然任重道远。而技术一直隐含风险,它是工具却从来不是答案。

撰文|申璐




Deepfake案件回溯:

报复性的色情?

从某种程度来说,Deepfake(深度伪造)之于视频,就像Photoshop之于图片。两者都直观冲击了真实和虚拟之间的界限。在深度伪造技术流行之前,人们对“廉价伪造”应该都不陌生。后者指的是对现成素材进行处理,且处理方式仅限于减慢或加快视频中部分段落的播放速度,或者选择性地剪辑拼贴内容。美国众议院议长南希·佩罗西(Nancy Pelosi)就曾深受其害。相较而言,深度伪造的变形制作则可以将一张脸与另一张脸互换、或将一张脸上的表情换到另一张脸上,在这个基础上再结合配音或者声音克隆等方式,这项技术就能够实现以极低的成本制作出完全虚构但极其逼真的视频。早年间国外社交媒体曾流传过美国总统尼克松针对登月灾难的演讲,即是深度伪造的结果。

[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
上一页12345下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)

    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站