壹個AI恐怖故事:我在色情網站,看到了自己

“我在群裡看到你,是你嗎?”
在韓國,如果有朋友給你發來這句問候,不要誤會,他大概率不是要和你敘舊,因為接下來他給你發的,很可能就是你的裸照。
看著屏幕,你如遭雷擊,腦子壹片空白。雖然你百分百確認自己從來沒有拍攝這樣的照片,可手機屏幕裡的那個人眉目清楚,卻又分明就是你。
你不明白發生了什麼,心髒被攥緊,恐懼開始在全身蔓延。
照片當然和女孩兒無關,它是由壹種名叫深度偽造(DeepFake)的技術生成,這種技術在國內更被人熟知的稱呼是“AI換臉”。在如今的韓國,這種技術正在變成壹團巨大的陰影,籠罩在所有女性的頭頂,帶來恐慌和迫害。
在韓國,犯罪者通過DeepFake將普通人的形象替換到色情圖片或視頻中,然後通過社交媒體上進行傳播,對當事人進行羞辱。
據《朝鮮(专题)日報》的報道,最近壹周在警方發現的相關Telegram社群裡,參與制作和傳播DeepFake的加害者已多達23萬人。這些人不局限在韓國,也來自世界各地。
另據壹位韓國網友在X上發布的帖子表示,受到DeepFake影響的受害者已經遍及韓國數百所國中、高中和大學。這些受害者中,80%是女性,她們有的還在念初高中,屬於未成年人、有的是大學生或者教師,其中甚至包括女性軍人,她們的照片被稱為“軍需品”。

X上披露受Deepfake技術影響的校園名單
回顧這場風暴,DeepFake無疑是其中的關鍵。但它卻並不是壹項新技術,最早出現在2016年的DeepFake到如今已有將近拾年的歷史。
這拾年間,DeepFake壹直游走在罪惡和法律的邊緣,不斷挑戰著人性和道德的底線。從美國到中國,從韓國到印度(专题),DeepFake每隔壹兩年就會有壹次技術突破,然後又給這個世界帶來壹場更大的恐慌。
技術有罪嗎?DeepFake好像確實如此。但技術真的有罪嗎?卻似乎又與DeepFake無關。
被害人,從明星到百姓
追溯起來,DeepFake 最早出現在2016年。
當時,機器視覺還是全球AI研究最熱門的方向之壹,壹些研究人員在研究機器視覺的過程中使用DCNN(深度卷積神經網絡)實現了人臉識別、表情轉換以及其他與圖像處理相關的任務,這是DeepFake最早的雛形。
差不多壹年之後,以這些技術為基礎,科研人員進壹步采用GAN(生成對抗網絡)實現了生成逼真的人臉圖像。之後,“換臉”很快以極具破壞性的首秀向大眾展示它的威力。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
推薦:



