Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_f292713b92a88bd19903e1d4dbf026c4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
壹個AI恐怖故事:我在色情網站,看到了自己 | 溫哥華地產中心
   

壹個AI恐怖故事:我在色情網站,看到了自己




“我在群裡看到你,是你嗎?”

韓國,如果有朋友給你發來這句問候,不要誤會,他大概率不是要和你敘舊,因為接下來他給你發的,很可能就是你的裸照

看著屏幕,你如遭雷擊,腦子壹片空白。雖然你百分百確認自己從來沒有拍攝這樣的照片,可手機屏幕裡的那個人眉目清楚,卻又分明就是你。

你不明白發生了什麼,心髒被攥緊,恐懼開始在全身蔓延。

照片當然和女孩兒無關,它是由壹種名叫深度偽造(DeepFake)的技術生成,這種技術在國內更被人熟知的稱呼是“AI換臉”。在如今的韓國,這種技術正在變成壹團巨大的陰影,籠罩在所有女性的頭頂,帶來恐慌和迫害。

在韓國,犯罪者通過DeepFake將普通人的形象替換到色情圖片或視頻中,然後通過社交媒體上進行傳播,對當事人進行羞辱。

據《朝鮮(专题)日報》的報道,最近壹周在警方發現的相關Telegram社群裡,參與制作和傳播DeepFake的加害者已多達23萬人。這些人不局限在韓國,也來自世界各地。

另據壹位韓國網友在X上發布的帖子表示,受到DeepFake影響的受害者已經遍及韓國數百所國中、高中和大學。這些受害者中,80%是女性,她們有的還在念初高中,屬於未成年人、有的是大學生或者教師,其中甚至包括女性軍人,她們的照片被稱為“軍需品”。



X上披露受Deepfake技術影響的校園名單

回顧這場風暴,DeepFake無疑是其中的關鍵。但它卻並不是壹項新技術,最早出現在2016年的DeepFake到如今已有將近拾年的歷史。


這拾年間,DeepFake壹直游走在罪惡和法律的邊緣,不斷挑戰著人性和道德的底線。從美國中國,從韓國到印度(专题),DeepFake每隔壹兩年就會有壹次技術突破,然後又給這個世界帶來壹場更大的恐慌。

技術有罪嗎?DeepFake好像確實如此。但技術真的有罪嗎?卻似乎又與DeepFake無關。

被害人,從明星到百姓

追溯起來,DeepFake 最早出現在2016年。

當時,機器視覺還是全球AI研究最熱門的方向之壹,壹些研究人員在研究機器視覺的過程中使用DCNN(深度卷積神經網絡)實現了人臉識別、表情轉換以及其他與圖像處理相關的任務,這是DeepFake最早的雛形。

差不多壹年之後,以這些技術為基礎,科研人員進壹步采用GAN(生成對抗網絡)實現了生成逼真的人臉圖像。之後,“換臉”很快以極具破壞性的首秀向大眾展示它的威力。

[加西網正招聘多名全職sales 待遇優]
好新聞沒人評論怎麼行,我來說幾句
上壹頁12345下壹頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站