Deepfake性犯罪激增:AI可能創造新壹代的施虐者?

尾聲:


技術是工具,卻不是答案

導向真實犯罪的可能性是深度偽造性犯罪引發如此大范圍恐慌的原因。維也納大學哲學系博士後凱斯·雷蒙·哈裡斯(Keith Raymond Harris)詳細分析了這類內容如何讓人們產生心理聯想。“當學生對同學進行深度偽造時,這可能會改變他們對對象的看法,並在現實生活中造成進壹步的不尊重、騷擾甚至虐待。當這些對特定女性產生的心理聯想,導致對所有女性的聯想時,偏見就會進壹步強化。”

女性遭受相關“報復性色情”的後續遭遇也值得關注。在 BBC 壹檔名為“她說”(The She Word)節目中, 兩名津巴布韋女性講述了她們成為色情報復受害者的故事——壹人被剝奪了家庭關系,因此無法完成學業;另壹人則失去了工作。在印度,壹名記者曾為壹個八歲女孩伸張正義後,遭到了深度偽造色情誹謗。這些報道散見於多個國家。此外,還有不少女性受訪者稱,在成為這些網絡性暴力目標後,她們很難維持或找到工作。



圖片:ic photo.

目前的困境在於,技術發展的速度已經遠遠超過立法的速度。以韓國為例,現有法律對出於傳播目的制作深度偽造內容的人、以及試圖通過傳播這些內容來獲取經濟利益的人都有壹定的懲治條例,但目前並沒有相關法律禁止購買、存儲或觀看深度偽造的內容。調查人員需要獲得法院批准才能用秘密身份進入深度偽造聊天室,而且,他們只是在收到未成年人遭到性虐待的舉報後才能進行這類調查。這個過程也可能很慢。

“你在假期發現了壹個聊天室,但等你得到法院批准後,它已經消失了,”韓國國家警察局網絡犯罪高級調查員鹹永玉在接受《紐約時報》采訪時表示。


杜倫大學法學教授、圖像濫用專家克萊爾·麥克格林(Clare McGlynn)這些年也在與同行持續呼吁修改圖像犯罪相關法律,“但我們基本上是在向虛空呐喊”。麥克格林解釋說,這些年,政府方面壹直認為虛假圖片和影像資料的危害不大,沒有真正與受害者交談。立法的邏輯更關注性行為是否真實發生,而不太在意受害者的感受。“這些網絡性犯罪行為沒有被認真對待,人們還是沒有意識到這種傷害可能是深遠且毀滅性的——它不會突然發生,你也許可以試著克服它,繼續生活,但它總有可能重新出現在網上。”

麥克格林還指出,現有法案的設定大都忽略了平台的責任。盡管平台方表示對相關深度偽造內容采取“零容忍”,但在壹份深度偽造圖像或視頻被刪除前,已經有數千萬次瀏覽量時,這樣的立場就顯得有些“空洞”。

回到今年初泰勒·斯威夫特的遭遇。當時平台方以“優先考慮安全”為名,短暫屏蔽了全平台關於“Taylor Swift”的搜索結果,暫時讓她“隱形”。這壹舉動被認為傳遞了壹個危險的信號:“如果當今世上最有影響力的女性之壹都必須要在網上消失,才能保證安全,那這對其他人而言意味著什麼?”

當互聯網技術迭代不斷將人類整體帶向壹個更加互聯互通的未來時,從“紅藥丸”的出現到深度偽造性犯罪的激增,這似乎在凸顯另壹種相悖的趨勢。正如“臉書”創辦人馬克·扎克伯格的妹妹多娜·扎克伯格所看到的另壹面:這可能逐漸加深對女性邊界的侵犯。兩性平等如何終結這壹世界上最古老的偏見?顯然技術本身不會自然而然提供答案。

[加西網正招聘多名全職sales 待遇優]
好新聞沒人評論怎麼行,我來說幾句
上壹頁12345下壹頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站