Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_82efcd1bb226e76481401005d4feda03, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
新興詐騙叁件套,批量湧入直播間 | 溫哥華地產中心
   

新興詐騙叁件套,批量湧入直播間

“誰知道對方拿著照片做了什麼呢?”


當技術被用來作惡,人性的幽暗便有了最鋒利的武器。

看別人掙錢太多?那就把她移花接木到不雅視頻

制作裸照能賺錢?那就批量偽造裸照到境外平台售賣。

沒能和暗戀女生在壹起?那就AI換臉進行報復......



只要壹個人暴露了自己的長相,就有可能被AI換臉。

去年,韓國Deepfake事件震驚全球——犯罪者通過付費群組上傳女性照片偽造色情內容,進而廣泛傳播。

受害者涵蓋未成年人、教師、軍人、明星等各個年齡和職業的人群,甚至還有以女性家人為目標的“家庭群組”“近親群組”。

也就是說,許多女性根本不知道自己什麼時候就被盯上,而制作AI換臉的人可能是身邊的朋友、同學,也有可能是完全不認識的陌生人。

這種威脅的恐怖之處就在於它的無孔不入與隨機性。

當惡意從熟悉或陌生的角落襲來,受害者甚至來不及辯解,就已墜入深淵。

被AI換臉的網友表示不敢再前往人群,日常生活遭受嚴重幹擾。

Deepfake受害者的心理創傷植入日常,只要收到短信通知或匿名電話的鈴聲,就會心跳加速,陷入恐懼。




除了肖像權侵害、名譽損害,AI換臉還被廣泛用於詐騙。

與早期粗劣的詐騙方式不同,騙子們如今早就准備好了高度定制化專屬劇本。

壹位母親會收到“女兒”的多條語音,催著繳納報名費,焦急之下立即向騙子賬戶轉賬3.5萬元;

經常聯系的“朋友”會給你打來視頻哭著借錢,幾秒鍾就騙走幾拾萬......



[加西網正招聘多名全職sales 待遇優]
這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站