[春節專欄] 春節前必做:給父母看這篇防騙指南

眼看著就要到春節了,這本來是個喜慶的時刻,但是不得不說,這也是每年詐騙的高發期,而且這兩年情況更嚴峻了。為什麼呢?因為很多騙子也開始用AI了。因此,今天我們請《科技參考》主理人卓克老師來說說怎樣防騙。
簡單來說,AI生成逼真的語音和視頻,訓練過程需要的數據更少,生成效果更逼真,但套路還是舊有的。詐騙的核心並不是AI生成的內容,而是引起當事人的恐慌,然後放下戒備開始亂猜亂想。
我們需要更精心地保護自己的特征數據。不過壹切個人應對技巧都是杯水車薪的,主要還得靠AI的監管和金融和公安系統的聯動。
01
騙局如何發生?
現在詐騙犯瞄准了壹個28歲的年輕小伙子,騙他父母的錢。方案是量身定制的,這樣的人會有哪些軟肋呢?
就是在父母眼中屬於到了結婚生子的年齡,父母也開始盼著抱孫子孫女了,而城市化的現實是,這個歲數的小伙子大都正在忙事業,還沒有結婚,更沒有小孩。
所以某天晚上,母親手機突然有個陌生女人來加好友,媽媽給通過了。剛剛通過,微信視頻電話就打過來,接起來壹看,是自己的兒子,說:“媽,有個事兒我之前不好意思說,但現在不能不說了,我早就有女朋友了,都懷孕了,現在突然出了狀況,救護車送到醫院的,正在檢查,能不能給我打2萬塊錢,非常急,我把匯款信息給您微信發過去了。”
還沒等媽媽說話,電話掛了。媽媽看到之後,又驚喜又擔心,這下不但婚事大概穩了,連孫子都快抱上了,但到底出了什麼狀況呢?這時趕緊給打了回去,對方沒接,連打了2個都沒接,趕緊給兒子微信打電話,如果偏巧這時兒子正在忙其他的,沒看到手機,媽媽這會兒就慌了。
而那個陌生女人的號開始文字回復了,說不知道情況好壞,我在醫院正忙著辦手續呢,來不及回復,壹會兒和您細說。媽媽看了這句話才稍微安穩壹點。
等了5分鍾之後,這個陌生女人的微信號又來視頻電話了,接通之後畫面非常卡,兒子說:“喂喂喂,媽媽能聽到嗎?能看到我嗎?”然後好像嘴巴壹直在說話,但畫面和聲音嚴重卡頓,幾秒鍾後視頻又斷了。媽媽再問,微信上回復就是信號不好,不用視頻了,文字說吧。接著就是反復確認,匯款了沒有。
02
騙子都做了哪些事?
好,我們讓劇情暫停到這裡,復盤壹下這段劇情裡騙子在做什麼?
首先是制作深度偽造的合成視頻。
那個小伙子可能是壹個視頻博主,網上有他的vlog,為了接廣告留下的商業合作信息,姓名、電話、微信都是現成的,所以數據和人就對上了。
那這個小伙子父母的微信,騙子是怎麼知道的呢?
今天在暗網上有大量快遞信息打包數據,有的是沒有整理過的,有的是對關系做過整理的。所以甚至可以直接看到這個小伙子的常住地、辦公地、老家、父母的手機號、曾經給父母買過什麼東西,都是比較全的。而且很多人的微信,是可以通過直接搜手機號搜到的。
於是詐騙犯就能通過這樣的方式,鎖定壹個有視頻可以當作訓練數據的人,和他的父母的手機號與微信號。
然後他們用魔改版的微信,串流的方式把事先做好的深度偽造視頻當作視頻電話的數據推給媽媽,媽媽那邊是正常接電話,實際是在播放壹段錄制好的視頻。
這條視頻的作用是把需求說清,並建立基本的信任,讓媽媽知道有這麼壹回事。但由於這是播放事先做好的視頻,所以電話裡是不能溝通交流的,於是視頻要短,拾幾秒,把事情說完趕緊掛斷。
接著詐騙犯知道媽媽肯定會把電話打回來,於是准備壹些話術,比如現在脫不開身,壹會兒細說。
間隔幾分鍾後,再給媽媽打第贰個微信視頻電話,這次推流推的就是第贰段只有幾秒鍾的視頻,而且這個視頻是特別卡頓的。這幾秒鍾的視頻也是事先做好的,就是要做成聲音和圖像都卡頓的效果,甚至會添加畫面撕裂效果,只是說“喂喂喂,聽得見嗎,看得見我嗎”,然後再卡頓壹些根本聽不出什麼話的內容,幾秒鍾後關斷通話。
後續就只在微信裡催促匯款,詐騙就差不多完成了。
其實第贰段卡頓視頻盡管時長特別短,也完全沒有說任何實質性內容,但它在整個詐騙環節起的作用是最大的。
父母分幾種情況。
第壹種,馬上就信了,趕緊給賬號轉賬,詐騙就完成了。這個咱們不多說。
第贰種是沒有馬上轉賬,而是去和兒子的親戚、朋友、同學、老師、同事核實兒子當前的狀況。
因為自始至終媽媽都沒有直接和兒子聯系到,都是通過那個陌生賬號看到兒子的2個視頻和若幹文字。所以心裡的擔憂會不斷增加。甚至還有經驗更老道的家長,比如像我壹樣,我知道AI領域存在深偽視頻欺詐的事情,通過微信要錢都是不靠譜的,內心早已拉響了警報,等我兒子長大了,我即使有這樣的知識和經驗,等這種事發生在我身上,我照樣也會破防的。
我最初的反應是什麼呢?就是跟剛加的那個微信號說,錢我可以給你轉過去,但你把視頻打開,讓我看看你和你女朋友的合影,網絡不好也沒事,你把你們之前的合影發我幾張,或者我會問他,咱家養的狗叫什麼名字?
對於真兒子來說,這些要求都是輕松過關的,但對詐騙犯來說就無法提供了。
你以為這樣就能輕松應對了嗎?不是的,因為你不是當事人父母,為人父母天生就有最大的軟肋。
於是第贰段視頻也卡,音頻也卡,只有幾秒鍾的微信電話就非常有用。
大部分父母會亂了方寸,開始過度解讀,比如:我兒子別是有難處不方便直說,拿什麼女朋友懷孕當擋箭牌吧?我兒子怎麼穿了件綠色寬大的T恤,是不是他也要跟他女朋友壹起進手術室?別不是懷孕吧,是不是要捐腎給她啊?還有我兒子第贰段視頻後面怎麼是個小門啊,他被綁架了吧?不能明說,只能找借口要錢,這是不是在威脅下打的?手指頭有沒有被砍掉?人還在不在國內?這些擔憂甚至遠超過詐騙犯設計的范圍。
這時我們再看網上教人怎麼識別深偽視頻的小技巧,比如看他嘴部動作有沒有不自然,看他瞳孔裡的白色亮點是不是指的同壹個方向,看他頭發末端是不是上面細下面粗等等等等。你發現沒有,全都沒用。
因為這是兩通微信視頻通話,掛了電話就沒有視頻了,你怎麼可能第壹次就注意得到那些細節呢,等你想核對細節時,早就沒有機會了。
03
深度偽造視頻是怎麼生成的?
我們再說說深偽視頻是怎麼生成的。
簡單地說,今天的AI世界存在壹個不對等的發展,就是關於如何生成高質量文本、音頻、視頻技術的論文、研究的數量,遠遠超過如何識別這些內容是否是AI生成的研究數量。所以任何網上提到的分別深偽視頻的小貼士、小技巧、絕招,都會在很短時間裡失效,具體多短?最多半年就會過期了。
我們可以找到很多2024年初和AI換臉、換聲音有關的內容。
以聲音來說,2024年初,想要直接從文字生成語音,而且是高度模仿壹個人的嗓音,至少需要30分鍾那個人的嗓音作為訓練素材。
如今,在要求不高的情況下,比如只生成10秒鍾以內壹個人逼真的嗓音,最短只需要3秒鍾真實語音就足夠訓練了。如果能捕捉到更長的語音,比如說1分鍾長度的壹個說話的聲音,那訓練後,從文字生成的語音質量就已經可以達到熟人聽了真假難辨的地步。
最初我看網上有人評論:“你看,那些做視頻的,尤其是鏡頭懟著臉說啊說的up主們,你們給詐騙犯提供了最好的訓練數據。”因為壹個幾百萬粉絲的大V,正臉、側臉、口腔內部、手部動作,可供訓練的視頻數據、音頻數據太豐富了,至少拾幾個小時。所以真要是有詐騙犯瞄准這些大V,起碼生成的深偽視頻質量是有保障的。
但如今視頻方面可能還有些門檻,但音頻想仿造,門檻實在太低了,3-5秒鍾足矣。
不怕賊偷,就怕賊惦記,如果你已經被惦記上了,然後他用虛擬運營商號碼給你打電話,你接起來,那邊不說話,或者故意說錯話。
比如“我是某平台清洗空調的,約好了時間,怎麼家裡沒人啊。”然後你壹臉迷茫,什麼清洗空調,我沒約過啊。或者電話打來,說:“你下來挪車,把我車擋住了。”然後你也壹臉迷茫,我家車停在車位裡呢,怎麼可能擋住別人。就在和對方解釋時,語音數據就已經超過10秒了,足夠用了。
視頻數據別看還沒有很低的門檻,但生成式技術的進步,不久之後甚至可以通過壹個人幾張靜態的照片,AI可以給我們腦補出這個人演講、跑步、生病的動態片段。
到時候騙子說不定也用不著提前錄視頻了,直接撥通微信視頻電話,實時生成高質量的變臉、變聲。於是父母更不會懷疑了,你想,真人在屏幕裡和你壹問壹答,怎麼可能是假的?
今天雖然實時生成視頻還不行,但音頻已經可以了。
於是,在領導與下屬、男朋友和女朋友、名人和粉絲之間、投資圈裡的殺豬盤等等就會層出不窮。
前兩年,靳東加你微信好友,曾經是直播界的壹個梗,就是在直播打賞上頭後,中老年女性被詐騙犯利用了。
而且即將成熟的agent智能體也會被用在更多樣性的詐騙中,讓本來不具備編程和網絡技術的詐騙犯也能大施拳腳。甚至讓他們可以不用只騙和自己母語壹致的人。agent可以從目標分析開始選定受害對象,對其做畫像分析和針對性的個性化釣魚劇情設計,然後生成多模態(語音、視頻等等)的各種素材和詐騙方案。
04
個人防范,步驟多很麻煩
你要真想防范,可能步驟還得再往前提。
也就是所有網絡身份,都用筆名、化名。包括京東、淘寶的快遞,比如我現在都改叫“香蕉樹上看你笑”。
私下親朋好友溝通時,只用私人手機號和微信號,而工作、外賣、快遞、辦手續都用另外壹個手機號和微信號。截然分開就不容易被分析出人物的關聯。父母關心則亂的軟肋就不會被利用上。
但說到底,深偽視頻是無法阻擋的,之後壹定會越來越逼真,制造成本也會越來越低。識別和防范技巧只適用於極少數的達人,因為它要求當事人特別不怕麻煩,隨時保持警惕。而99.9%的人是做不到的,哪怕知道有好處也懶得做。
05
大平台和政府監管
於是,想防范不斷升級的AI欺詐,壹是要靠大平台推出的內置在軟件或者硬件上的防范,贰是要靠政府及時更新監管條款。
今天有些手機操作系統自帶可以識別AI合成聲的功能,打開後,只要是AI合成語音打來電話,界面就會標紅,告訴你:此聲音來自AI合成,請警惕詐騙。
當然,今後也可以對具體內容做鑒別,提示這些語音內容可能包含詐騙。在我們聽對方說話的時候,你手機上會自動降低對方音量,然後提高本地提示音,告訴你:這通電話內容高度疑似詐騙。
此外還得指望著國家法律法規不斷更新,比如所有生成式功能的平台和軟件都需要備案、可追溯、有標簽等等。
雖然不法分子最後會想辦法自己部署服務器用於訓練,但起碼防住了那些詐騙啟動資金小於1000萬的騙子們。
大平台和政府監管對生成式AI及時更新防范措施,才是防止AI欺詐的絕對主力。
高效的監管又有前提,就是在生成式AI的發展中,不能只發展生成式的技術,也要發展AI識別上的技術。這方面比較有代表性的活動是2024年上海舉辦的全球DeepFake(深度偽造技術)攻防挑戰賽。
其實識別上做到90分的水平,比生成上做到90分要容易得多,因為我們知道怎麼生成全部細節,那麼對於生成後的內容有哪些數據特征、算法特征,都是識別算法很好的提示。
今後這些技術內置在微信、飛書裡,才會把AI詐騙的渠道大部分堵死,我們普通人也就不用費盡心思學識別技巧了。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: |
| 延伸閱讀 | 更多... |
推薦:



