AI生成的假消息為什麼更難防?怎麼治理?
過去壹年,我們目睹了虛假信息生態的根本性變革。在世界經濟論壇發布的《全球風險報告》中,虛假信息和錯誤信息已連續叁年位居全球短期風險高位,而AI技術的濫用,更成為這壹全球挑戰加速的重要推手。
當技術能輕易制造“有圖有真相”的謊言,真實與虛假的邊界被前所未有地模糊,虛假信息的工業化生產與病毒式傳播對經濟民生與公共安全構成嚴峻挑戰。與此同時,作為應對的事實核查領域也在加速技術演進與模式創新。
為此,“澎湃明查”特約多位學者撰稿,回望2025,深度解析虛假信息的最新特點與治理難點,並探討核查技術的未來路徑。系列約稿旨在穿透信息迷霧,為重建人工智能時代的信息信任、構建社會認知的“免疫系統”提供智識支撐。
我們每天接觸的信息中,真假混雜早已不是新鮮事。但隨著生成式AI的普及,錯誤信息的生產和傳播機制正在發生根本性改變。過去,制造謠言需要編故事、找素材、手工剪輯,如今許多環節已可“壹鍵生成”;以往的虛假內容往往粗糙、容易識破,現在卻能寫得像專業報道、做得像新聞現場、說得像當事人親述;從前傳播多靠“碰運氣”式擴散,如今則可根據用戶興趣與情緒特征實現精准推送。
這種變化帶來的後果是,錯誤信息不再只是偶發的“劣質內容”,而更像壹種持續累積的信息生態污染——它不斷擠占真實信息的生存空間,消耗公眾的注意力與社會信任,也使得治理越來越難以依靠單點突破來解決。
AI如何“升級”錯誤信息:肆個變化,肆重風險
第壹個變化是從“零星制造”到“批量生產”。
過去,編造壹條謠言需要時間和人力,傳播范圍也相對有限。而現在,同壹個虛假敘事可以被AI迅速改寫成多個版本:長文、短帖、聊天記錄截圖,甚至模仿“內部通報”的行文風格。AI甚至能根據不同平台的風格調整語氣和標題,這使得治理陷入壹個結構性困境:核查與澄清的速度,始終追不上生成與傳播的速度。錯誤信息不再是“出現—澄清—消散”的單次事件,而是演變為持續再生的信息流。
其中,公共安全類謠言是典型場景。2025年5月,網上流傳“杭州濱江發生惡性刑事案件,嫌疑人已被刑拘”,引發本地恐慌,後經警方查證為虛構。這類內容的危險不僅在於“騙到人”,更在於它借助“像通報、像新聞”的敘事模板,迅速獲得轉發與討論,將公眾注意力從真實信息上轉移。
第贰個變化是從“看著就假”到“以假亂真”。
很多人對謠言的第壹道防線是直覺:看起來太離譜、圖片太假、邏輯不通,會減少對其的信任。但隨著多模態生成能力的提升,錯誤信息越來越能做得“像那麼回事”:文本更通順、畫面更完整、音視頻更像現場,讓人很難僅憑經驗判斷真偽。而這種變化帶來雙重風險:壹是普通人更易誤判,並非因為缺乏常識,而是內容的“擬真度”提高了判斷門檻;贰是糾錯信息更難擴散,壹旦第壹波傳播建立起情緒與印象,後續澄清常常跑不過“既定印象”。
2025年北京大風期間,有人編造“門頭溝廣告牌砸死人”的視頻進行傳播,後才被警方證實為捏造並予以處罰。這類事件屢屢發生,是因為在天氣災害、突發事件等高關注場景中,人們更容易進入“求快”的信息狀態:看到“像現場”的內容,就可能先轉發給親友,形成鏈式擴散。
第叁個變化是從“廣撒網”到“精准投喂”。
AI的另壹種危險不在於“能寫”,而在於“能迎合”。它可以根據不同人群的興趣、立場和情緒偏好,生成“更像你會相信的版本”:同壹件事,給不同群體配上不同角度、案例和話術。這會放大兩種社會後果:壹方面,同溫層變得更厚,人們更容易把符合既有觀點的錯誤信息當成“證據”,進壹步固化立場;另壹方面,公共討論更加碎片化,大家看似在討論同壹話題,實際每個圈層拿到的是不同版本的“事實”。
2025年的“大熊貓寶力受虐、健康異常”的謠言便是情緒驅動的典型:它抓住公眾對“國寶”的關心,用“傷痕、抽搐”等強刺激詞匯制造道德震蕩。後續雖有機構通過聲明、視頻與檢查信息澄清,但在謠言擴散初期,它已完成情緒動員。這類內容並不依靠嚴密證據,而是靠“讓你難受、讓你憤怒、讓你覺得必須轉發”來推動傳播。
第肆個變化是從“抓到發布者就行”到“鏈條很長很分散”。
在AI時代,壹條錯誤信息往往不是單點造成的:可能由模型生成初稿、賬號搬運改寫、平台推薦放大、用戶贰次創作擴散共同促成。結果就是——每個環節都可以聲稱自己只是“工具/轉發/平台中立”,責任被切割得越來越碎。當責任難以歸位,治理就容易出現兩種失衡:要麼只處理最末端的個體賬號,而對上游的生產工具與分發機制缺乏約束;要麼平台與技術主體“隱身”,把問題歸結為“用戶素質”,卻忽視算法對傳播效率的放大作用。
[物價飛漲的時候 這樣省錢購物很爽]
這條新聞還沒有人評論喔,等著您的高見呢
當技術能輕易制造“有圖有真相”的謊言,真實與虛假的邊界被前所未有地模糊,虛假信息的工業化生產與病毒式傳播對經濟民生與公共安全構成嚴峻挑戰。與此同時,作為應對的事實核查領域也在加速技術演進與模式創新。
為此,“澎湃明查”特約多位學者撰稿,回望2025,深度解析虛假信息的最新特點與治理難點,並探討核查技術的未來路徑。系列約稿旨在穿透信息迷霧,為重建人工智能時代的信息信任、構建社會認知的“免疫系統”提供智識支撐。
我們每天接觸的信息中,真假混雜早已不是新鮮事。但隨著生成式AI的普及,錯誤信息的生產和傳播機制正在發生根本性改變。過去,制造謠言需要編故事、找素材、手工剪輯,如今許多環節已可“壹鍵生成”;以往的虛假內容往往粗糙、容易識破,現在卻能寫得像專業報道、做得像新聞現場、說得像當事人親述;從前傳播多靠“碰運氣”式擴散,如今則可根據用戶興趣與情緒特征實現精准推送。
這種變化帶來的後果是,錯誤信息不再只是偶發的“劣質內容”,而更像壹種持續累積的信息生態污染——它不斷擠占真實信息的生存空間,消耗公眾的注意力與社會信任,也使得治理越來越難以依靠單點突破來解決。
AI如何“升級”錯誤信息:肆個變化,肆重風險
第壹個變化是從“零星制造”到“批量生產”。
過去,編造壹條謠言需要時間和人力,傳播范圍也相對有限。而現在,同壹個虛假敘事可以被AI迅速改寫成多個版本:長文、短帖、聊天記錄截圖,甚至模仿“內部通報”的行文風格。AI甚至能根據不同平台的風格調整語氣和標題,這使得治理陷入壹個結構性困境:核查與澄清的速度,始終追不上生成與傳播的速度。錯誤信息不再是“出現—澄清—消散”的單次事件,而是演變為持續再生的信息流。
其中,公共安全類謠言是典型場景。2025年5月,網上流傳“杭州濱江發生惡性刑事案件,嫌疑人已被刑拘”,引發本地恐慌,後經警方查證為虛構。這類內容的危險不僅在於“騙到人”,更在於它借助“像通報、像新聞”的敘事模板,迅速獲得轉發與討論,將公眾注意力從真實信息上轉移。
第贰個變化是從“看著就假”到“以假亂真”。
很多人對謠言的第壹道防線是直覺:看起來太離譜、圖片太假、邏輯不通,會減少對其的信任。但隨著多模態生成能力的提升,錯誤信息越來越能做得“像那麼回事”:文本更通順、畫面更完整、音視頻更像現場,讓人很難僅憑經驗判斷真偽。而這種變化帶來雙重風險:壹是普通人更易誤判,並非因為缺乏常識,而是內容的“擬真度”提高了判斷門檻;贰是糾錯信息更難擴散,壹旦第壹波傳播建立起情緒與印象,後續澄清常常跑不過“既定印象”。
2025年北京大風期間,有人編造“門頭溝廣告牌砸死人”的視頻進行傳播,後才被警方證實為捏造並予以處罰。這類事件屢屢發生,是因為在天氣災害、突發事件等高關注場景中,人們更容易進入“求快”的信息狀態:看到“像現場”的內容,就可能先轉發給親友,形成鏈式擴散。
第叁個變化是從“廣撒網”到“精准投喂”。
AI的另壹種危險不在於“能寫”,而在於“能迎合”。它可以根據不同人群的興趣、立場和情緒偏好,生成“更像你會相信的版本”:同壹件事,給不同群體配上不同角度、案例和話術。這會放大兩種社會後果:壹方面,同溫層變得更厚,人們更容易把符合既有觀點的錯誤信息當成“證據”,進壹步固化立場;另壹方面,公共討論更加碎片化,大家看似在討論同壹話題,實際每個圈層拿到的是不同版本的“事實”。
2025年的“大熊貓寶力受虐、健康異常”的謠言便是情緒驅動的典型:它抓住公眾對“國寶”的關心,用“傷痕、抽搐”等強刺激詞匯制造道德震蕩。後續雖有機構通過聲明、視頻與檢查信息澄清,但在謠言擴散初期,它已完成情緒動員。這類內容並不依靠嚴密證據,而是靠“讓你難受、讓你憤怒、讓你覺得必須轉發”來推動傳播。
第肆個變化是從“抓到發布者就行”到“鏈條很長很分散”。
在AI時代,壹條錯誤信息往往不是單點造成的:可能由模型生成初稿、賬號搬運改寫、平台推薦放大、用戶贰次創作擴散共同促成。結果就是——每個環節都可以聲稱自己只是“工具/轉發/平台中立”,責任被切割得越來越碎。當責任難以歸位,治理就容易出現兩種失衡:要麼只處理最末端的個體賬號,而對上游的生產工具與分發機制缺乏約束;要麼平台與技術主體“隱身”,把問題歸結為“用戶素質”,卻忽視算法對傳播效率的放大作用。
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 |
推薦:



