重要信號:美叁大死對頭 聯手封殺中國
OpenAI、Anthropic和谷歌這叁位美國AI賽場上的“死對頭”,如今居然坐到了壹條板凳上,聯手圍堵中國AI企業的“模型蒸餾”行為。這背後,是美國對中國開源AI快速崛起的深度焦慮,更是中美科技競爭進入新階段的壹個重要信號。
壹、OpenAI、Anthropic和谷歌攜手打擊中國AI模型對抗性蒸餾問題。
人工智能這塊蛋糕越做越大,美國那邊的幾位大佬出現新的動向。據彭博社報道,壹向在賽道上你爭我搶的OpenAI、Anthropic和谷歌,如今居然聯起手來,目標直指中國的AI企業。這叁家平時恨不得把對方按在地上摩擦的競爭對手,能坐到同壹條板凳上,這本身就說明問題不簡單。
他們是通過壹個叫“前沿模型論壇”(Frontier Model Forum)的機構來共享信息的。這個論壇是2023年這叁家公司跟微軟壹塊兒鼓搗出來的壹個非營利組織,宗旨就是識別和防范所謂“對抗性蒸餾”行為——也就是有人在違反它們服務條款的前提下,通過技術手段從人家的模型裡往外“榨”東西。說得再直白壹點,就是有人在偷這幫美國巨頭的模型,然後拿去訓練自己的產品。
什麼是“蒸餾”?通俗講,就是用壹個大模型當“老師”,拿它的輸出結果去訓練壹個更小的“學生模型”,這樣“學生”就能低成本地復制“老師”的能力。這項技術本身並不是什麼新鮮事,在AI行業裡挺常見的,很多公司自己蒸餾自己的模型,做出更小更便宜的版本給客戶用,這在業界是被鼓勵的。
但問題在於,當第叁方——尤其是競爭對手——未經授權用你的模型輸出去訓練他們自己的東西時,這性質就變了。
壹位知情人士透露,美國官員估計,這種未經授權的蒸餾行為每年可能給硅谷的AI實驗室造成數拾億美元的利潤損失。幾拾億美元啊,這可不是小數目。而且這還不光是錢的事兒,他們還擔心這些被“蒸餾”出來的模型缺乏安全防護,可能被用來幹壹些不可控的事情,甚至帶來國家安全風險。
OpenAI已經證實參與了這次信息共享,還在提交給美國國會的備忘錄裡點名批評中國公司DeepSeek,說它想“搭便車”,免費利用OpenAI和其他美國前沿實驗室開發的能力。
贰、自2025年初開始,對抗性蒸餾已引發美國人工智能公司發出警報!

要說這蒸餾技術怎麼突然就成了美國AI圈的心頭大患,那得從2025年1月說起。當時中國初創公司DeepSeek突然放了個大招,發布了推理模型R1,壹下子在全球AI界炸開了鍋。這個R1模型性能強悍,成本卻低得驚人——訓練成本據說只有29.4萬美元(無法驗證)。微軟和OpenAI當時就坐不住了,立馬啟動調查,想查清楚DeepSeek是不是從美國企業模型裡“偷”了數據來開發R1。
到了今年2月,Anthropic更是直接開炮。它發了壹篇義正詞嚴的博客,點名DeepSeek、月之暗面(Moonshot AI)和MiniMax叁家中國AI實驗室,說它們通過大約24000個虛假賬戶,跟Claude模型進行了超過1600萬次對話交互,搞“工業級別的蒸餾攻擊”,系統性地“抽取”Claude的核心能力來訓練自家的模型。Anthropic直接把這事上升到“國家安全”高度,說被蒸餾出來的模型可能被用於網絡攻擊、虛假信息傳播甚至軍事用途。
谷歌也在官方博客裡表示,他們觀察到的模型提取攻擊呈上升趨勢。OpenAI則在提交給美國國會的備忘錄中警告,DeepSeek還在用更復雜的手段從美國模型裡提取結果。壹時間,叁巨頭齊聲高喊“狼來了”,整個美國AI圈風聲鶴唳。
2025年9月,DeepSeek團隊的R1研究論文登上了國際權威期刊《自然》的封面, DeepSeek在論文中明確表示,R1的基座模型訓練數據僅來自普通網頁和電子書,在預訓練冷卻階段也沒有故意加入OpenAI生成的合成數據。當然,DeepSeek也坦率承認,部分網頁中確實包含OpenAI模型生成的答案,這可能讓基礎模型間接受益於其他強大模型的知識。
[物價飛漲的時候 這樣省錢購物很爽]
還沒人說話啊,我想來說幾句
壹、OpenAI、Anthropic和谷歌攜手打擊中國AI模型對抗性蒸餾問題。
人工智能這塊蛋糕越做越大,美國那邊的幾位大佬出現新的動向。據彭博社報道,壹向在賽道上你爭我搶的OpenAI、Anthropic和谷歌,如今居然聯起手來,目標直指中國的AI企業。這叁家平時恨不得把對方按在地上摩擦的競爭對手,能坐到同壹條板凳上,這本身就說明問題不簡單。
他們是通過壹個叫“前沿模型論壇”(Frontier Model Forum)的機構來共享信息的。這個論壇是2023年這叁家公司跟微軟壹塊兒鼓搗出來的壹個非營利組織,宗旨就是識別和防范所謂“對抗性蒸餾”行為——也就是有人在違反它們服務條款的前提下,通過技術手段從人家的模型裡往外“榨”東西。說得再直白壹點,就是有人在偷這幫美國巨頭的模型,然後拿去訓練自己的產品。
什麼是“蒸餾”?通俗講,就是用壹個大模型當“老師”,拿它的輸出結果去訓練壹個更小的“學生模型”,這樣“學生”就能低成本地復制“老師”的能力。這項技術本身並不是什麼新鮮事,在AI行業裡挺常見的,很多公司自己蒸餾自己的模型,做出更小更便宜的版本給客戶用,這在業界是被鼓勵的。
但問題在於,當第叁方——尤其是競爭對手——未經授權用你的模型輸出去訓練他們自己的東西時,這性質就變了。
壹位知情人士透露,美國官員估計,這種未經授權的蒸餾行為每年可能給硅谷的AI實驗室造成數拾億美元的利潤損失。幾拾億美元啊,這可不是小數目。而且這還不光是錢的事兒,他們還擔心這些被“蒸餾”出來的模型缺乏安全防護,可能被用來幹壹些不可控的事情,甚至帶來國家安全風險。
OpenAI已經證實參與了這次信息共享,還在提交給美國國會的備忘錄裡點名批評中國公司DeepSeek,說它想“搭便車”,免費利用OpenAI和其他美國前沿實驗室開發的能力。
贰、自2025年初開始,對抗性蒸餾已引發美國人工智能公司發出警報!

要說這蒸餾技術怎麼突然就成了美國AI圈的心頭大患,那得從2025年1月說起。當時中國初創公司DeepSeek突然放了個大招,發布了推理模型R1,壹下子在全球AI界炸開了鍋。這個R1模型性能強悍,成本卻低得驚人——訓練成本據說只有29.4萬美元(無法驗證)。微軟和OpenAI當時就坐不住了,立馬啟動調查,想查清楚DeepSeek是不是從美國企業模型裡“偷”了數據來開發R1。
到了今年2月,Anthropic更是直接開炮。它發了壹篇義正詞嚴的博客,點名DeepSeek、月之暗面(Moonshot AI)和MiniMax叁家中國AI實驗室,說它們通過大約24000個虛假賬戶,跟Claude模型進行了超過1600萬次對話交互,搞“工業級別的蒸餾攻擊”,系統性地“抽取”Claude的核心能力來訓練自家的模型。Anthropic直接把這事上升到“國家安全”高度,說被蒸餾出來的模型可能被用於網絡攻擊、虛假信息傳播甚至軍事用途。
谷歌也在官方博客裡表示,他們觀察到的模型提取攻擊呈上升趨勢。OpenAI則在提交給美國國會的備忘錄中警告,DeepSeek還在用更復雜的手段從美國模型裡提取結果。壹時間,叁巨頭齊聲高喊“狼來了”,整個美國AI圈風聲鶴唳。
2025年9月,DeepSeek團隊的R1研究論文登上了國際權威期刊《自然》的封面, DeepSeek在論文中明確表示,R1的基座模型訓練數據僅來自普通網頁和電子書,在預訓練冷卻階段也沒有故意加入OpenAI生成的合成數據。當然,DeepSeek也坦率承認,部分網頁中確實包含OpenAI模型生成的答案,這可能讓基礎模型間接受益於其他強大模型的知識。
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 |
中國第壹大島 為何成了日俄爭奪的焦點? |
開年就封殺!房車為啥成了城市"公敵" |
中國最慘省份:亂世當大哥,盛世當備胎? |
中國的大型礦山為什麼都改用電動卡車了 |
中國荒漠中挖出亞洲最大水庫 成瀚海明珠 |
為孩子留學,壹批中國父母迷上風水大師 |
中國油價6連漲 上海加油站現排隊車潮 |
美以7日空襲哈格島 伊媒說重要基礎設施未受損 |
中國留學生殺害女友 留血書後跳樓自殺 |
宮廷暗影,叁大常委是在與習角力嗎? |
推薦:



