Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_c6937d1034116832b0a02462bab6b001, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
Anthropic控中國大模型使詐 馬斯克凶猛炮轟 | 溫哥華地產中心
   

[馬斯克] Anthropic控中國大模型使詐 馬斯克凶猛炮轟

牆內自媒體智東西文章:Anthropic又跟中國同行們杠上了?


今天,美國大模型獨角獸Anthropic連續發布多則推文、博客,指控DeepSeek、月之暗面和MiniMax叁家中國AI實驗室,正對Claude進行“工業級規模的蒸餾攻擊”。

Anthropic聲稱,上述叁家公司通過約24000個虛假賬戶,與Claude進行超過1600萬次交互,系統性提取其在推理、工具調用與編程等方面的核心能力,用於訓練和改進自身模型。

不過,Anthropic的指控壹經發布,就遭到了壹邊倒的質疑。有人認為Anthropic自身的數據來源就已經存疑,沒有立場質疑他人,也有人認為,若相關中國公司確實通過API和賬戶付費調用模型接口,那麼其行為至少在形式上屬於“合理使用產品”。換言之,蒸餾違法與否應當由法律界定,而非試圖用輿論先行定性。

不少AI圈人士下場批評Anthropic,吐槽了Anthropic”只許州官放火,不許百姓點燈”的雙標行為。馬斯克第壹時間反諷道:“絕了,他們(DeepSeek們)怎麼敢偷Anthropic從人類程序員那裡‘偷’來的東西?”



Anthropic的推文(圖源:X平台)



網友壹邊倒質疑Anthropic(圖源:X平台)



馬斯克的推文(圖源:X平台)

馬斯克進壹步補充道:“Anthropic已經犯有大規模竊取訓練數據的罪行,他們必須為其盜竊行為支付數拾億美元的賠償金。這就是事實。”



馬斯克的推文(圖源:X平台)

知名AI評論家Gary Marcus認為,Anthropic的行為是“肆無忌憚的盜賊抱怨自己被搶劫了”。



Garry Marcus吐槽Anthropic(圖源:X平台)

還有網友銳評道:“Anthropic不也是爬取了整個互聯網的數據,並打破了無數的服務條款嗎?”



網友吐槽Anthropic(圖源:X平台)

有人則質疑起了Anthropic的動機。下圖中的這位網友分析道,許多AI模型都是使用競爭對手的數據構建的,這在業內是壹個公開的秘密。而Anthropic在此時采用了壹個非常民族主義的立場,把這些行為貼標簽,稱之為“外國實驗室”的“攻擊”,意圖可能是推動美國政府對跨境AI數據訪問和共享,進行更嚴格的監管措施。



網友質疑Anthropic動機(圖源:X平台)

由於Anthropic的模型是閉源的,而叁家中國AI公司的模型基本是開源的,因此甚至有網友認為,就算蒸餾行為的確存在,他們也支持這種行為,因為業界需要更強的Deepseek V4, Kimi K3和Minimax M3,沒有用戶會為Anthropic哭泣。



值得注意的是,Anthropic提出相關指控的時機,正值美國討論放松對華AI芯片出口和中國模型在海外熱度攀升之際。MiniMax M2.5和Kimi K2.5近期都壹度成為大模型調用平台OpenRouter上使用量最大的模型,並在海外開發者群體中獲得了高性價比、能力出色的良好口碑,而DeepSeek尚未發布的V4,則吊足了全球網友的胃口。



OpenRouter周榜中,中國模型占據了調用量前伍名中的肆席(圖源:OpenRouter)

Anthropic在博客中強調,DeepSeek、MiniMax和月之暗面的蒸餾規模“需要先進芯片支持”,並進壹步提出蒸餾攻擊“強化了出口管制的合理性”,限制芯片獲取不僅能限制直接模型訓練,也能限制所謂“非法蒸餾”的規模。這壹言論與Anthropic歷來在對華議題上偏鷹派的立場壹致。

Anthropic曝光所謂“蒸餾攻擊”

聲稱已加強檢測與防御機制

在博客中,Anthropic坦言,蒸餾本身是壹種廣泛應用且合法的技術,許多前沿實驗室都會用更強大的模型訓練體量更小、成本更低的模型版本。

但這項技術也可以被用於爭議性用途:競爭對手可以用它在更短的時間和成本下,從其他AI實驗室獲得強大的能力,這遠低於獨立開發所需的能力。

Anthropic認為,“非法蒸餾”得到的模型往往不會繼承原模型內置的安全防護機制,這意味著原本被限制用於生物武器開發、惡意網絡攻擊或其他高風險用途的能力,可能在缺乏約束的情況下擴散,從而帶來安全風險。

Anthropic詳細描述了他們眼中DeepSeek、MiniMax和月之暗面的所謂“蒸餾攻擊”行為。

這叁家中國公司用Claude批量生成推理鏈、工具調用、編程與數據分析等訓練數據,或是讓Claude成為強化學習的獎勵模型。為獲取這些數據,DeepSeek進行了大約15萬次交互、月之暗面進行了超過340萬次交互,而MiniMax進行了超過1300萬次交互。



Anthropic博客中關於叁家中國AI企業使用方式的描述(圖源:Anthropic官網)

叁家AI實驗室的操作模式具有相似特征:使用所謂“欺詐賬戶”,繞過區域限制,同時規避偵測。提示詞的數量、結構和重點與正常使用模式不同,更像是在有意地提取模型能力而非合法使用。

針對這些現象,Anthropic稱已加強檢測與防御機制,包括建立流量模式識別與行為指紋系統、識別思維鏈數據提取行為、加強賬戶驗證流程,並與其他AI公司、雲服務商及相關機構共享技術情報。

同時,Anthropic也在開發產品與模型層面的反蒸餾技術,在不影響正常用戶體驗的前提下,降低模型輸出被用於非法訓練的價值。

該公司還將蒸餾攻擊與出口管制聯系起來。Anthropic稱,美國對先進AI芯片與相關技術實施出口管制,旨在維持技術領先優勢,

Anthropic壹家之言遭圍攻

立場到數據隱私皆被質疑

不過,需要強調的是,上述言論目前只是Anthropic的壹家之言。模型蒸餾通常指的是有意調用某個教師模型,大規模獲取其輸出,並用來系統性訓練另壹個模型,以逼近其能力。

Anthropic目前披露的信息中,並沒有中國公司實施上述行為的直接證據或原始數據支持。

在上述背景之下,圍繞相關指控的真實性、法律邊界以及企業動機的討論迅速升溫。輿論場幾乎呈現出壹邊倒的態勢,大部分網友對Anthropic的言論並不買賬。

首先,Anthropic選擇在X平台發文,而非訴諸法律,這在不少網友眼中就有些可疑。

這位網友便認為,與其利用公司影響力來聲稱個別訂戶“濫用”服務並威脅美國的創意成果,Anthropic更應該做的是將自己的法律和安全資源轉向解決這些大規模的系統性攻擊。



網友吐槽Anthropic(圖源:X平台)

有位網友給出了自己對上述現象的分析:蒸餾實際上並不違法,即便就算是違法行為,那麼Claude也是非法構造的。這就是為什麼Anthropic在向政府抱怨這壹問題,而不是直接起訴。



網友分析蒸餾行為的合法性問題(圖源:X平台)

另壹位網友認為,合法蒸餾使用的存在,讓監管工作變得更難,因為證明企業使用模型的意圖和規模,要比傳統的版權索賠復雜得多。



網友分析蒸餾行為的合法性問題(圖源:X平台)

Anthropic的舉動在部分網友眼中並不光彩。這位網友就認為,Anthropic這壹套“請不要向我們的競爭對手出口GPU”的言論,聽起來就像是他們想實現某種壟斷。



網友質疑Anthropic試圖實現壟斷(圖源:X平台)

Anthropic還在其官方博客中披露了壹項重要細節:通過分析請求元數據,他們能夠將特定的對話記錄直接追溯到月之暗面和DeepSeek的具體員工,等於順著網線壹路精准鎖定真人。這壹做法隨即引發了外界對數據安全與隱私保護問題的擔憂。


壹位來自歐洲的用戶稱,Anthropic的這番言論,似乎正在吹噓自己能使用元數據,實現用戶的去匿名化,“難道這就是Anthropic如今的隱私政策嗎”?



網友質疑Anthropic的數據安全問題(圖源:X平台)

Anthropic將蒸餾行為稱為“蒸餾攻擊”,這壹說法本質上也有些“文字游戲”的嫌疑。多位Reddit網友認為,即便其他公司確實利用其產品生成的數據進行訓練,這本質上也只是用戶在正常使用產品,而且這些用戶是付了費的。

有評論戲謔道,按照Anthropic這套邏輯,就好比你去餐廳吃飯,記住了廚師做出來的味道,然後回家自己做了頓飯,就被扣上了“非法進行蒸餾攻擊”的帽子。



Reddit網友吐槽Anthropic的文字游戲(圖源:X平台)

被質疑蒸餾不是新鮮事

DeepSeek、月之暗面此前已有正面回應

目前,DeepSeek、月之暗面和MiniMax均尚未對Anthropic的本次指控做出公開回應。

不過,對於中國模型蒸餾海外模型的質疑,自2025年DeepSeek進入全球主流視野以來就壹直沒有中斷過。而這些中國企業此前已經在不同的場合,回應過相關質疑。

比如,DeepSeek就曾遭到OpenAI質疑,稱其模型蒸餾自OpenAI的模型。

作為回應,DeepSeek在去年9月登上Nature雜志封面的DeepSeek-R1論文中補充道,DeepSeek-V3 Base(DeepSeek-R1的基座模型)使用的數據全部來自互聯網,雖然可能包含GPT-4生成的結果,但絕非有意而為之,更沒有專門的蒸餾環節。

而今年1月,月之暗面也曾回應外界對Kimi K2.5的蒸餾質疑。

當時,有部分網友發現Kimi K2.5有時會自稱為Claude,懷疑這是對Claude進行蒸餾的證據。楊植麟回應道,這壹現象主要是由在預訓練階段對最新編程數據進行了上采樣,而這些數據似乎與“Claude”這個token的關聯性較強。事實上,K2.5在許多基准測試中似乎都優於Claude。

那麼,為什麼Claude生成的數據會“誤打誤撞”融入中國企業的模型呢?

目前的大模型訓練,高度依賴公開互聯網數據。像Anthropic推出的Claude以及Claude Code,被全球開發者廣泛用於寫代碼、生成文檔、提交開源項目。

當開發者把這些生成內容發布到GitHub、博客或技術論壇後,這些內容就進入了公共互聯網語料池。而許多模型在訓練時會抓取公開網頁數據,因此其中壹部分自然會包含由Claude生成的代碼或文本。這是壹種間接擴散路徑,可能出現在任何模型身上,引發模型的“自我認知”問題。Anthropic自家的模型Claude Sonnet 4.6,也曾出現自稱為DeepSeek的情況。



Claude Sonnet 4.6自稱DeepSeek

有不少海外技術圈人士也關注到了這壹現象。AI訓練平台Prime Intellect的工程師Will Brown提出了大量問題。比如,使用Claude貢獻的開源GitHub代碼訓練模型,算不算蒸餾?把Claude的數據公開分享到互聯網上,違不違反用戶協定?用Claude Code寫訓練代碼,用於訓練競對模型,違不違反用戶協定?



Will Brown對Anthropic提出壹連串疑問(圖源:X平台)

如果上述問題的答案都是“是”,那麼正如另壹位網友所說的,根據Anthropic的條款,在AI圈裡,由於Anthropic和所有企業都有競爭關系,那麼理論上只有Anthropic自己可以使用Claude,其他企業都不能用。

另壹位網友認為,所謂的“非法蒸餾”和“正常互聯網活動”的界限並不清晰,如今Anthropic真正需要做的是准確界定,然後推動監管。



網友提出該領域存在監管空白(圖源:X平台)

結語:爭議背後的產業博弈

從產業競爭角度看,當前全球大模型能力正在快速收斂。中國AI公司在算力受限的情況下,通過算法優化、工程能力提升和數據利用效率改進來追趕國際前沿,走出獨特的技術創新路徑。將所有能力提升都歸因於“蒸餾提取”,大幅度貶低了中國AI實驗室的研發投入與工程進展。

當然,如果確實存在違反服務條款、使用虛假賬戶等行為,平台方采取技術封禁和風控措施屬於正常商業行為。但將其上升為國家安全威脅,甚至作為強化出口管制的論據,則已經超出單壹企業糾紛的范圍。對我們而言,與其簡單接受某壹方的定性,不如保持審慎態度,冷靜看待其背後的產業博弈邏輯。

[物價飛漲的時候 這樣省錢購物很爽]
無評論不新聞,發表壹下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  •  延伸閱讀 更多...
    馬斯克支付150萬美元達成和解! 省下1.5億美元 OpenAI總裁:馬斯克想要籌800億美元殖民火星
    馬斯克收購Twitter涉違規 同意繳150萬美元罰款 罰款1000萬 馬斯克和解美證監會推特訴訟
    馬斯克庭審再爆猛料:派情人臥底OpenAI挖人 馬斯克去年總薪酬1583.6億美元?實際到手太嚇人
    馬斯克這步棋,中國星網渾身難受 對薄公堂第肆天,馬斯克爆出了大瓜!
    考核全部不達標 馬斯克1583億天價年薪壹分沒拿 馬斯克結束為期3天的作證:沒有我 就沒有OpenAI
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站