[馬斯克] Anthropic控中國大模型使詐 馬斯克凶猛炮轟
而今年1月,月之暗面也曾回應外界對Kimi K2.5的蒸餾質疑。
當時,有部分網友發現Kimi K2.5有時會自稱為Claude,懷疑這是對Claude進行蒸餾的證據。楊植麟回應道,這壹現象主要是由在預訓練階段對最新編程數據進行了上采樣,而這些數據似乎與“Claude”這個token的關聯性較強。事實上,K2.5在許多基准測試中似乎都優於Claude。
那麼,為什麼Claude生成的數據會“誤打誤撞”融入中國企業的模型呢?
目前的大模型訓練,高度依賴公開互聯網數據。像Anthropic推出的Claude以及Claude Code,被全球開發者廣泛用於寫代碼、生成文檔、提交開源項目。
當開發者把這些生成內容發布到GitHub、博客或技術論壇後,這些內容就進入了公共互聯網語料池。而許多模型在訓練時會抓取公開網頁數據,因此其中壹部分自然會包含由Claude生成的代碼或文本。這是壹種間接擴散路徑,可能出現在任何模型身上,引發模型的“自我認知”問題。Anthropic自家的模型Claude Sonnet 4.6,也曾出現自稱為DeepSeek的情況。

Claude Sonnet 4.6自稱DeepSeek
有不少海外技術圈人士也關注到了這壹現象。AI訓練平台Prime Intellect的工程師Will Brown提出了大量問題。比如,使用Claude貢獻的開源GitHub代碼訓練模型,算不算蒸餾?把Claude的數據公開分享到互聯網上,違不違反用戶協定?用Claude Code寫訓練代碼,用於訓練競對模型,違不違反用戶協定?

Will Brown對Anthropic提出壹連串疑問(圖源:X平台)
如果上述問題的答案都是“是”,那麼正如另壹位網友所說的,根據Anthropic的條款,在AI圈裡,由於Anthropic和所有企業都有競爭關系,那麼理論上只有Anthropic自己可以使用Claude,其他企業都不能用。
另壹位網友認為,所謂的“非法蒸餾”和“正常互聯網活動”的界限並不清晰,如今Anthropic真正需要做的是准確界定,然後推動監管。

[物價飛漲的時候 這樣省錢購物很爽]
好新聞沒人評論怎麼行,我來說幾句
當時,有部分網友發現Kimi K2.5有時會自稱為Claude,懷疑這是對Claude進行蒸餾的證據。楊植麟回應道,這壹現象主要是由在預訓練階段對最新編程數據進行了上采樣,而這些數據似乎與“Claude”這個token的關聯性較強。事實上,K2.5在許多基准測試中似乎都優於Claude。
那麼,為什麼Claude生成的數據會“誤打誤撞”融入中國企業的模型呢?
目前的大模型訓練,高度依賴公開互聯網數據。像Anthropic推出的Claude以及Claude Code,被全球開發者廣泛用於寫代碼、生成文檔、提交開源項目。
當開發者把這些生成內容發布到GitHub、博客或技術論壇後,這些內容就進入了公共互聯網語料池。而許多模型在訓練時會抓取公開網頁數據,因此其中壹部分自然會包含由Claude生成的代碼或文本。這是壹種間接擴散路徑,可能出現在任何模型身上,引發模型的“自我認知”問題。Anthropic自家的模型Claude Sonnet 4.6,也曾出現自稱為DeepSeek的情況。

Claude Sonnet 4.6自稱DeepSeek
有不少海外技術圈人士也關注到了這壹現象。AI訓練平台Prime Intellect的工程師Will Brown提出了大量問題。比如,使用Claude貢獻的開源GitHub代碼訓練模型,算不算蒸餾?把Claude的數據公開分享到互聯網上,違不違反用戶協定?用Claude Code寫訓練代碼,用於訓練競對模型,違不違反用戶協定?

Will Brown對Anthropic提出壹連串疑問(圖源:X平台)
如果上述問題的答案都是“是”,那麼正如另壹位網友所說的,根據Anthropic的條款,在AI圈裡,由於Anthropic和所有企業都有競爭關系,那麼理論上只有Anthropic自己可以使用Claude,其他企業都不能用。
另壹位網友認為,所謂的“非法蒸餾”和“正常互聯網活動”的界限並不清晰,如今Anthropic真正需要做的是准確界定,然後推動監管。

[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦:



