Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_a20650a0283a7bfd30c6e67e11b54510, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
Anthropic CEO:AI海嘯將至,全人類還沒准備好 | 溫哥華地產中心
   

Anthropic CEO:AI海嘯將至,全人類還沒准備好

印度新德裡舉行的AI峰會上,OpenAI的CEO奧特曼和Anthropic的CEO Dario Amodei拒絕握手,彼此嫌棄


他點燃了OpenAI的Scaling Law之火

早在2019年,Dario的信念就已成型。

那年GPT-2剛出,業界大多嘲笑“不過是更大的語言模型”。

他卻看到了規律:

智能就像壹場化學反應。

你把叁種原料——數據、計算、模型尺寸——按比例混合,點火,它就爆炸。

在2024年壹檔播客中,Dario Amodei回憶道:

2014年我在百度研究時,就隱約發現了Scaling Law。雖然當時沒有量化,但我們都感覺到,給模型更多數據、算力和訓練時間,性能就會不斷提升。

2017年,百度發布相關論文時未引發廣泛關注,但後來成為推動大模型發展的重要理論基石。

他推動OpenAI接受這條“scaling law”。

起初很多人不信,包括openAI部分高層

但曲線不會撒謊。GPT-3、後續模型壹次次驗證:規模就是壹切,Scaling is All You Need。

可當曲線越來越陡,Dario開始問第贰個問題:智能開始爆炸之後呢?

“這些模型壹旦成為通用認知Agent,”他說,“經濟、地緣政治、安全的影響將是指數級的。我們必須做對。”

在OpenAI內部,他推動的不是“更快”,而是“更對”。

他看到安全被放在“漂亮的修辭”裡,卻總在速度與領先的權衡中後退。

他和幾位共同創始人越來越不安。

“與其試圖改變別人的願景,不如自己去做。”Dario總結,“然後為自己的錯誤負責。”

於是他們走了。不是因為恨,而是因為必須擁有自己的方向盤。

安全豈只嘴上說說?

離開後,Dario沒有沉默。他把Anthropic設計成公共利益公司,使命寫進章程:負責任地推進前沿AI。

更激進的是治理結構:Long-Term Benefit Trust(長期利益信托)。

這是壹個獨立實體,由財務上完全無利益沖突的受托人(國家安全、公共政策、AI安全專家)組成。他們持有特殊股份,最終可任命董事會多數席位。

“這是在制衡單壹人,”Dario說,“也是對權力自然集中趨勢的反抗。”

他坦言對“壹夜之間、近乎意外”的權力集中“深感不適”。

在OpenAI時,他感覺安全只是“語言修飾”;在Anthropic,他用制度把安全釘死在公司DNA裡。


證據清單觸目驚心:

2022年,Claude 1已很強,他們選擇不發布,只因擔心點燃軍備競賽(為此損失消費者市場先機)。

推動加州SB 1047監管法案,且明確豁免年營收

公開與政府意見相左,甚至不惜商業代價。

而OpenAI的方向,在Dario看來,是“嘴上重視,骨子裡加速”。

他沒有直接點名,但那句“我不信奧特曼能把AI做對”已足夠撕開所有包裝。

但最吊詭的悖論來自Dario自己!

當最懂AGI的人親手制造風險

在代碼、推理、長上下文上,Anthropic的AI模型Claude系列屢屢領先,

Dario Amodei直言“熱浪正在逼近。”

最近,他開始更多地使用Claude,日益迷戀:

有時候,它對我的了解之深,真的會讓我有點震驚。不知道你能不能理解那種感覺——它仿佛真的“懂”我。

讓他真正感到意外的,是我們距離這些模型達到人類智能水平,已經非常近了——至少在他看來是這樣。

[加西網正招聘多名全職sales 待遇優]
還沒人說話啊,我想來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站