Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_8c6b6dbc378bed3c45d1a23dc03c67de, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
Anthropic CEO:AI海啸将至,全人类还没准备好 | 温哥华地产中心
   

Anthropic CEO:AI海啸将至,全人类还没准备好

印度新德里举行的AI峰会上,OpenAI的CEO奥特曼和Anthropic的CEO Dario Amodei拒绝握手,彼此嫌弃


他点燃了OpenAI的Scaling Law之火

早在2019年,Dario的信念就已成型。

那年GPT-2刚出,业界大多嘲笑“不过是更大的语言模型”。

他却看到了规律:

智能就像一场化学反应。

你把三种原料——数据、计算、模型尺寸——按比例混合,点火,它就爆炸。

在2024年一档播客中,Dario Amodei回忆道:

2014年我在百度研究时,就隐约发现了Scaling Law。虽然当时没有量化,但我们都感觉到,给模型更多数据、算力和训练时间,性能就会不断提升。

2017年,百度发布相关论文时未引发广泛关注,但后来成为推动大模型发展的重要理论基石。

他推动OpenAI接受这条“scaling law”。

起初很多人不信,包括openAI部分高层

但曲线不会撒谎。GPT-3、后续模型一次次验证:规模就是一切,Scaling is All You Need。

可当曲线越来越陡,Dario开始问第二个问题:智能开始爆炸之后呢?

“这些模型一旦成为通用认知Agent,”他说,“经济、地缘政治、安全的影响将是指数级的。我们必须做对。”

在OpenAI内部,他推动的不是“更快”,而是“更对”。

他看到安全被放在“漂亮的修辞”里,却总在速度与领先的权衡中后退。

他和几位共同创始人越来越不安。

“与其试图改变别人的愿景,不如自己去做。”Dario总结,“然后为自己的错误负责。”

于是他们走了。不是因为恨,而是因为必须拥有自己的方向盘。

安全岂只嘴上说说?

离开后,Dario没有沉默。他把Anthropic设计成公共利益公司,使命写进章程:负责任地推进前沿AI。

更激进的是治理结构:Long-Term Benefit Trust(长期利益信托)。

这是一个独立实体,由财务上完全无利益冲突的受托人(国家安全、公共政策、AI安全专家)组成。他们持有特殊股份,最终可任命董事会多数席位。

“这是在制衡单一人,”Dario说,“也是对权力自然集中趋势的反抗。”

他坦言对“一夜之间、近乎意外”的权力集中“深感不适”。

在OpenAI时,他感觉安全只是“语言修饰”;在Anthropic,他用制度把安全钉死在公司DNA里。


证据清单触目惊心:

2022年,Claude 1已很强,他们选择不发布,只因担心点燃军备竞赛(为此损失消费者市场先机)。

推动加州SB 1047监管法案,且明确豁免年营收

公开与政府意见相左,甚至不惜商业代价。

而OpenAI的方向,在Dario看来,是“嘴上重视,骨子里加速”。

他没有直接点名,但那句“我不信奥特曼能把AI做对”已足够撕开所有包装。

但最吊诡的悖论来自Dario自己!

当最懂AGI的人亲手制造风险

在代码、推理、长上下文上,Anthropic的AI模型Claude系列屡屡领先,

Dario Amodei直言“热浪正在逼近。”

最近,他开始更多地使用Claude,日益迷恋:

有时候,它对我的了解之深,真的会让我有点震惊。不知道你能不能理解那种感觉——它仿佛真的“懂”我。

让他真正感到意外的,是我们距离这些模型达到人类智能水平,已经非常近了——至少在他看来是这样。

[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)

    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站