[特朗普] 特朗普为什么和一家AI公司"开战"?
特朗普政府与AI公司Anthropic爆发激烈冲突。国防部长赫格塞思向Anthropic CEO达里奥·阿莫迪发出最后通牒,要求在限期内完全解除公司AI模型的安全限制(特别是禁止用于美国公民大规模监控和无人监督的致命自主武器),否则取消2亿美元合同及未来所有军方合作。Anthropic拒绝妥协,坚持其核心安全红线。特朗普随后公开宣布联邦政府所有机构立即停止使用Anthropic技术,并抨击该公司“觉醒”“左翼疯子”。
《纽约时报》发表评论批评特朗普政府的做法,因为现阶段AI技术尚未成熟到可完全信任用于致命自主武器。文章同时提到OpenAI、谷歌部分员工公开支持Anthropic,而马斯克的xAI似乎接受了军方条件。
作者认为,解决之道在于国会立法为AI军事应用设立明确底线(如强制人类监督、禁止用于平民环境、设置终止机制),而非通过威胁和政治标签破坏公私合作。当前政府做法反而损害了美国在AI军事竞争中的长期利益。

Anthropic CEO达里奥·阿莫迪
以下是凤凰网“天下事”编译:
特朗普政府本周发动了其最新一场自选战争,试图胁迫科技公司Anthropic在军队使用该公司AI技术的方式上开出空白支票。
这场对抗在周二急剧升级,当时国防部长赫格塞思向Anthropic首席执行官达里奥·阿莫迪发出最后通牒:必须在周五下午5:01之前解除对其技术的全部安全限制,否则将失去公司2亿美元的合同以及未来与军方的任何业务。在截止时间前约一小时,特朗普公开宣布,他正在指示美国联邦政府每一个机构立即停止使用Anthropic的所有技术。
总统以他一贯华丽的风格继续称该公司“觉醒”,充满了“左翼疯子”,意图对国家造成伤害。对于Anthropic来说,这是一个惊人的转折——该公司在2024年底成为第一家在美国的机密军事网络上运行的大型AI实验室。虽然军事合同在其业务中仅占很小比例,但该公司的AI模型却是美国国家安全体系中使用最广泛的。
Anthropic的技术能够让全球范围内的部队和情报人员在几秒钟内综合并交叉比对海量的机密信息。据报道,该技术在1月份抓捕委内瑞拉领导人马杜罗的行动中曾被使用。
但该公司一直有两条不可逾越的红线:政府不得将其产品用于对美国公民的大规模监控,也不得将其安装在无人控制的杀手机器人上。这些限制长期以来一直是Anthropic以安全为导向的商业模式核心,与其他推进尖端技术同时确保不损害公共安全的AI实验室并无太大差别。
从这个角度看,Anthropic的限制是合理且合法的。联邦法律禁止美国军方对美国公民进行间谍活动,而国防部的一项指令对所有缺乏人类监督的致命自主武器有严格规定。但赫格塞思无法接受这些条款,而阿莫迪拒绝屈服于五角大楼的威胁,他在周四晚间的一份声明中表示,公司愿意承担后果。
这一合作伙伴关系的表面终结并不会让美国变得更安全,反而在不必要的情况下严重削弱了国家的防御能力。据估计,五角大楼可能需要六个月时间才能将Anthropic的AI工具从内部计算机系统中完全移除,而另一个AI模型必须填补这一空缺。五角大楼尚未确定合适的替代方案。
这还可能对军方与硅谷之间本已紧张的关系产生持久影响。自电脑出现以来,五角大楼与科技公司的关系一直因相互猜疑而受阻。许多美国军人日常生活中使用的技术比他们在军中使用的还要先进。Anthropic的AI技术是私营部门(而非政府)开发出的一种罕见的、可能改变国家安全格局的能力——直到最近,这种合作关系还是行之有效的。在未来软件将在战争中比硬件扮演更关键角色的背景下,这一点尤为重要。
[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
《纽约时报》发表评论批评特朗普政府的做法,因为现阶段AI技术尚未成熟到可完全信任用于致命自主武器。文章同时提到OpenAI、谷歌部分员工公开支持Anthropic,而马斯克的xAI似乎接受了军方条件。
作者认为,解决之道在于国会立法为AI军事应用设立明确底线(如强制人类监督、禁止用于平民环境、设置终止机制),而非通过威胁和政治标签破坏公私合作。当前政府做法反而损害了美国在AI军事竞争中的长期利益。

Anthropic CEO达里奥·阿莫迪
以下是凤凰网“天下事”编译:
特朗普政府本周发动了其最新一场自选战争,试图胁迫科技公司Anthropic在军队使用该公司AI技术的方式上开出空白支票。
这场对抗在周二急剧升级,当时国防部长赫格塞思向Anthropic首席执行官达里奥·阿莫迪发出最后通牒:必须在周五下午5:01之前解除对其技术的全部安全限制,否则将失去公司2亿美元的合同以及未来与军方的任何业务。在截止时间前约一小时,特朗普公开宣布,他正在指示美国联邦政府每一个机构立即停止使用Anthropic的所有技术。
总统以他一贯华丽的风格继续称该公司“觉醒”,充满了“左翼疯子”,意图对国家造成伤害。对于Anthropic来说,这是一个惊人的转折——该公司在2024年底成为第一家在美国的机密军事网络上运行的大型AI实验室。虽然军事合同在其业务中仅占很小比例,但该公司的AI模型却是美国国家安全体系中使用最广泛的。
Anthropic的技术能够让全球范围内的部队和情报人员在几秒钟内综合并交叉比对海量的机密信息。据报道,该技术在1月份抓捕委内瑞拉领导人马杜罗的行动中曾被使用。
但该公司一直有两条不可逾越的红线:政府不得将其产品用于对美国公民的大规模监控,也不得将其安装在无人控制的杀手机器人上。这些限制长期以来一直是Anthropic以安全为导向的商业模式核心,与其他推进尖端技术同时确保不损害公共安全的AI实验室并无太大差别。
从这个角度看,Anthropic的限制是合理且合法的。联邦法律禁止美国军方对美国公民进行间谍活动,而国防部的一项指令对所有缺乏人类监督的致命自主武器有严格规定。但赫格塞思无法接受这些条款,而阿莫迪拒绝屈服于五角大楼的威胁,他在周四晚间的一份声明中表示,公司愿意承担后果。
这一合作伙伴关系的表面终结并不会让美国变得更安全,反而在不必要的情况下严重削弱了国家的防御能力。据估计,五角大楼可能需要六个月时间才能将Anthropic的AI工具从内部计算机系统中完全移除,而另一个AI模型必须填补这一空缺。五角大楼尚未确定合适的替代方案。
这还可能对军方与硅谷之间本已紧张的关系产生持久影响。自电脑出现以来,五角大楼与科技公司的关系一直因相互猜疑而受阻。许多美国军人日常生活中使用的技术比他们在军中使用的还要先进。Anthropic的AI技术是私营部门(而非政府)开发出的一种罕见的、可能改变国家安全格局的能力——直到最近,这种合作关系还是行之有效的。在未来软件将在战争中比硬件扮演更关键角色的背景下,这一点尤为重要。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: