他把AI模型卖给美军,如今却害怕成为"末日博士"
美以对伊朗的军事行动已持续数日,一则新闻再次吸引了全球的目光。
据《华尔街日报》报道,美军在对伊朗的大规模轰炸行动中,用上了美国AI公司Anthropic旗下的大语言模型克劳德(Claude)。
知情人士证实,包括美国中央司令部在内的全球各司令部,都在使用Anthropic的AI工具。对此,英国《卫报》称,“这是危险的转折点” 。
这已不是AI第一次走上战场。今年1月美军抓捕委内瑞拉总统马杜罗时,克劳德就已被用于军事行动。而这也引发了美国政府与Anthropic之间持续数月的争执——关于五角大楼究竟该如何使用AI模型。
而站在风暴中心的,是Anthropic创始人兼首席执行官达里奥·阿莫迪。
当导弹能像人一样思考
据《华尔街日报》报道,克劳德主要服务于指挥部门,承担情报分析、目标识别以及战斗场景模拟等任务。
Anthropic与美军的合作始于2024年11月。同一时期,美国数据分析公司Palantir和亚马逊网络服务也开始为美军提供技术支持。
据《华盛顿邮报》报道,由Palantir开发的军方“梅文智能系统”,能从卫星、监控及其他情报来源的数据中提取关键信息。而被集成进这套系统的克劳德模型,则负责对敏感情报进行分析处理。目前,克劳德已成为美军许多部门使用的日常工具。
对美军而言,AI带来的最大改变,是战争节奏本身。《战争律师》一书的作者克雷格·琼斯在接受英国《卫报》的采访时提到,在一战和越南战争期间,美军从空中侦察到执行轰炸任务通常需要6个月。但现在,整个周期已经被AI大幅压缩。“AI系统会给出打击目标的建议,速度远超人类思维。”
新美国安全中心执行副总裁保罗·沙雷则向路透社介绍,对美军而言,AI已经从理论假设走向真实战场。“这让美军能够以机器速度,而非人类速度来制定打击方案。”
在此次对伊军事行动中,以军也用上了AI技术。其使用的新型空对地巡航导弹“破冰者”,深度融合了AI算法。它能像人一样思考,自主规划飞行路径,精准辨别目标,甚至可以在空中与其他导弹实时沟通、分工协作。
此外,据《财富》杂志报道,AI目前也出现在了其他战场上。以色列在巴以冲突期间曾利用AI识别哈马斯目标。而在俄乌冲突中,自主化无人机已经投入使用,俄罗斯和乌克兰都采用了不同形式的自主技术。
对于AI介入军事行动,外界普遍感到不安。以色列《耶路撒冷邮报》评价,将大语言模型融入战争,标志着现代战争的重大转变,“最初用于编写代码和诗歌的工具,如今已成为致命的武力”。
“要么配合,要么出局”
在此次美以对伊朗的军事行动中,Anthropic公司的AI模型扮演了关键角色。然而颇具戏剧性的是,就在空袭开始前几个小时,这家公司刚刚被美国国防部和特朗普双双“拉黑”。
据英国广播公司报道,Anthropic与美国当局的紧张关系“可以追溯到几个月前”。
今年1月,美军在抓捕委内瑞拉总统马杜罗的突袭行动中,使用了克劳德模型。Anthropic随后提出反对,声明其使用条款明确禁止将AI用于暴力目的、武器研发或监控活动。此后双方关系持续恶化,开始了长达数周的谈判。
据美国有线电视新闻网报道,谈判中Anthropic在两个问题上寸步不让:一是AI控制武器,二是AI对美国公民的大规模监控。他们认为,AI目前还不足以可靠地操控武器,而且也无法律规范大规模监控的行为。
面对Anthropic的坚持,美国国防部长赫格塞斯下了最后通牒。
当地时间2月24日,他与阿莫迪会面,要求对方放宽AI模型的安全限制,并给出了最后期限:2月27日前,美军必须获得克劳德模型的无限制使用权,否则公司将被列入政府“供应链风险”黑名单。进入黑名单意味着,所有签有军事合同的公司,此后不得在任何军事工作中使用Anthropic的产品。
26日,阿莫迪公开发文,表明立场不变。“即便是当今最先进、最强大的AI系统,其可靠性也不足以支撑完全自主武器的运作。”他在文中写道,“我们不能昧着良心答应美军的要求”。
阿莫迪发文不久后,五角大楼给出了回应。一名美国国防部官员对媒体表示,Anthropic必须做出选择,“要么配合,要么出局”,否则国防部将强制使用克劳德模型,无论Anthropic是否愿意。
[物价飞涨的时候 这样省钱购物很爽]
这条新闻还没有人评论喔,等着您的高见呢
据《华尔街日报》报道,美军在对伊朗的大规模轰炸行动中,用上了美国AI公司Anthropic旗下的大语言模型克劳德(Claude)。
知情人士证实,包括美国中央司令部在内的全球各司令部,都在使用Anthropic的AI工具。对此,英国《卫报》称,“这是危险的转折点” 。
这已不是AI第一次走上战场。今年1月美军抓捕委内瑞拉总统马杜罗时,克劳德就已被用于军事行动。而这也引发了美国政府与Anthropic之间持续数月的争执——关于五角大楼究竟该如何使用AI模型。
而站在风暴中心的,是Anthropic创始人兼首席执行官达里奥·阿莫迪。
当导弹能像人一样思考
据《华尔街日报》报道,克劳德主要服务于指挥部门,承担情报分析、目标识别以及战斗场景模拟等任务。
Anthropic与美军的合作始于2024年11月。同一时期,美国数据分析公司Palantir和亚马逊网络服务也开始为美军提供技术支持。
据《华盛顿邮报》报道,由Palantir开发的军方“梅文智能系统”,能从卫星、监控及其他情报来源的数据中提取关键信息。而被集成进这套系统的克劳德模型,则负责对敏感情报进行分析处理。目前,克劳德已成为美军许多部门使用的日常工具。
对美军而言,AI带来的最大改变,是战争节奏本身。《战争律师》一书的作者克雷格·琼斯在接受英国《卫报》的采访时提到,在一战和越南战争期间,美军从空中侦察到执行轰炸任务通常需要6个月。但现在,整个周期已经被AI大幅压缩。“AI系统会给出打击目标的建议,速度远超人类思维。”
新美国安全中心执行副总裁保罗·沙雷则向路透社介绍,对美军而言,AI已经从理论假设走向真实战场。“这让美军能够以机器速度,而非人类速度来制定打击方案。”
在此次对伊军事行动中,以军也用上了AI技术。其使用的新型空对地巡航导弹“破冰者”,深度融合了AI算法。它能像人一样思考,自主规划飞行路径,精准辨别目标,甚至可以在空中与其他导弹实时沟通、分工协作。
此外,据《财富》杂志报道,AI目前也出现在了其他战场上。以色列在巴以冲突期间曾利用AI识别哈马斯目标。而在俄乌冲突中,自主化无人机已经投入使用,俄罗斯和乌克兰都采用了不同形式的自主技术。
对于AI介入军事行动,外界普遍感到不安。以色列《耶路撒冷邮报》评价,将大语言模型融入战争,标志着现代战争的重大转变,“最初用于编写代码和诗歌的工具,如今已成为致命的武力”。
“要么配合,要么出局”
在此次美以对伊朗的军事行动中,Anthropic公司的AI模型扮演了关键角色。然而颇具戏剧性的是,就在空袭开始前几个小时,这家公司刚刚被美国国防部和特朗普双双“拉黑”。
据英国广播公司报道,Anthropic与美国当局的紧张关系“可以追溯到几个月前”。
今年1月,美军在抓捕委内瑞拉总统马杜罗的突袭行动中,使用了克劳德模型。Anthropic随后提出反对,声明其使用条款明确禁止将AI用于暴力目的、武器研发或监控活动。此后双方关系持续恶化,开始了长达数周的谈判。
据美国有线电视新闻网报道,谈判中Anthropic在两个问题上寸步不让:一是AI控制武器,二是AI对美国公民的大规模监控。他们认为,AI目前还不足以可靠地操控武器,而且也无法律规范大规模监控的行为。
面对Anthropic的坚持,美国国防部长赫格塞斯下了最后通牒。
当地时间2月24日,他与阿莫迪会面,要求对方放宽AI模型的安全限制,并给出了最后期限:2月27日前,美军必须获得克劳德模型的无限制使用权,否则公司将被列入政府“供应链风险”黑名单。进入黑名单意味着,所有签有军事合同的公司,此后不得在任何军事工作中使用Anthropic的产品。
26日,阿莫迪公开发文,表明立场不变。“即便是当今最先进、最强大的AI系统,其可靠性也不足以支撑完全自主武器的运作。”他在文中写道,“我们不能昧着良心答应美军的要求”。
阿莫迪发文不久后,五角大楼给出了回应。一名美国国防部官员对媒体表示,Anthropic必须做出选择,“要么配合,要么出局”,否则国防部将强制使用克劳德模型,无论Anthropic是否愿意。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:



