专家警告: 人工智能或让恐怖主义更易获致命技术
中美专家警告;人工智能或让恐怖主义更易获致命技术 https://t.co/nMZWuOSgue pic.twitter.com/XrdKSXA39P— RFI 华语 - 法国国际广播电台 (@RFI_Cn) January 26, 2026
根据中国与美国的专家都警告;生物武器、核武器…人工智能在许多领域都发挥着积极作用,但也可能使恐怖组织更容易获得致命技术。中国专家指出,“可信赖人工智能的基本原则”之首便是“确保最终由人类控制”。
这是危言耸听?或是弥漫着与时俱进非理性的恐惧?人工智能(AI)已经融入我们的生活,既带来了希望,也引发了恐惧。一些专家强调了它在诸多领域(工业控制、医疗健康等)的积极影响,而另一些人,有时甚至是同一批人,他们则对此感到担忧。
尤其值得注意的是恐怖分子使用化学、生物、放射性和核武器(CBRN)的问题。这些武器构成的威胁,尽管有些人认为这些威胁只是幻想,但实际上已经持续了几十年,而人工智能可能会进一步加剧这种威胁。至少,这是来自两个截然不同领域的专家小组在2025年共同得出的结论。
第一个警告来自中国的那些人工智能领域的前沿者。但同时也是一个由共产党铁腕统治的大国,实行集中营的极权主义体制,全民监控政策的先锋者。
2025年秋季,一份名为“人工智能安全治理框架2.0”的文件发布。这个略显官僚的标题背后,隐藏着一份由党国主导、汇集众多专家的庞大计划。抛开其同样属官僚性的措辞,细读这份文件,你会发现它颇具启发性。
必须在人工智能系统的关键阶段实施人工监督制度,以确保人类保留有最终决策权。
因此,关于讲到“现实世界风险”的那些篇幅段落,特别表达了对“失去对核武器、生物武器、化学武器和导弹的知识和性能的控制”的担忧。
人工智能在“训练”过程中会使用“广泛的数据”,包括与这些高度敏感领域相关的“基础理论知识”。如果这些数据得不到妥善管控,“极端主义和恐怖组织”就可能获得“设计、制造、合成和使用”这些武器的能力。
失控
更广泛地说,这份中国文件强调了“人工智能被用于传统犯罪和非法活动”(包括恐怖主义,以及从非法赌博到毒品贩运等常见犯罪)。这包括帮助“学习”犯罪技巧、掩盖犯罪行为以及创建打造“犯罪人工智能”工具。
最后,措辞含糊的“AI 2.0 安全治理框架”谴责在“认知战”中使用人工智能。这不仅包括传播“与恐怖主义相关的内容”,还包括“干涉他国内政”及其“社会制度和社会秩序”,从而损害其“国家主权”。
得益于“社交机器人”(或“聊天机器人”),人工智能或许能够影响社会价值观和思维方式。对于精于数字控制的中国政府而言,这无疑意义极其重大。
最后,这份中国文件公开提出了人类可能失去对先进人工智能系统控制权的担忧。文件指出,“必须在人工智能系统的关键阶段实施人类控制系统,以确保人类保留最终决策权。” 为了应对这一风险,可以在“极端情况下”实施“熔断机制”。
北京呼吁对这种失控风险采取“协调应对”。因此,“可信赖人工智能的基本原则”之首便是“确保最终由人类控制”,以防止“人工智能系统”在“无人监管的情况下失控运行”。
反恐模拟:6000万人死于AI创新病毒
情况完全不同了,但担忧却如出一辙,正如几位专家在去年紧随巴黎人工智能峰会之后举行的慕尼黑安全会议上所表达的那样。
在美国非政府组织“核威胁倡议”的倡议下,专家们聚集在一起,在强调人工智能取得的进展以及不应阻碍研究的必要性的同时,讨论了人工智能与生命科学融合所带来的风险。
一次模拟演习将反恐和技术专家聚集在一起,探讨一个噩梦般的场景:恐怖分子利用人工智能凭空创造出一种新的肠道病毒,引发了一场全球性流行病(8.5亿例病例,6000万人死亡)。
会议期间,一位美国参议员强调,人工智能部署的最大潜在风险在于生物安全领域。其中一场小组讨论的标题就非常明确:“保护世界免受病原体侵害:变革性技术时代的生物安全”。
应对这些风险仍然需要建立保障措施和更有效的控制措施
[加西网正招聘多名全职sales 待遇优]
还没人说话啊,我想来说几句
根据中国与美国的专家都警告;生物武器、核武器…人工智能在许多领域都发挥着积极作用,但也可能使恐怖组织更容易获得致命技术。中国专家指出,“可信赖人工智能的基本原则”之首便是“确保最终由人类控制”。
这是危言耸听?或是弥漫着与时俱进非理性的恐惧?人工智能(AI)已经融入我们的生活,既带来了希望,也引发了恐惧。一些专家强调了它在诸多领域(工业控制、医疗健康等)的积极影响,而另一些人,有时甚至是同一批人,他们则对此感到担忧。
尤其值得注意的是恐怖分子使用化学、生物、放射性和核武器(CBRN)的问题。这些武器构成的威胁,尽管有些人认为这些威胁只是幻想,但实际上已经持续了几十年,而人工智能可能会进一步加剧这种威胁。至少,这是来自两个截然不同领域的专家小组在2025年共同得出的结论。
第一个警告来自中国的那些人工智能领域的前沿者。但同时也是一个由共产党铁腕统治的大国,实行集中营的极权主义体制,全民监控政策的先锋者。
2025年秋季,一份名为“人工智能安全治理框架2.0”的文件发布。这个略显官僚的标题背后,隐藏着一份由党国主导、汇集众多专家的庞大计划。抛开其同样属官僚性的措辞,细读这份文件,你会发现它颇具启发性。
必须在人工智能系统的关键阶段实施人工监督制度,以确保人类保留有最终决策权。
因此,关于讲到“现实世界风险”的那些篇幅段落,特别表达了对“失去对核武器、生物武器、化学武器和导弹的知识和性能的控制”的担忧。
人工智能在“训练”过程中会使用“广泛的数据”,包括与这些高度敏感领域相关的“基础理论知识”。如果这些数据得不到妥善管控,“极端主义和恐怖组织”就可能获得“设计、制造、合成和使用”这些武器的能力。
失控
更广泛地说,这份中国文件强调了“人工智能被用于传统犯罪和非法活动”(包括恐怖主义,以及从非法赌博到毒品贩运等常见犯罪)。这包括帮助“学习”犯罪技巧、掩盖犯罪行为以及创建打造“犯罪人工智能”工具。
最后,措辞含糊的“AI 2.0 安全治理框架”谴责在“认知战”中使用人工智能。这不仅包括传播“与恐怖主义相关的内容”,还包括“干涉他国内政”及其“社会制度和社会秩序”,从而损害其“国家主权”。
得益于“社交机器人”(或“聊天机器人”),人工智能或许能够影响社会价值观和思维方式。对于精于数字控制的中国政府而言,这无疑意义极其重大。
最后,这份中国文件公开提出了人类可能失去对先进人工智能系统控制权的担忧。文件指出,“必须在人工智能系统的关键阶段实施人类控制系统,以确保人类保留最终决策权。” 为了应对这一风险,可以在“极端情况下”实施“熔断机制”。
北京呼吁对这种失控风险采取“协调应对”。因此,“可信赖人工智能的基本原则”之首便是“确保最终由人类控制”,以防止“人工智能系统”在“无人监管的情况下失控运行”。
反恐模拟:6000万人死于AI创新病毒
情况完全不同了,但担忧却如出一辙,正如几位专家在去年紧随巴黎人工智能峰会之后举行的慕尼黑安全会议上所表达的那样。
在美国非政府组织“核威胁倡议”的倡议下,专家们聚集在一起,在强调人工智能取得的进展以及不应阻碍研究的必要性的同时,讨论了人工智能与生命科学融合所带来的风险。
一次模拟演习将反恐和技术专家聚集在一起,探讨一个噩梦般的场景:恐怖分子利用人工智能凭空创造出一种新的肠道病毒,引发了一场全球性流行病(8.5亿例病例,6000万人死亡)。
会议期间,一位美国参议员强调,人工智能部署的最大潜在风险在于生物安全领域。其中一场小组讨论的标题就非常明确:“保护世界免受病原体侵害:变革性技术时代的生物安全”。
应对这些风险仍然需要建立保障措施和更有效的控制措施
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:



