OpenAI也开始恐惧自己训练出的新模型了

看到 Anthropic 内测中的下一代旗舰模型 Mythos 强大的网络攻防能力带来的巨大影响和讨论度,奥特曼坐不住了,也计划内测 OpenAI 具有强大的网络攻防能力的 AI。
4 月 9 日,Axios 爆料:OpenAI 正在准备一款具备很强网络安全能力的产品,只会先给少量合作伙伴开放。

https://x.com/axios/status/2042244222292529371
这件事背后,真正值得聊的,不是 OpenAI 又要发什么新东西。
而是另一件更吓人的事,AI 在网络安全这件事上,可能真的跨过那条线了。
如果你这几个月一直在关注 AI,你会发现一个特别微妙的变化。
前两年大家聊模型,聊的是会不会写文案,会不会做 PPT,会不会写代码。
再后来,开始聊 Agent,聊自动执行,聊能不能自己调用工具。
到了现在,讨论已经往另一个方向滑过去了。
它能不能自己找到漏洞、复现漏洞、利用漏洞。
这几个问题,听着像安全圈内部会议,不像普通人会关心的事。
但坦率的讲,一旦答案开始接近「能」,这就不是一个黑客圈的小新闻了。
这是基础设施级别的大事。
因为漏洞这个东西,不是你电脑蓝屏了重启一下那么简单。
漏洞连着水厂,电网,医院,银行,浏览器,操作系统,云服务。
过去这些东西主要靠顶级安全研究员、红队、国家级机构慢慢挖。
现在,模型开始下场了。
而且不是那种帮你补全两行代码的下场,是那种你晚上把任务交给它,第二天早上起来,它把 PoC、利用链、修补建议都给你摆桌上的下场。
只是对 Anthropic MythosPR 策略的简单模仿吗?
就在最近,Anthropic 也做了一个很反常的动作。
他们没有像往常一样高调推新模型,而是把一个叫 Claude Mythos Preview 的模型,塞进了一个叫 Project Glasswing 的封闭计划里,只给少数科技公司和安全公司用。
Anthropic 官方给出的理由是:这个模型太强了,强到不适合立刻公开。
Anthropic 公布的一些测试细节,说真的,已经有点赛博惊悚片的感觉了。
它能在大规模开源项目里找到高危漏洞,能把漏洞一路推进成可利用的攻击链,甚至写出跨多个漏洞的复杂利用。
更夸张的是,Anthropic 的研究团队还提到,连没有正式安全训练背景的内部工程师,都能让它隔夜去找远程代码执行漏洞,第二天醒来就看到一份可运行的利用结果。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:



