英国人工智能安全研究所的一份新报告显示,顶级人工智能模型现在可以自主执行人类专家需要 20 小时才能完成的多阶段网络攻击,这引发了人们对人工智能攻防能力差距不断扩大的紧迫关注。
返回
英国人工智能安全研究所的一份新报告显示,顶级人工智能模型现在可以自主执行人类专家需要 20 小时才能完成的多阶段网络攻击,这引发了人们对人工智能攻防能力差距不断扩大的紧迫关注。

根据一份新的政府报告,OpenAI 的新 GPT-5.5 模型能够自主执行复杂的多阶段网络攻击,并以远超人类专家的速度解决复杂的安全挑战。英国人工智能安全研究所 (AISI) 的发现将 GPT-5.5 的攻击能力与 Anthropic 的 Claude Mythos 并列,表明人工智能被恶意利用的潜力正在快速、广泛地增长,这是一种普遍趋势,而非孤立的突破。
“如果攻击性网络技能是推理、编码和自主任务完成能力广泛提升的副产品,那么进一步的进步可能会接踵而至,”英国科学、创新和技术部下属的研究机构人工智能安全研究所在报告中警告称。
报告详细介绍了 GPT-5.5 在 10 次尝试中两次自主完成了 32 步模拟企业网络攻击。这项由 SpecterOps 设计、被称为“The Last Ones”的测试,此前仅由 Anthropic 的 Claude Mythos 预览版完成过(10 次尝试中完成 3 次)。在一项更为惊人的测试中,GPT-5.5 仅用 10 分 22 秒就破解了一个人类专家需要 12 小时的逆向工程谜题,而 API 使用成本仅为 1.73 美元。在更广泛的专家级网络安全任务中,GPT-5.5 的通过率达到了 71.4%,略领先于 Mythos 预览版的 68.6%,远超 GPT-5.4 的 52.4%。
这种攻击能力的飞跃创造了双面市场冲击:它暴露了企业的严重漏洞,令安全态势薄弱的公司前景看淡;同时,它也成为网络安全行业的强力牛市催化剂。随着该报告的发布,英国政府宣布了 9000 万英镑的新网络弹性资金,这一市场动态预示着对人工智能驱动的防御解决方案的需求将激增,并加剧对人工智能开发者的监管压力。
AISI 的发现发布之际,市场正处于一场结构性失衡的军备竞赛中。币安 (Binance) 的研究显示,目前人工智能工具在利用智能合约漏洞方面的效率是检测漏洞的两倍。该公司的报告指出,GPT-5.3-Codex 在 EVMbench 基准测试的“利用”模式下达到了 72.2% 的成功率,而“检测”模式下的成功率仅为一半左右。
这种不对称性是由攻击成本的崩溃驱动的。根据币安研究院的数据,人工智能驱动的漏洞利用目前平均每个合约约 1.22 美元,预计这一数字每两个月将下降 22%。虽然超过 80% 的开发人员现在在工作流程中使用人工智能,但只有不到 40% 的人将其用于高级安全测试,这为自动化威胁留下了巨大的利用空间。这一趋势不仅限于代码;TRM Labs 的分析师推测,朝鲜黑客组织正在利用人工智能进行复杂的社会工程学攻击,这与其传统上依赖更简单攻击媒介的做法有所不同。
这些能力的快速涌现引发了关于负责任披露和营销的辩论。OpenAI 首席执行官萨姆·奥特曼 (Sam Altman) 最近批评了他所谓的“基于恐惧的营销”,暗指那些夸大模型危险性以推销安全解决方案的竞争对手。奥特曼在最近的一次播客采访中表示:“‘我们造了一枚炸弹。我们要把它扔到你头上。我们将以 1 亿美元的价格卖给你一个防空洞,’这显然是不可思议的营销。”
为了应对日益增长的威胁,OpenAI 和 Anthropic 都在限制其最强大模型的访问。Anthropic 将 Mythos 预览版的初始发布限制在“关键行业合作伙伴”,而 OpenAI 正在向经过审查的“关键网络防御者”名单推出专业版 GPT-5.5-Cyber。采取这种谨慎做法的原因是,研究人员在公共 GPT-5.5 模型中发现了一个“通用越狱”漏洞,绕过了其安全护栏,红队用了六个小时开发出这种攻击方式。虽然 OpenAI 此后发布了补丁,但该事件突显了滥用的持续风险,这令投资者感到担忧,因为去年有 43% 的英国企业报告曾遭受网络攻击。
本文仅供参考,不构成投资建议。