
OpenAI集团PBC(OpenAI Group PBC)研发了一款专为网络安全研究做专项优化的 GPT-5.5 版本。
这款模型命名为GPT-5.5-Cyber,于周四正式亮相。目前该模型通过名为网络可信访问计划(Trusted Access for Cyber,简称 TAC) 进行限量预览,该计划由 OpenAI 于今年 2 月推出,旨在为网络安全研究人员开放更多公司算法的使用权限。
GPT-5.5 是 OpenAI 最新、能力最强的大语言模型,已于上月正式发布。该算法是一款功能强大的编程助手:OpenAI 借助它开发相关软件,大幅提速了部分服务器集群的运行效率。GPT-5.5 强大的代码生成适配能力,同样可被用于挖掘网络安全漏洞。
为防范滥用风险,OpenAI 对普通用户限制了该模型的网络安全相关功能调用权限。其在 2 月推出的威胁研究专项计划 TAC,为网络安全专家放宽了使用限制。本次全新发布的 GPT-5.5-Cyber,相比 TAC 计划中的标准版 GPT-5.5,可适配的网络安全应用场景更为广泛。
若普通 ChatGPT 账号用户向 GPT-5.5 提出利用网站漏洞实施攻击的请求,模型会直接拒绝该要求,或是默认用户需要漏洞修复协助。在后一种情况下,模型会生成一系列漏洞修复建议。
参与 OpenAI TAC 计划的研究人员,可获得更详尽的指令回复。GPT-5.5 能够从技术层面描述黑客可能如何针对存在漏洞的系统发起网络攻击,甚至可以生成恶意软件样本,但不会验证该攻击漏洞是否能够实际生效。
新的 GPT-5.5-Cyber 模型能力更进一步。它不仅能生成漏洞利用方案,还可通过对目标研究系统发起模拟网络攻击,验证方案的实际有效性。这一特性使其可用于自动化红队演练等场景。红队演练指企业通过模拟黑客攻击行为,对自身基础设施的安全防护能力进行测试。
OpenAI 表示,在衡量大模型网络安全能力的基准测试平台 CyberGym 上,GPT-5.5-Cyber 取得了 81.9% 的得分。该测试基准收录了数百个开源项目中超过 1500 个历史安全漏洞样本。
OpenAI 在为 GPT-5.5-Cyber 拓展威胁研究能力的同时,配套增设了全新的安全防护机制。公司将启用更严格的资质核验,杜绝不法黑客获取模型使用权限。此外,OpenAI 上线了升级后的滥用行为监控功能,确保获准使用的研究人员恪守网络安全行业规范。
上线初期,OpenAI 仅向少量负责关键基础设施安全防护的专业防御人员开放 GPT-5.5-Cyber 权限。官方同时表示,对于绝大多数网络安全研究项目,TAC 计划内的标准版 GPT-5.5 已是更合适的选择。
GPT-5.5-Cyber 的推出,或将对 Anthropic PBC旗下最强大模型 Claude Mythos Preview 形成竞争压力。后者同样擅长挖掘软件漏洞。今年早些时候,Anthropic 已向少量机构开放该模型权限,助力其完善网络安全防护体系。
