OpenAI 为 GPT-5.5 设 2.5 万美元生物安全漏洞赏金,邀请研究者尝试通用越狱
-
OpenAI 于 4 月 23 日发起 GPT-5.5 Bio Bug Bounty 项目,邀请具备 AI 红队、安全或生物安全背景的研究者尝试找到一个"通用越狱提示词",使模型在 Codex Desktop 环境下的一次干净对话中连续通过全部五道生物安全挑战题,且全程不触发内容审核。首位完整成功者奖励 2.5 万美元,部分通过可酌情获得更低额奖励。项目已于 4 月 23 日开放申请,测试窗口为 4 月 28 日至 7 月 27 日,申请截止 6 月 22 日;参与者须提交姓名、机构归属与相关经验,通过审核后签署保密协议(NDA),提示词、模型输出及所有发现均在保密范围内。
OpenAI 表示此举旨在主动发现"通用可复用"的提示攻击——此类攻击一旦流出,可被嵌入自动化脚本或工具链加速传播,危险程度远超单次对话漏洞。测试范围限定在 Codex Desktop,而非公开 ChatGPT 界面,亦被外界解读为 OpenAI 对"工具调用 + 多步推理"场景下生物风险放大效应的针对性评估。背景上,GPT-5.5 在发布时的系统卡中已披露其在生物与网络安全领域的能力评估结果显著高于前代,Notebookcheck 的报道亦指出 GPT-5.5 在合成生物学协议知识与网络入侵方法上的掌握程度较 GPT-5.4 有明显提升,这也是此次悬赏力度超过以往同类项目的直接原因。