跳到主要内容

网络安全说明

背景

GPT-5.3-Codex 在 OpenAI 的准备框架(Preparedness Framework)下被评定为高网络安全能力级别,因此需要额外的保护措施。


已实施的安全措施

模型训练层

系统经过训练,会拒绝明显的恶意请求(例如凭证窃取尝试)。

自动监控层

基于分类器的检测系统,实时识别可疑网络活动信号。

流量路由层

高风险请求会被自动重定向到能力较低的 GPT-5.2 模型进行处理。

影响评估

OpenAI 预计上述防护措施对正常流量的干扰极小。


为什么网络安全是双刃剑?

网络安全领域的许多技术本质上是双用途的——同样的技术既能支持防御性工作(渗透测试、漏洞研究、恶意软件分析),也可能被用于造成伤害。

OpenAI 采取预防性方法,在支持合法安全研究的同时防止滥用。


受信用户计划

如果你是安全研究人员或企业用户,可以申请更高权限的访问:

类型申请方式
个人研究者在 chatgpt.com/cyber 进行身份验证
企业用户通过 OpenAI 客户代表申请
深度研究者申请邀请制项目(能力更强)

所有用户必须遵守 OpenAI 的使用政策和服务条款。


误判(False Positive)处理

系统可能偶尔将合法的非网络安全活动错误标记为高风险。如果你认为被误判重定向:

  1. 使用 /feedback 命令提交反馈
  2. 说明你的实际使用场景

未来方向

OpenAI 计划随着政策和分类器的成熟,从账号级别的安全检查过渡到请求级别的更精细化检查。