网络安全说明
背景
GPT-5.3-Codex 在 OpenAI 的准备框架(Preparedness Framework)下被评定为高网络安全能力级别,因此需要额外的保护措施。
已实施的安全措施
模型训练层
系统经过训练,会拒绝明显的恶意请求(例如凭证窃取尝试)。
自动监控层
基于分类器的检测系统,实时识别可疑网络活动信号。
流量路由层
高风险请求会被自动重定向到能力较低的 GPT-5.2 模型进行处理。
影响评估
OpenAI 预计上述防护措施对正常流量的干扰极小。
为什么网络安全是双刃剑?
网络安全领域的许多技术本质上是双用途的——同样的技术既能支持防御性工作(渗透测试、漏洞研究、恶意软件分析),也可能被用于造成伤害。
OpenAI 采取预防性方法,在支持合法安全研究的同时防止滥用。
受信用户计划
如果你是安全研究人员或企业用户,可以申请更高权限的访问:
| 类型 | 申请方式 |
|---|---|
| 个人研究者 | 在 chatgpt.com/cyber 进行身份验证 |
| 企业用户 | 通过 OpenAI 客户代表申请 |
| 深度研究者 | 申请邀请制项目(能力更强) |
所有用户必须遵守 OpenAI 的使用政策和服务条款。
误判(False Positive)处理
系统可能偶尔将合法的非网络安全活动错误标记为高风险。如果你认为被误判重定向:
- 使用
/feedback命令提交反馈 - 说明你的实际使用场景
未来方向
OpenAI 计划随着政策和分类器的成熟,从账号级别的安全检查过渡到请求级别的更精细化检查。