多智能体工作流
多智能体工作流允许 Codex 在保持主对话聚焦的同时,让专业化的子智能体并行处理任务。
为什么需要多智能体?
解决上下文污染
将中间过程(探索笔记、测试日志、错误堆栈)移出主线程,避免噪声干扰主智能体的判断。
解决上下文衰退
随着对话内容增多,模型性能会因充斥了不再相关的细节而下降。多智能体让主智能体专注于需求和决策,将具体执行委派给子智能体。
核心术语
| 术语 | 说明 |
|---|---|
| 多智能体(Multi-agent) | 并行执行,合并结果 |
| 子智能体(Sub-agent) | 处理特定任务的委派工作者 |
| 智能体线程(Agent thread) | 可通过 /agent 命令查看的独立 CLI 线程 |
模型选择策略
按任务类型选择模型
| 模型 | 适用场景 |
|---|---|
gpt-5.3-codex | 复杂推理(代码审查、安全分析、多步骤实现、主智能体) |
gpt-5.3-codex-spark | 速度优先任务(探索、扫描、摘要) |
推理强度(model_reasoning_effort)
| 等级 | 适用场景 |
|---|---|
high | 复杂逻辑追踪、边界情况验证 |
medium | 均衡默认值 |
low | 优先速度的简单任务 |
最佳实践
适合并行的任务(读密集型)
优先将以下任务并行化:
- 代码库探索
- 测试运行
- Bug 分类
- 代码摘要
谨慎处理写密集型并行
并发写入操作存在潜在的代码冲突和协调开销,需要谨慎规划:
- 确保不同子智能体操作不同的文件区域
- 使用 Git Worktree 隔离并行任务的工作空间
配置方法
启用多智能体功能(实验性功能,需显式开启):
方式一:CLI 交互式开启
在 CLI 中输入 /experimental
选择 Multi-agents
重启 Codex
方式二:配置文件
# ~/.codex/config.toml
[features]
multi_agent = true
内置智能体角色
| 角色 | 用途 |
|---|---|
default | 通用兜底角色 |
worker | 专注于实现和修复 |
explorer | 读密集型代码库探索 |
monitor | 长运行任务监控,优化等待能力 |
使用方式
启用后,Codex 会自动管理编排,包括:
- 生成新的子智能体
- 路由后续指令
- 等待结果
- 关闭智能体线程
你可以通过 /agent 命令切换智能体线程、查看进度,或直接告诉 Codex 调整、停止某个智能体。
详见 多智能体配置参考。