跳到主要内容

多智能体工作流

多智能体工作流允许 Codex 在保持主对话聚焦的同时,让专业化的子智能体并行处理任务。

为什么需要多智能体?

解决上下文污染

将中间过程(探索笔记、测试日志、错误堆栈)移出主线程,避免噪声干扰主智能体的判断。

解决上下文衰退

随着对话内容增多,模型性能会因充斥了不再相关的细节而下降。多智能体让主智能体专注于需求和决策,将具体执行委派给子智能体。


核心术语

术语说明
多智能体(Multi-agent)并行执行,合并结果
子智能体(Sub-agent)处理特定任务的委派工作者
智能体线程(Agent thread)可通过 /agent 命令查看的独立 CLI 线程

模型选择策略

按任务类型选择模型

模型适用场景
gpt-5.3-codex复杂推理(代码审查、安全分析、多步骤实现、主智能体)
gpt-5.3-codex-spark速度优先任务(探索、扫描、摘要)

推理强度(model_reasoning_effort

等级适用场景
high复杂逻辑追踪、边界情况验证
medium均衡默认值
low优先速度的简单任务

最佳实践

适合并行的任务(读密集型)

优先将以下任务并行化:

  • 代码库探索
  • 测试运行
  • Bug 分类
  • 代码摘要

谨慎处理写密集型并行

并发写入操作存在潜在的代码冲突和协调开销,需要谨慎规划:

  • 确保不同子智能体操作不同的文件区域
  • 使用 Git Worktree 隔离并行任务的工作空间

配置方法

启用多智能体功能(实验性功能,需显式开启):

方式一:CLI 交互式开启

在 CLI 中输入 /experimental
选择 Multi-agents
重启 Codex

方式二:配置文件

# ~/.codex/config.toml
[features]
multi_agent = true

内置智能体角色

角色用途
default通用兜底角色
worker专注于实现和修复
explorer读密集型代码库探索
monitor长运行任务监控,优化等待能力

使用方式

启用后,Codex 会自动管理编排,包括:

  • 生成新的子智能体
  • 路由后续指令
  • 等待结果
  • 关闭智能体线程

你可以通过 /agent 命令切换智能体线程、查看进度,或直接告诉 Codex 调整、停止某个智能体。

详见 多智能体配置参考