OpenAI Codex CLI -- 终端里的 AI 编程助手完全指南¶
一句话说明: Codex CLI 是 OpenAI 在 2025 年开源的命令行 AI 编程工具,你在终端里用自然语言告诉它"帮我写个脚本"或"修复这个 bug",它就能自动读代码、改代码、跑命令,像一个住在你终端里的全能程序员搭档。
目录¶
- 为什么要学 Codex CLI
- 核心概念详解(白话版)
- 安装与部署
- 认证与 API Key 配置
- 核心功能详解
- 安全模式(审批模式)
- 常用命令速查表
- TUI 内部斜杠命令
- AGENTS.md 自定义指令
- MCP 协议集成
- 子代理(Subagent)并行任务
- 与生信的结合场景
- 与 Claude Code 对比
- 常见问题与解决方案
- 学习资源与参考链接
为什么要学 Codex CLI¶
1. 终端原生,不用离开你的工作环境¶
做生信分析的人一天到晚泡在终端里跑 pipeline,Codex CLI 直接在终端里运行,不需要切换到浏览器或 IDE。你可以一边跑 BLAST,一边让 Codex 帮你写下一步的处理脚本。
2. 开源免费,代码完全透明¶
Codex CLI 在 GitHub 上完全开源(Apache-2.0 协议),代码用 Rust 编写,运行速度快。你可以看到它的每一行代码是怎么工作的,不用担心"黑箱"问题。社区已有 79,000+ star 和 400+ 贡献者。
3. 用自然语言就能编程¶
不需要记住复杂的语法,直接用中文或英文告诉它你想做什么。比如"帮我写一个统计 FASTQ 文件读长分布的 Python 脚本",它就能自动生成。对于编程基础薄弱的生信初学者来说,这大大降低了门槛。
4. 安全可控,三档审批模式¶
Codex 不是"放任自流"地乱改你的代码。它提供三档安全模式:从"每步都要你批准"到"完全自动",你可以根据信任程度灵活选择。而且它使用操作系统级别的沙盒(sandboxing,就是给程序画个"笼子"不让它乱跑),保护你的系统安全。
5. 多模态输入 + 云端协作¶
你可以把截图、流程图直接发给 Codex 让它看懂并生成代码。还能通过 codex cloud 把任务扔到云端异步执行,上午布置 5 个任务,下午回来看结果。
核心概念详解(白话版)¶
TUI(Terminal User Interface,终端用户界面)¶
白话: 就是一个"好看版的终端"。普通终端是黑乎乎一片文字,TUI 在终端里画出了像 app 一样的界面,有高亮、有菜单、有代码预览。你运行 codex 后看到的那个全屏交互界面就是 TUI。
沙盒(Sandbox)¶
白话: 就像给 AI 画了一个"围栏"。AI 只能在围栏里面活动,不能跑出去乱动你的其他文件或系统设置。这样即使 AI 犯了错,也不会搞坏你电脑上的其他东西。
Codex 使用的沙盒技术: - macOS:Seatbelt(苹果系统内置的安全机制) - Linux:bubblewrap + seccomp(用户命名空间隔离 + 系统调用过滤) - Windows:Windows 原生沙盒
MCP(Model Context Protocol,模型上下文协议)¶
白话: MCP 就像一个"万能适配器"。Codex 本身只会读文件、写代码、跑命令,但通过 MCP,你可以给它接上各种外部工具(比如浏览器、Figma 设计工具、数据库等),让它的能力大大扩展。就像手机通过 USB 适配器可以接键盘、鼠标、U盘一样。
Subagent(子代理)¶
白话: 就像你是一个项目经理,手下有好几个干活的人。主 agent(主代理)是项目经理,它可以把大任务拆成几个小任务,同时派给几个 subagent(下属)并行处理。比如一个负责写测试,一个负责检查安全性,一个负责优化性能,大家同时干活。
AGENTS.md(自定义指令文件)¶
白话: 就像你给新来的实习生写了一份"注意事项"清单。你把项目的规则、偏好写在 AGENTS.md 文件里,Codex 每次启动都会先读这个文件,确保它按你的要求做事。比如"所有 Python 脚本必须加中文注释"、"优先使用 conda 管理环境"。
exec 模式(非交互模式)¶
白话: TUI 交互模式像你跟 AI 面对面聊天,一问一答。exec 模式像你写了张纸条扔给 AI,它做完了把结果写在纸条背面还给你。适合在自动化脚本、CI/CD 流水线里使用。
审批模式(Approval Mode)¶
白话: 就像给 AI 设定不同的"权限等级"。"只读"模式下 AI 只能看不能动;"自动"模式下 AI 可以在工作目录里自由操作;"完全访问"模式下 AI 可以做任何事情。你根据具体场景选择合适的等级。
安装与部署¶
系统要求¶
- 操作系统:macOS、Linux、Windows(原生 PowerShell 或 WSL2)
- Node.js:16 或更高版本(如果用 npm 安装)
- 网络:需要能访问 OpenAI 的 API(国内可能需要代理)
方式一:npm 安装(推荐)¶
# 全局安装 Codex CLI
npm install -g @openai/codex
# 验证安装成功
codex --version
小贴士:如果你还没有 Node.js,先安装它:
# Ubuntu/Debian curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - sudo apt-get install -y nodejs # 或者用 conda(生信同学可能更熟悉) conda install -c conda-forge nodejs
方式二:Homebrew 安装(macOS)¶
brew install --cask codex
方式三:GitHub Release 下载¶
去 Codex Releases 页面 下载你系统对应的二进制文件。
# Linux 示例
# 下载后解压,文件名类似 codex-x86_64-unknown-linux-musl
# 重命名并移到 PATH 路径下
mv codex-x86_64-unknown-linux-musl codex
chmod +x codex
sudo mv codex /usr/local/bin/
# 验证
codex --version
WSL2 用户(Windows 子系统 Linux)¶
如果你在 Windows 上用 WSL2 做生信分析:
# 在 WSL2 内直接用 npm 安装
npm install -g @openai/codex
# 建议在 WSL 文件系统内工作(性能更好)
cd ~/projects/ # 推荐
# 不建议 cd /mnt/c/Users/xxx/ # Windows 文件系统,性能差
自动更新¶
# 检查并安装最新版本
codex update
认证与 API Key 配置¶
Codex 支持两种认证方式:
方式一:ChatGPT 账户登录(推荐)¶
# 运行 codex,选择 "Sign in with ChatGPT"
codex
# 或者用设备认证(不打开浏览器)
codex login --device-auth
适用场景:你有 ChatGPT Plus($20/月)、Pro、Business、Edu 或 Enterprise 计划,Codex CLI 已包含在订阅中,不额外收费。
方式二:API Key 认证¶
如果你有 OpenAI API Key:
# 临时设置(当前终端会话有效)
export OPENAI_API_KEY="sk-你的API密钥"
# 永久设置(写入 shell 配置文件)
# bash 用户
echo 'export OPENAI_API_KEY="sk-你的API密钥"' >> ~/.bashrc
source ~/.bashrc
# zsh 用户
echo 'export OPENAI_API_KEY="sk-你的API密钥"' >> ~/.zshrc
source ~/.zshrc
也可以通过管道传入:
# 通过 stdin 传入 API key
echo "sk-你的API密钥" | codex login --with-api-key
验证登录状态¶
# 检查是否已认证
codex login status
# 退出码为 0 表示已登录
注意事项¶
- 数据隐私:你的源代码留在本地,只有 prompt(提示词)和高层次上下文会发送给模型
- API 费用:使用 API Key 方式按 OpenAI 标准 API 价格计费
- 国内用户:可能需要配置代理才能访问 OpenAI 的服务
核心功能详解¶
1. 交互式 TUI 模式¶
这是最常用的模式。运行 codex 进入全屏交互界面:
# 启动 TUI(无初始提示)
codex
# 带初始提示启动
codex "帮我解释这个代码仓库的结构"
# 指定工作目录
codex --cd ~/projects/my_pipeline "分析这个项目"
在 TUI 里你可以:
- 输入自然语言指令
- 看到 Codex 的执行计划,逐步批准或拒绝
- 查看语法高亮的代码和 diff(代码差异)
- 用 @ 搜索并引用工作区文件
- 用 ! 前缀直接跑 shell 命令(如 !ls)
- 按 Ctrl+R 搜索历史提示
- 按 Ctrl+C 或输入 /exit 退出
2. 自主编程 -- 多文件编辑¶
Codex 可以同时读取和修改项目中的多个文件:
codex "给所有 Python 脚本添加 argparse 命令行参数解析"
# Codex 会:
# 1. 扫描项目里所有 .py 文件
# 2. 理解每个脚本的功能
# 3. 为每个脚本添加合适的命令行参数
# 4. 展示修改方案让你审批
3. 沙盒执行 -- 安全地运行代码¶
Codex 在受保护的沙盒环境中运行命令,防止误操作:
# 在沙盒中执行命令(手动测试)
codex sandbox -- python my_script.py
# 工作区只写模式(推荐日常使用)
codex --sandbox workspace-write "跑一下测试看看有没有报错"
4. 多模态输入 -- 看图写代码¶
你可以把截图或设计图发给 Codex:
# 单张图片
codex -i error_screenshot.png "帮我分析这个报错"
# 多张图片
codex --image flowchart.png,table.png "按这个流程图写脚本"
生信场景:把一张热图截图发给 Codex,让它帮你写出生成同样热图的 R 代码。
5. 图片生成¶
Codex 可以直接生成图片(使用 gpt-image-2 模型):
codex "帮我画一个展示 16S rRNA 分析流程的示意图"
6. 网页搜索¶
Codex 内置网页搜索功能,可以查找最新信息:
# 默认使用缓存搜索(更安全)
codex "搜索 MetaPhlAn4 的最新版本和更新内容"
# 使用实时搜索(获取最新数据)
codex --search "查找 Kraken2 数据库的最新下载链接"
7. 代码审查¶
# 在 TUI 内输入 /review 打开审查菜单
# 支持的审查类型:
# - 对比基准分支的改动
# - 审查未提交的更改
# - 审查特定 commit
# - 自定义审查指令
8. 会话恢复 -- 接着上次聊¶
# 恢复最近一次会话
codex resume --last
# 从会话选择器中挑选
codex resume
# 恢复并追加新指令
codex resume --last "继续上次的工作,把测试也加上"
9. 会话分叉 -- 从某个节点分出新分支¶
# 在 TUI 中按两次 Esc 回溯到之前的消息
# 按 Enter 从那个节点分叉出新对话
# 命令行方式
codex fork --last
10. 非交互式脚本模式(exec)¶
适合自动化和 CI/CD:
# 执行任务并输出结果
codex exec "修复 CI 失败的问题"
# JSON 格式输出(方便程序解析)
codex exec --json "列出所有 TODO 注释"
# 把最终回复保存到文件
codex exec -o result.md "总结这个项目的架构"
11. Codex Cloud -- 云端异步执行¶
# 打开云端任务管理器
codex cloud
# 直接提交云端任务
codex cloud exec --env ENV_ID "修复所有 linting 错误"
# 多次尝试(best-of-N),选最好的结果
codex cloud exec --env ENV_ID --attempts 3 "重构认证模块"
# 应用云端任务的结果到本地
codex apply TASK_ID
安全模式(审批模式)¶
这是 Codex CLI 最重要的安全特性之一。你可以控制 AI 在你电脑上能做多少事情。
三档模式详解¶
| 模式 | 读文件 | 改文件 | 跑命令 | 网络访问 | 适用场景 |
|---|---|---|---|---|---|
| Read-only(只读) | 可以 | 需审批 | 需审批 | 需审批 | 学习代码、代码审查 |
| Auto(自动,默认) | 可以 | 可以 | 工作目录内可以 | 需审批 | 日常开发 |
| Full Access(完全访问) | 可以 | 可以 | 可以 | 可以 | 信任的项目+受控环境 |
命令行设置¶
# 只读模式(最安全)-- 只能看,改动都要你批准
codex --sandbox read-only "帮我分析这个脚本的逻辑"
# 工作区写入模式(推荐日常使用)
codex --sandbox workspace-write "重构这个模块"
# 完全访问模式(慎用!)
codex --sandbox danger-full-access "配置开发环境"
# 跳过所有安全检查(仅限隔离的 CI 环境!)
codex --dangerously-bypass-approvals-and-sandbox "..."
# 注意:没有简写形式,必须输入完整参数名
在 TUI 内切换模式¶
在交互界面中,输入 /permissions 即可切换审批模式。
安全建议¶
- 日常开发用 Auto 模式就够了,它在工作目录范围内自动操作
- 敏感项目用 Read-only 模式,每步都确认
- Full Access 仅在你完全信任项目和任务时使用
- 始终使用 Git,这样即使 AI 改错了也能轻松回退:
# 在让 Codex 工作之前先提交当前状态 git add -A && git commit -m "checkpoint before codex"
常用命令速查表¶
启动相关¶
# 基础启动
codex # 启动 TUI
codex "你的提示" # 带提示启动
codex --cd /path/to/project # 指定工作目录
# 模型选择
codex --model gpt-5.5 # 使用最新模型(如可用)
codex --model gpt-5.4 # 使用 GPT-5.4
codex --oss # 使用本地开源模型(需要 Ollama)
# 多目录支持
codex --cd apps/frontend --add-dir ../backend --add-dir ../shared
exec 自动化¶
codex exec "任务描述" # 非交互执行
codex exec --json "任务描述" # JSON 输出
codex exec -o output.md "任务描述" # 结果保存到文件
codex exec resume --last "继续" # 恢复上次的 exec 会话
会话管理¶
codex resume # 选择并恢复历史会话
codex resume --last # 恢复最近一次会话
codex resume --all # 显示所有目录的会话
codex fork --last # 分叉最近一次会话
认证管理¶
codex login # 浏览器登录
codex login --device-auth # 设备认证(不开浏览器)
codex login --with-api-key # API Key 认证
codex login status # 检查登录状态
codex logout # 退出登录
配置与功能¶
codex features list # 查看功能开关
codex features enable xxx # 启用某功能
codex features disable xxx # 禁用某功能
codex update # 更新 Codex CLI
MCP 管理¶
codex mcp list # 列出 MCP 服务器
codex mcp add NAME -- command # 添加 stdio 类型的 MCP
codex mcp add NAME --url https:// # 添加 HTTP 类型的 MCP
codex mcp remove NAME # 删除 MCP 服务器
Shell 补全¶
codex completion bash # 生成 bash 补全脚本
codex completion zsh # 生成 zsh 补全脚本
codex completion fish # 生成 fish 补全脚本
# 安装补全(以 zsh 为例)
echo 'eval "$(codex completion zsh)"' >> ~/.zshrc
source ~/.zshrc
TUI 内部斜杠命令¶
在 Codex 交互界面中,你可以用 / 开头的命令快速操作:
| 命令 | 作用 |
|---|---|
/model |
切换模型或调整推理等级 |
/review |
打开代码审查菜单 |
/permissions |
切换审批模式 |
/theme |
选择和预览界面主题 |
/resume |
恢复之前的会话 |
/fork |
分叉当前会话 |
/side |
侧边任务 |
/mcp |
查看当前 MCP 服务器状态 |
/copy 或 Ctrl+O |
复制最近的 Codex 输出 |
/clear |
清除聊天记录并开始新对话 |
/exit 或 Ctrl+C |
退出 |
/help |
查看所有可用命令 |
/title |
设置会话标题 |
/plugins |
查看已安装的插件 |
@文件名 |
模糊搜索并引用工作区文件 |
!shell命令 |
直接运行 shell 命令 |
实用快捷键¶
| 快捷键 | 作用 |
|---|---|
Enter(运行中按) |
向当前轮次注入新指令 |
Tab(运行中按) |
排队等下一轮发送 |
Esc Esc(连按两次) |
回溯编辑之前的消息 |
Ctrl+L |
清屏(不清对话) |
Ctrl+R |
搜索历史提示 |
Ctrl+G |
打开外部编辑器写长提示 |
Up/Down |
浏览历史草稿 |
AGENTS.md 自定义指令¶
在项目根目录创建 AGENTS.md 文件,Codex 每次启动时会自动读取:
# AGENTS.md
## 项目信息
这是一个宏基因组分析 pipeline,使用 Python + Snakemake 构建。
## 编码规范
- 所有 Python 脚本必须加中文注释
- 使用 conda 环境 `bioinfo` 运行生信工具
- 使用 conda 环境 `t2d_ml` 运行机器学习脚本
- 优先使用 BioPython 处理序列数据
- 脚本必须有 argparse 命令行参数
## 禁止事项
- 不要修改 data/raw/ 目录下的原始数据
- 不要直接 pip install,必须用 conda
- 不要删除 results/ 目录下已有的结果文件
## 偏好
- 变量名用英文,注释用中文
- 日志输出用 logging 模块,不要用 print
- 输出文件统一放在 results/ 目录下
Codex 会严格遵守这些指令,就像你给实习生写的工作手册一样。
MCP 协议集成¶
MCP(Model Context Protocol)让 Codex 可以连接外部工具,扩展能力。
配置方式¶
MCP 配置存储在 ~/.codex/config.toml 文件中:
# ~/.codex/config.toml
# stdio 类型的 MCP 服务器(本地进程)
[mcp_servers.my-tool]
command = "node /path/to/mcp-server.js"
supports_parallel_tool_calls = true
# HTTP 类型的 MCP 服务器(远程服务)
[mcp_servers.remote-tool]
url = "https://mcp.example.com"
命令行管理¶
# 添加一个本地 MCP 服务器
codex mcp add my-db-tool -- python /path/to/db_mcp_server.py
# 添加一个远程 MCP 服务器
codex mcp add docs-search --url https://docs-mcp.example.com
# 带环境变量的 MCP
codex mcp add my-tool --env DB_HOST=localhost --env DB_PORT=5432 -- python server.py
# 查看已配置的 MCP
codex mcp list
# 删除 MCP
codex mcp remove my-tool
# 在 TUI 内查看 MCP 状态
# 输入 /mcp
把 Codex 自己变成 MCP 服务器¶
Codex 也可以作为 MCP 服务器供其他 AI 工具调用:
codex mcp-server
# 暴露两个工具:codex()(开始对话)和 codex-reply()(继续对话)
子代理(Subagent)并行任务¶
当任务复杂时,你可以让 Codex 派出多个子代理并行工作:
# 在 TUI 中直接用自然语言要求
codex "用子代理并行完成以下任务:
1. 子代理1:检查所有脚本的错误处理
2. 子代理2:为缺少注释的函数添加 docstring
3. 子代理3:运行测试并修复失败的用例"
配置子代理¶
在 ~/.codex/config.toml 中配置:
[agents]
# 子代理使用的模型可以单独指定
# 具体配置参考官方文档
Guardian 子代理¶
Guardian 是一个特殊的"看门人"子代理,用于安全审查。当主代理要执行敏感操作时,Guardian 会先审查,通过后才允许执行。
注意:子代理会消耗更多的 token(API 额度),因为每个子代理都独立调用模型。
与生信的结合场景¶
场景 1:自动生成分析脚本¶
codex "写一个 Python 脚本,功能如下:
1. 读取 FASTQ 文件
2. 统计读长分布
3. 统计 GC 含量分布
4. 用 matplotlib 画出两个分布的直方图
5. 输出统计摘要到 CSV 文件
加详细的中文注释"
场景 2:调试 Snakemake Pipeline¶
codex -i error_screenshot.png "这是我运行 Snakemake pipeline 时的报错,帮我分析原因并修复 Snakefile"
场景 3:批量处理多个样本¶
codex "帮我写一个 shell 脚本,批量对 data/raw/ 目录下所有 paired-end FASTQ 文件运行 fastp 质控,输出到 data/clean/ 目录。要求:
- 自动识别 _R1 和 _R2 配对
- 使用 8 个线程
- 生成 HTML 质控报告
- 添加日志记录"
场景 4:理解和重构现有代码¶
codex "帮我分析 scripts/ 目录下所有的分析脚本:
1. 解释每个脚本的功能(用中文)
2. 画出它们之间的依赖关系
3. 找出可以优化的地方"
场景 5:数据库查询与注释¶
codex "写一个脚本,用 BioPython 的 Entrez 模块:
1. 读取 gene_list.txt 中的基因名列表
2. 从 NCBI 查询每个基因的功能描述
3. 获取 GO 注释
4. 输出为 Excel 表格"
场景 6:统计分析与可视化¶
codex "帮我用 R 写一个脚本:
1. 读取 OTU 表(results/otu_table.tsv)
2. 计算 alpha 多样性(Shannon、Simpson、Chao1)
3. 做分组间的 Wilcoxon 检验
4. 画箱线图,标注显著性
5. 保存为 PDF"
场景 7:使用 bioSkills 插件¶
社区开发了专门的生信技能包 bioSkills,可以直接安装:
# 安装所有生信技能
./install-codex.sh
# 只安装特定类别
./install-codex.sh --categories "single-cell,variant-calling,microbiome"
安装后就可以用更专业的提示:
codex "用 STAR 比对我的 paired-end RNA-seq 读段到人类基因组"
codex "从我的 tumor-normal BAM 文件中调用体细胞变异"
codex "分析 16S 微生物组数据并生成分类柱状图"
与 Claude Code 对比¶
这两个是目前(2025-2026)最强的终端 AI 编程工具,各有所长:
| 对比维度 | Codex CLI | Claude Code |
|---|---|---|
| 开发商 | OpenAI | Anthropic |
| 开源 | 完全开源(Apache-2.0) | 非开源 |
| 底层技术 | Rust 编写,高性能 | Node.js/TypeScript |
| 默认模型 | GPT-5.4 / GPT-5.5 | Claude Opus 4.6 / Sonnet 4.6 |
| 上下文窗口 | 最高约 1M tokens | 最高约 200K tokens |
| 沙盒机制 | OS 内核级(Seatbelt/bubblewrap) | 应用层,可编程钩子 |
| 自主程度 | 支持完全自动(fire-and-forget) | 偏向开发者参与(developer-in-the-loop) |
| 云端异步 | 支持(codex cloud) | 不支持 |
| Token 效率 | 更省 token(约 4 倍差距) | 消耗更多 token |
| 代码质量 | 广泛重构更强 | 精确修改更强,能发现深层 bug |
| MCP 支持 | 支持 | 支持 |
| 子代理 | 支持(subagent) | 支持(Agent Teams) |
| 图片输入 | 支持 | 支持 |
| 定价 | ChatGPT 订阅包含($20/月起) | 按 token 计费 + 订阅阶梯 |
| IDE 插件 | VS Code、Cursor | VS Code |
| 桌面应用 | macOS、Windows | macOS |
| GitHub Stars | 79,000+ | 37,000+ |
怎么选?¶
选 Codex CLI 的场景: - 你想要批量、并行处理多个任务(比如同时修复 5 个 issue) - 你需要"布置任务后走开"的异步工作方式 - 你更看重 token 成本效率 - 你想要一个开源、可自定义的工具 - 你已有 ChatGPT Plus 订阅
选 Claude Code 的场景: - 你在做复杂的、需要深度理解的代码探索和调试 - 你更看重代码质量而非速度 - 你需要更精细的安全治理(26 个钩子事件) - 你的项目对 bug 容忍度很低(Claude 能发现更深层的问题)
最佳实践:两个都用。 大量开发者的经验是:用 Codex 做广泛重构和批量任务,用 Claude Code 做精确修改和复杂调试。
常见问题与解决方案¶
Q1: codex: command not found¶
原因:npm 的全局安装路径不在你的 PATH 环境变量里。
解决:
# 查看 npm 全局安装路径
npm bin -g
# 输出类似:/home/user/.npm-global/bin
# 添加到 PATH
echo 'export PATH="$(npm bin -g):$PATH"' >> ~/.bashrc
source ~/.bashrc
# 重新验证
codex --version
Q2: 连接 OpenAI API 超时(国内用户常见)¶
解决方案:
# 方案1:设置代理
export HTTPS_PROXY="http://127.0.0.1:7890" # 替换为你的代理地址
export HTTP_PROXY="http://127.0.0.1:7890"
# 方案2:使用兼容的 API 中转服务
# 在 ~/.codex/config.toml 中配置 api_base
Q3: 使用本地开源模型(不需要 API Key)¶
Codex 支持通过 Ollama 使用本地模型:
# 先安装并运行 Ollama
ollama serve
# 下载模型
ollama pull codellama:34b
# 用 --oss 标志启动 Codex(默认 OSS 模型为 gpt-oss:20b)
# 如需指定其他模型,用 -m 参数
codex --oss "帮我写个脚本"
codex --oss -m codellama:34b "帮我写个脚本" # 指定具体模型
社区也有完全离线的分叉版本,如 open-codex。
Q4: Codex 修改了不该改的文件¶
预防措施:
# 1. 始终在 Git 仓库中工作
git init # 如果还没有初始化
# 2. 工作前先提交
git add -A && git commit -m "checkpoint"
# 3. 使用沙盒限制
codex --sandbox workspace-write "..."
# 4. 在 AGENTS.md 中声明禁止修改的文件/目录
事后补救:
# 撤销所有未提交的更改
git checkout .
# 或者回退到之前的 checkpoint
git reset --hard HEAD
Q5: Token 消耗太快/太贵¶
省 Token 技巧:
# 1. 用具体的提示而非模糊的要求
# 不好:"优化这个项目"
# 好:"优化 scripts/align.py 中 process_reads() 函数的内存使用"
# 2. 设定范围
codex --cd scripts "只看 align.py 和 filter.py"
# 3. 选择合适的模型
codex --model gpt-5.3-codex "简单的代码补全任务" # 更便宜的模型用于简单任务
Q6: --full-auto 已弃用¶
从 2025 年末开始,--full-auto 标志已被弃用。新的替代方式:
# 旧方式(会收到警告)
codex --full-auto "..."
# 新方式
codex --sandbox workspace-write --ask-for-approval never "..."
# 或使用权限配置文件
codex --profile my-trusted-profile "..."
Q7: WSL2 中性能差¶
# 把项目放在 WSL 文件系统内(不要放在 /mnt/c/ 下)
mkdir -p ~/projects
cd ~/projects
git clone your-repo
# 在 WSL 内运行 Codex
codex --cd ~/projects/your-repo
Q8: 怎么在 CI/CD 中使用?¶
# GitHub Actions 示例
# OpenAI 提供了官方的 GitHub Action
# 参考:https://developers.openai.com/codex/github-action
# 手动方式:在 CI 环境中
codex exec --sandbox workspace-write --json "修复 lint 错误" > result.json
学习资源与参考链接¶
官方资源¶
- Codex CLI 官方文档 -- 最权威的参考
- GitHub 仓库 -- 源代码和 issue 追踪
- 快速入门指南 -- 5 分钟上手
- 命令行参考 -- 完整的命令和参数
- 功能特性 -- 各功能详解
- 最佳实践 -- 官方推荐的使用方式
- 安全文档 -- 安全机制说明
- 更新日志 -- 版本历史
- npm 包 -- npm 安装页面
生信相关¶
- OpenAI Codex for Biotech and Bioinformatics Research -- Codex 在生信领域的应用综述
- bioSkills -- 社区开发的生信技能包,支持 Codex 和 Claude Code
对比评测¶
- Claude Code vs Codex CLI (Northflank) -- 详细对比评测
- Codex vs Claude Code (DataCamp) -- 数据科学视角的对比
- Claude Code vs Codex CLI (NxCode) -- 2026 年最新对比
社区项目¶
- open-codex (ymichael) -- 支持多个 AI 供应商的分叉版本
- open-codex (codingmoh) -- 完全离线本地运行的版本
最后更新时间:2026 年 5 月
提示:Codex CLI 更新频率很高(几乎每月都有新版本),建议定期运行
codex update获取最新功能。本教程基于 2025-2026 年的信息编写,部分功能和模型可能会随版本更新而变化。