跳转至

OpenAI Codex CLI -- 终端里的 AI 编程助手完全指南

一句话说明: Codex CLI 是 OpenAI 在 2025 年开源的命令行 AI 编程工具,你在终端里用自然语言告诉它"帮我写个脚本"或"修复这个 bug",它就能自动读代码、改代码、跑命令,像一个住在你终端里的全能程序员搭档。


目录

  1. 为什么要学 Codex CLI
  2. 核心概念详解(白话版)
  3. 安装与部署
  4. 认证与 API Key 配置
  5. 核心功能详解
  6. 安全模式(审批模式)
  7. 常用命令速查表
  8. TUI 内部斜杠命令
  9. AGENTS.md 自定义指令
  10. MCP 协议集成
  11. 子代理(Subagent)并行任务
  12. 与生信的结合场景
  13. 与 Claude Code 对比
  14. 常见问题与解决方案
  15. 学习资源与参考链接

为什么要学 Codex CLI

1. 终端原生,不用离开你的工作环境

做生信分析的人一天到晚泡在终端里跑 pipeline,Codex CLI 直接在终端里运行,不需要切换到浏览器或 IDE。你可以一边跑 BLAST,一边让 Codex 帮你写下一步的处理脚本。

2. 开源免费,代码完全透明

Codex CLI 在 GitHub 上完全开源(Apache-2.0 协议),代码用 Rust 编写,运行速度快。你可以看到它的每一行代码是怎么工作的,不用担心"黑箱"问题。社区已有 79,000+ star 和 400+ 贡献者。

3. 用自然语言就能编程

不需要记住复杂的语法,直接用中文或英文告诉它你想做什么。比如"帮我写一个统计 FASTQ 文件读长分布的 Python 脚本",它就能自动生成。对于编程基础薄弱的生信初学者来说,这大大降低了门槛。

4. 安全可控,三档审批模式

Codex 不是"放任自流"地乱改你的代码。它提供三档安全模式:从"每步都要你批准"到"完全自动",你可以根据信任程度灵活选择。而且它使用操作系统级别的沙盒(sandboxing,就是给程序画个"笼子"不让它乱跑),保护你的系统安全。

5. 多模态输入 + 云端协作

你可以把截图、流程图直接发给 Codex 让它看懂并生成代码。还能通过 codex cloud 把任务扔到云端异步执行,上午布置 5 个任务,下午回来看结果。


核心概念详解(白话版)

TUI(Terminal User Interface,终端用户界面)

白话: 就是一个"好看版的终端"。普通终端是黑乎乎一片文字,TUI 在终端里画出了像 app 一样的界面,有高亮、有菜单、有代码预览。你运行 codex 后看到的那个全屏交互界面就是 TUI。

沙盒(Sandbox)

白话: 就像给 AI 画了一个"围栏"。AI 只能在围栏里面活动,不能跑出去乱动你的其他文件或系统设置。这样即使 AI 犯了错,也不会搞坏你电脑上的其他东西。

Codex 使用的沙盒技术: - macOS:Seatbelt(苹果系统内置的安全机制) - Linux:bubblewrap + seccomp(用户命名空间隔离 + 系统调用过滤) - Windows:Windows 原生沙盒

MCP(Model Context Protocol,模型上下文协议)

白话: MCP 就像一个"万能适配器"。Codex 本身只会读文件、写代码、跑命令,但通过 MCP,你可以给它接上各种外部工具(比如浏览器、Figma 设计工具、数据库等),让它的能力大大扩展。就像手机通过 USB 适配器可以接键盘、鼠标、U盘一样。

Subagent(子代理)

白话: 就像你是一个项目经理,手下有好几个干活的人。主 agent(主代理)是项目经理,它可以把大任务拆成几个小任务,同时派给几个 subagent(下属)并行处理。比如一个负责写测试,一个负责检查安全性,一个负责优化性能,大家同时干活。

AGENTS.md(自定义指令文件)

白话: 就像你给新来的实习生写了一份"注意事项"清单。你把项目的规则、偏好写在 AGENTS.md 文件里,Codex 每次启动都会先读这个文件,确保它按你的要求做事。比如"所有 Python 脚本必须加中文注释"、"优先使用 conda 管理环境"。

exec 模式(非交互模式)

白话: TUI 交互模式像你跟 AI 面对面聊天,一问一答。exec 模式像你写了张纸条扔给 AI,它做完了把结果写在纸条背面还给你。适合在自动化脚本、CI/CD 流水线里使用。

审批模式(Approval Mode)

白话: 就像给 AI 设定不同的"权限等级"。"只读"模式下 AI 只能看不能动;"自动"模式下 AI 可以在工作目录里自由操作;"完全访问"模式下 AI 可以做任何事情。你根据具体场景选择合适的等级。


安装与部署

系统要求

  • 操作系统:macOS、Linux、Windows(原生 PowerShell 或 WSL2)
  • Node.js:16 或更高版本(如果用 npm 安装)
  • 网络:需要能访问 OpenAI 的 API(国内可能需要代理)

方式一:npm 安装(推荐)

# 全局安装 Codex CLI
npm install -g @openai/codex

# 验证安装成功
codex --version

小贴士:如果你还没有 Node.js,先安装它:

# Ubuntu/Debian
curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs

# 或者用 conda(生信同学可能更熟悉)
conda install -c conda-forge nodejs

方式二:Homebrew 安装(macOS)

brew install --cask codex

方式三:GitHub Release 下载

Codex Releases 页面 下载你系统对应的二进制文件。

# Linux 示例
# 下载后解压,文件名类似 codex-x86_64-unknown-linux-musl
# 重命名并移到 PATH 路径下
mv codex-x86_64-unknown-linux-musl codex
chmod +x codex
sudo mv codex /usr/local/bin/

# 验证
codex --version

WSL2 用户(Windows 子系统 Linux)

如果你在 Windows 上用 WSL2 做生信分析:

# 在 WSL2 内直接用 npm 安装
npm install -g @openai/codex

# 建议在 WSL 文件系统内工作(性能更好)
cd ~/projects/  # 推荐
# 不建议 cd /mnt/c/Users/xxx/  # Windows 文件系统,性能差

自动更新

# 检查并安装最新版本
codex update

认证与 API Key 配置

Codex 支持两种认证方式:

方式一:ChatGPT 账户登录(推荐)

# 运行 codex,选择 "Sign in with ChatGPT"
codex

# 或者用设备认证(不打开浏览器)
codex login --device-auth

适用场景:你有 ChatGPT Plus($20/月)、Pro、Business、Edu 或 Enterprise 计划,Codex CLI 已包含在订阅中,不额外收费。

方式二:API Key 认证

如果你有 OpenAI API Key:

# 临时设置(当前终端会话有效)
export OPENAI_API_KEY="sk-你的API密钥"

# 永久设置(写入 shell 配置文件)
# bash 用户
echo 'export OPENAI_API_KEY="sk-你的API密钥"' >> ~/.bashrc
source ~/.bashrc

# zsh 用户
echo 'export OPENAI_API_KEY="sk-你的API密钥"' >> ~/.zshrc
source ~/.zshrc

也可以通过管道传入:

# 通过 stdin 传入 API key
echo "sk-你的API密钥" | codex login --with-api-key

验证登录状态

# 检查是否已认证
codex login status
# 退出码为 0 表示已登录

注意事项

  • 数据隐私:你的源代码留在本地,只有 prompt(提示词)和高层次上下文会发送给模型
  • API 费用:使用 API Key 方式按 OpenAI 标准 API 价格计费
  • 国内用户:可能需要配置代理才能访问 OpenAI 的服务

核心功能详解

1. 交互式 TUI 模式

这是最常用的模式。运行 codex 进入全屏交互界面:

# 启动 TUI(无初始提示)
codex

# 带初始提示启动
codex "帮我解释这个代码仓库的结构"

# 指定工作目录
codex --cd ~/projects/my_pipeline "分析这个项目"

在 TUI 里你可以: - 输入自然语言指令 - 看到 Codex 的执行计划,逐步批准或拒绝 - 查看语法高亮的代码和 diff(代码差异) - 用 @ 搜索并引用工作区文件 - 用 ! 前缀直接跑 shell 命令(如 !ls) - 按 Ctrl+R 搜索历史提示 - 按 Ctrl+C 或输入 /exit 退出

2. 自主编程 -- 多文件编辑

Codex 可以同时读取和修改项目中的多个文件:

codex "给所有 Python 脚本添加 argparse 命令行参数解析"
# Codex 会:
# 1. 扫描项目里所有 .py 文件
# 2. 理解每个脚本的功能
# 3. 为每个脚本添加合适的命令行参数
# 4. 展示修改方案让你审批

3. 沙盒执行 -- 安全地运行代码

Codex 在受保护的沙盒环境中运行命令,防止误操作:

# 在沙盒中执行命令(手动测试)
codex sandbox -- python my_script.py

# 工作区只写模式(推荐日常使用)
codex --sandbox workspace-write "跑一下测试看看有没有报错"

4. 多模态输入 -- 看图写代码

你可以把截图或设计图发给 Codex:

# 单张图片
codex -i error_screenshot.png "帮我分析这个报错"

# 多张图片
codex --image flowchart.png,table.png "按这个流程图写脚本"

生信场景:把一张热图截图发给 Codex,让它帮你写出生成同样热图的 R 代码。

5. 图片生成

Codex 可以直接生成图片(使用 gpt-image-2 模型):

codex "帮我画一个展示 16S rRNA 分析流程的示意图"

6. 网页搜索

Codex 内置网页搜索功能,可以查找最新信息:

# 默认使用缓存搜索(更安全)
codex "搜索 MetaPhlAn4 的最新版本和更新内容"

# 使用实时搜索(获取最新数据)
codex --search "查找 Kraken2 数据库的最新下载链接"

7. 代码审查

# 在 TUI 内输入 /review 打开审查菜单
# 支持的审查类型:
# - 对比基准分支的改动
# - 审查未提交的更改
# - 审查特定 commit
# - 自定义审查指令

8. 会话恢复 -- 接着上次聊

# 恢复最近一次会话
codex resume --last

# 从会话选择器中挑选
codex resume

# 恢复并追加新指令
codex resume --last "继续上次的工作,把测试也加上"

9. 会话分叉 -- 从某个节点分出新分支

# 在 TUI 中按两次 Esc 回溯到之前的消息
# 按 Enter 从那个节点分叉出新对话

# 命令行方式
codex fork --last

10. 非交互式脚本模式(exec)

适合自动化和 CI/CD:

# 执行任务并输出结果
codex exec "修复 CI 失败的问题"

# JSON 格式输出(方便程序解析)
codex exec --json "列出所有 TODO 注释"

# 把最终回复保存到文件
codex exec -o result.md "总结这个项目的架构"

11. Codex Cloud -- 云端异步执行

# 打开云端任务管理器
codex cloud

# 直接提交云端任务
codex cloud exec --env ENV_ID "修复所有 linting 错误"

# 多次尝试(best-of-N),选最好的结果
codex cloud exec --env ENV_ID --attempts 3 "重构认证模块"

# 应用云端任务的结果到本地
codex apply TASK_ID

安全模式(审批模式)

这是 Codex CLI 最重要的安全特性之一。你可以控制 AI 在你电脑上能做多少事情。

三档模式详解

模式 读文件 改文件 跑命令 网络访问 适用场景
Read-only(只读) 可以 需审批 需审批 需审批 学习代码、代码审查
Auto(自动,默认) 可以 可以 工作目录内可以 需审批 日常开发
Full Access(完全访问) 可以 可以 可以 可以 信任的项目+受控环境

命令行设置

# 只读模式(最安全)-- 只能看,改动都要你批准
codex --sandbox read-only "帮我分析这个脚本的逻辑"

# 工作区写入模式(推荐日常使用)
codex --sandbox workspace-write "重构这个模块"

# 完全访问模式(慎用!)
codex --sandbox danger-full-access "配置开发环境"

# 跳过所有安全检查(仅限隔离的 CI 环境!)
codex --dangerously-bypass-approvals-and-sandbox "..."
# 注意:没有简写形式,必须输入完整参数名

在 TUI 内切换模式

在交互界面中,输入 /permissions 即可切换审批模式。

安全建议

  1. 日常开发用 Auto 模式就够了,它在工作目录范围内自动操作
  2. 敏感项目用 Read-only 模式,每步都确认
  3. Full Access 仅在你完全信任项目和任务时使用
  4. 始终使用 Git,这样即使 AI 改错了也能轻松回退:
    # 在让 Codex 工作之前先提交当前状态
    git add -A && git commit -m "checkpoint before codex"
    

常用命令速查表

启动相关

# 基础启动
codex                              # 启动 TUI
codex "你的提示"                    # 带提示启动
codex --cd /path/to/project        # 指定工作目录

# 模型选择
codex --model gpt-5.5              # 使用最新模型(如可用)
codex --model gpt-5.4              # 使用 GPT-5.4
codex --oss                        # 使用本地开源模型(需要 Ollama)

# 多目录支持
codex --cd apps/frontend --add-dir ../backend --add-dir ../shared

exec 自动化

codex exec "任务描述"                # 非交互执行
codex exec --json "任务描述"         # JSON 输出
codex exec -o output.md "任务描述"   # 结果保存到文件
codex exec resume --last "继续"      # 恢复上次的 exec 会话

会话管理

codex resume                       # 选择并恢复历史会话
codex resume --last                # 恢复最近一次会话
codex resume --all                 # 显示所有目录的会话
codex fork --last                  # 分叉最近一次会话

认证管理

codex login                        # 浏览器登录
codex login --device-auth          # 设备认证(不开浏览器)
codex login --with-api-key         # API Key 认证
codex login status                 # 检查登录状态
codex logout                       # 退出登录

配置与功能

codex features list                # 查看功能开关
codex features enable xxx          # 启用某功能
codex features disable xxx         # 禁用某功能
codex update                       # 更新 Codex CLI

MCP 管理

codex mcp list                     # 列出 MCP 服务器
codex mcp add NAME -- command      # 添加 stdio 类型的 MCP
codex mcp add NAME --url https://  # 添加 HTTP 类型的 MCP
codex mcp remove NAME              # 删除 MCP 服务器

Shell 补全

codex completion bash              # 生成 bash 补全脚本
codex completion zsh               # 生成 zsh 补全脚本
codex completion fish              # 生成 fish 补全脚本

# 安装补全(以 zsh 为例)
echo 'eval "$(codex completion zsh)"' >> ~/.zshrc
source ~/.zshrc

TUI 内部斜杠命令

在 Codex 交互界面中,你可以用 / 开头的命令快速操作:

命令 作用
/model 切换模型或调整推理等级
/review 打开代码审查菜单
/permissions 切换审批模式
/theme 选择和预览界面主题
/resume 恢复之前的会话
/fork 分叉当前会话
/side 侧边任务
/mcp 查看当前 MCP 服务器状态
/copyCtrl+O 复制最近的 Codex 输出
/clear 清除聊天记录并开始新对话
/exitCtrl+C 退出
/help 查看所有可用命令
/title 设置会话标题
/plugins 查看已安装的插件
@文件名 模糊搜索并引用工作区文件
!shell命令 直接运行 shell 命令

实用快捷键

快捷键 作用
Enter(运行中按) 向当前轮次注入新指令
Tab(运行中按) 排队等下一轮发送
Esc Esc(连按两次) 回溯编辑之前的消息
Ctrl+L 清屏(不清对话)
Ctrl+R 搜索历史提示
Ctrl+G 打开外部编辑器写长提示
Up/Down 浏览历史草稿

AGENTS.md 自定义指令

在项目根目录创建 AGENTS.md 文件,Codex 每次启动时会自动读取:

# AGENTS.md

## 项目信息
这是一个宏基因组分析 pipeline,使用 Python + Snakemake 构建。

## 编码规范
- 所有 Python 脚本必须加中文注释
- 使用 conda 环境 `bioinfo` 运行生信工具
- 使用 conda 环境 `t2d_ml` 运行机器学习脚本
- 优先使用 BioPython 处理序列数据
- 脚本必须有 argparse 命令行参数

## 禁止事项
- 不要修改 data/raw/ 目录下的原始数据
- 不要直接 pip install,必须用 conda
- 不要删除 results/ 目录下已有的结果文件

## 偏好
- 变量名用英文,注释用中文
- 日志输出用 logging 模块,不要用 print
- 输出文件统一放在 results/ 目录下

Codex 会严格遵守这些指令,就像你给实习生写的工作手册一样。


MCP 协议集成

MCP(Model Context Protocol)让 Codex 可以连接外部工具,扩展能力。

配置方式

MCP 配置存储在 ~/.codex/config.toml 文件中:

# ~/.codex/config.toml

# stdio 类型的 MCP 服务器(本地进程)
[mcp_servers.my-tool]
command = "node /path/to/mcp-server.js"
supports_parallel_tool_calls = true

# HTTP 类型的 MCP 服务器(远程服务)
[mcp_servers.remote-tool]
url = "https://mcp.example.com"

命令行管理

# 添加一个本地 MCP 服务器
codex mcp add my-db-tool -- python /path/to/db_mcp_server.py

# 添加一个远程 MCP 服务器
codex mcp add docs-search --url https://docs-mcp.example.com

# 带环境变量的 MCP
codex mcp add my-tool --env DB_HOST=localhost --env DB_PORT=5432 -- python server.py

# 查看已配置的 MCP
codex mcp list

# 删除 MCP
codex mcp remove my-tool

# 在 TUI 内查看 MCP 状态
# 输入 /mcp

把 Codex 自己变成 MCP 服务器

Codex 也可以作为 MCP 服务器供其他 AI 工具调用:

codex mcp-server
# 暴露两个工具:codex()(开始对话)和 codex-reply()(继续对话)

子代理(Subagent)并行任务

当任务复杂时,你可以让 Codex 派出多个子代理并行工作:

# 在 TUI 中直接用自然语言要求
codex "用子代理并行完成以下任务:
1. 子代理1:检查所有脚本的错误处理
2. 子代理2:为缺少注释的函数添加 docstring
3. 子代理3:运行测试并修复失败的用例"

配置子代理

~/.codex/config.toml 中配置:

[agents]
# 子代理使用的模型可以单独指定
# 具体配置参考官方文档

Guardian 子代理

Guardian 是一个特殊的"看门人"子代理,用于安全审查。当主代理要执行敏感操作时,Guardian 会先审查,通过后才允许执行。

注意:子代理会消耗更多的 token(API 额度),因为每个子代理都独立调用模型。


与生信的结合场景

场景 1:自动生成分析脚本

codex "写一个 Python 脚本,功能如下:
1. 读取 FASTQ 文件
2. 统计读长分布
3. 统计 GC 含量分布
4. 用 matplotlib 画出两个分布的直方图
5. 输出统计摘要到 CSV 文件
加详细的中文注释"

场景 2:调试 Snakemake Pipeline

codex -i error_screenshot.png "这是我运行 Snakemake pipeline 时的报错,帮我分析原因并修复 Snakefile"

场景 3:批量处理多个样本

codex "帮我写一个 shell 脚本,批量对 data/raw/ 目录下所有 paired-end FASTQ 文件运行 fastp 质控,输出到 data/clean/ 目录。要求:
- 自动识别 _R1 和 _R2 配对
- 使用 8 个线程
- 生成 HTML 质控报告
- 添加日志记录"

场景 4:理解和重构现有代码

codex "帮我分析 scripts/ 目录下所有的分析脚本:
1. 解释每个脚本的功能(用中文)
2. 画出它们之间的依赖关系
3. 找出可以优化的地方"

场景 5:数据库查询与注释

codex "写一个脚本,用 BioPython 的 Entrez 模块:
1. 读取 gene_list.txt 中的基因名列表
2. 从 NCBI 查询每个基因的功能描述
3. 获取 GO 注释
4. 输出为 Excel 表格"

场景 6:统计分析与可视化

codex "帮我用 R 写一个脚本:
1. 读取 OTU 表(results/otu_table.tsv)
2. 计算 alpha 多样性(Shannon、Simpson、Chao1)
3. 做分组间的 Wilcoxon 检验
4. 画箱线图,标注显著性
5. 保存为 PDF"

场景 7:使用 bioSkills 插件

社区开发了专门的生信技能包 bioSkills,可以直接安装:

# 安装所有生信技能
./install-codex.sh

# 只安装特定类别
./install-codex.sh --categories "single-cell,variant-calling,microbiome"

安装后就可以用更专业的提示:

codex "用 STAR 比对我的 paired-end RNA-seq 读段到人类基因组"
codex "从我的 tumor-normal BAM 文件中调用体细胞变异"
codex "分析 16S 微生物组数据并生成分类柱状图"

与 Claude Code 对比

这两个是目前(2025-2026)最强的终端 AI 编程工具,各有所长:

对比维度 Codex CLI Claude Code
开发商 OpenAI Anthropic
开源 完全开源(Apache-2.0) 非开源
底层技术 Rust 编写,高性能 Node.js/TypeScript
默认模型 GPT-5.4 / GPT-5.5 Claude Opus 4.6 / Sonnet 4.6
上下文窗口 最高约 1M tokens 最高约 200K tokens
沙盒机制 OS 内核级(Seatbelt/bubblewrap) 应用层,可编程钩子
自主程度 支持完全自动(fire-and-forget) 偏向开发者参与(developer-in-the-loop)
云端异步 支持(codex cloud) 不支持
Token 效率 更省 token(约 4 倍差距) 消耗更多 token
代码质量 广泛重构更强 精确修改更强,能发现深层 bug
MCP 支持 支持 支持
子代理 支持(subagent) 支持(Agent Teams)
图片输入 支持 支持
定价 ChatGPT 订阅包含($20/月起) 按 token 计费 + 订阅阶梯
IDE 插件 VS Code、Cursor VS Code
桌面应用 macOS、Windows macOS
GitHub Stars 79,000+ 37,000+

怎么选?

选 Codex CLI 的场景: - 你想要批量、并行处理多个任务(比如同时修复 5 个 issue) - 你需要"布置任务后走开"的异步工作方式 - 你更看重 token 成本效率 - 你想要一个开源、可自定义的工具 - 你已有 ChatGPT Plus 订阅

选 Claude Code 的场景: - 你在做复杂的、需要深度理解的代码探索和调试 - 你更看重代码质量而非速度 - 你需要更精细的安全治理(26 个钩子事件) - 你的项目对 bug 容忍度很低(Claude 能发现更深层的问题)

最佳实践:两个都用。 大量开发者的经验是:用 Codex 做广泛重构和批量任务,用 Claude Code 做精确修改和复杂调试。


常见问题与解决方案

Q1: codex: command not found

原因:npm 的全局安装路径不在你的 PATH 环境变量里。

解决

# 查看 npm 全局安装路径
npm bin -g
# 输出类似:/home/user/.npm-global/bin

# 添加到 PATH
echo 'export PATH="$(npm bin -g):$PATH"' >> ~/.bashrc
source ~/.bashrc

# 重新验证
codex --version

Q2: 连接 OpenAI API 超时(国内用户常见)

解决方案

# 方案1:设置代理
export HTTPS_PROXY="http://127.0.0.1:7890"  # 替换为你的代理地址
export HTTP_PROXY="http://127.0.0.1:7890"

# 方案2:使用兼容的 API 中转服务
# 在 ~/.codex/config.toml 中配置 api_base

Q3: 使用本地开源模型(不需要 API Key)

Codex 支持通过 Ollama 使用本地模型:

# 先安装并运行 Ollama
ollama serve

# 下载模型
ollama pull codellama:34b

# 用 --oss 标志启动 Codex(默认 OSS 模型为 gpt-oss:20b)
# 如需指定其他模型,用 -m 参数
codex --oss "帮我写个脚本"
codex --oss -m codellama:34b "帮我写个脚本"  # 指定具体模型

社区也有完全离线的分叉版本,如 open-codex

Q4: Codex 修改了不该改的文件

预防措施

# 1. 始终在 Git 仓库中工作
git init  # 如果还没有初始化

# 2. 工作前先提交
git add -A && git commit -m "checkpoint"

# 3. 使用沙盒限制
codex --sandbox workspace-write "..."

# 4. 在 AGENTS.md 中声明禁止修改的文件/目录

事后补救

# 撤销所有未提交的更改
git checkout .

# 或者回退到之前的 checkpoint
git reset --hard HEAD

Q5: Token 消耗太快/太贵

省 Token 技巧

# 1. 用具体的提示而非模糊的要求
# 不好:"优化这个项目"
# 好:"优化 scripts/align.py 中 process_reads() 函数的内存使用"

# 2. 设定范围
codex --cd scripts "只看 align.py 和 filter.py"

# 3. 选择合适的模型
codex --model gpt-5.3-codex "简单的代码补全任务"  # 更便宜的模型用于简单任务

Q6: --full-auto 已弃用

从 2025 年末开始,--full-auto 标志已被弃用。新的替代方式:

# 旧方式(会收到警告)
codex --full-auto "..."

# 新方式
codex --sandbox workspace-write --ask-for-approval never "..."

# 或使用权限配置文件
codex --profile my-trusted-profile "..."

Q7: WSL2 中性能差

# 把项目放在 WSL 文件系统内(不要放在 /mnt/c/ 下)
mkdir -p ~/projects
cd ~/projects
git clone your-repo

# 在 WSL 内运行 Codex
codex --cd ~/projects/your-repo

Q8: 怎么在 CI/CD 中使用?

# GitHub Actions 示例
# OpenAI 提供了官方的 GitHub Action
# 参考:https://developers.openai.com/codex/github-action

# 手动方式:在 CI 环境中
codex exec --sandbox workspace-write --json "修复 lint 错误" > result.json

学习资源与参考链接

官方资源

生信相关

对比评测

社区项目


最后更新时间:2026 年 5 月

提示:Codex CLI 更新频率很高(几乎每月都有新版本),建议定期运行 codex update 获取最新功能。本教程基于 2025-2026 年的信息编写,部分功能和模型可能会随版本更新而变化。