AI 编程助手深度对比与高效使用¶
一句话说明: AI 编程助手是能理解你的代码上下文、帮你写代码/改 bug/跑命令的智能工具,从简单的代码补全到完整的 Agent 自主编程,它们正在彻底改变开发者的工作方式。
为什么要学¶
- 效率翻倍 — 有经验的开发者使用 AI 编程助手后,日常编码效率提升 30-60%,重复性工作(写测试、写文档、格式转换)几乎可以全部交给 AI
- 面试必问 — 2025-2026 年生信岗位面试,"你用过哪些 AI 工具辅助开发"已经是常见问题,能讲清楚使用经验是加分项
- 降低入门门槛 — 对于编程基础薄弱的同学,AI 助手相当于一个随时在线的高级程序员帮你审代码、解释报错、推荐最佳实践
- 生信场景刚需 — 宏基因组 pipeline 经常涉及 10+ 个工具的串联,AI 助手能帮你快速生成 Snakemake/Nextflow 规则、处理各种格式转换
- 知道局限才能用好 — 理解不同工具的优缺点,才能在正确的场景选对工具,避免踩坑
核心概念详解¶
AI 编程助手的工作原理¶
白话: AI 编程助手的底层就是大语言模型(LLM),但它被"包装"成了能看懂你整个项目、能帮你执行命令的智能工具。
两种主要工作模式:
模式一:代码补全(Autocomplete)¶
# 你在编辑器里打字:
def calculate_gc_content(sequence):
# AI 自动补全后面的代码 ↓
gc_count = sum(1 for base in sequence if base in 'GCgc') # AI 自动生成
return gc_count / len(sequence) # AI 自动生成
白话: 就像手机输入法的联想功能,你打几个字它猜你下一句要写什么。代码补全只看你当前文件的上下文,反应速度快(几百毫秒),但"视野"窄。
模式二:Agent 模式(自主编程)¶
# 你告诉 AI:"帮我写一个 FastQC 质控脚本,输入是 data/ 下所有 fastq.gz 文件"
# AI 做了以下事情:
# 1. 读取你的项目结构(看有哪些文件)
# 2. 检查 data/ 目录下的文件
# 3. 生成完整脚本
# 4. 运行脚本检查是否报错
# 5. 修复报错
# 6. 把最终结果交给你
白话: Agent 模式就像雇了一个实习生,你给他任务描述,他自己去看文件、写代码、跑测试、改 bug,最后把成品交给你。Claude Code 和 OpenCode 都是 Agent 模式。
上下文窗口(Context Window)¶
白话: 上下文窗口就是 AI 的"工作记忆"大小,决定了它一次能看多少代码。
| 模型 | 上下文窗口 | 能看多少代码 |
|---|---|---|
| GPT-4o | 128K tokens | 约 300 页代码 |
| Claude Sonnet 4 | 200K tokens | 约 500 页代码 |
| Claude Opus 4 | 200K tokens | 约 500 页代码 |
关键问题: 上下文用完了怎么办?
- 代码补全工具(Copilot):只发送当前文件 + 相关片段,永远不会用完
- Agent 工具(Claude Code/OpenCode):会话越长消耗越多,需要管理会话长度
- 解决方案:及时开新会话、使用
/compact压缩上下文、写好 CLAUDE.md 让 AI 每次启动都能快速了解项目
Tool Use(工具调用)¶
白话: Tool Use 就是让 AI "长出手"——不只能说,还能做。
普通聊天 AI 只能输出文字,但编程助手通过 Tool Use 机制可以:
AI 可以调用的工具:
├── 读文件(Read) — 看你项目里的代码
├── 写文件(Write) — 创建或修改文件
├── 编辑文件(Edit) — 精确替换某几行
├── 运行命令(Bash) — 执行 shell 命令(安装包、跑脚本、git 操作)
├── 搜索文件(Glob) — 按文件名模式查找
├── 搜索内容(Grep) — 按内容模式搜索
└── 网络请求(Fetch) — 查看网页/API 文档
类比: 普通 ChatGPT 是"顾问"(只动嘴),Agent 模式的编程助手是"工程师"(能动手改你的代码)。
Rules / CLAUDE.md / AGENTS.md 的作用¶
白话: 这些文件就是你给 AI 写的"员工手册",告诉它你的项目规范、编码风格、特殊要求。
# CLAUDE.md 示例(项目根目录下)
## 项目背景
这是一个宏基因组分析项目,分析 2 型糖尿病患者的肠道菌群
## 编码规范
- Python 脚本用 PEP8 风格
- 所有脚本加详细中文注释
- conda 环境:bioinfo(生信分析)、t2d_ml(机器学习)
## 目录结构
- scripts/ 放分析脚本
- data/ 放原始数据(不要修改)
- results/ 放输出结果
为什么重要: AI 每次启动会话都会先读这个文件,相当于"新员工入职第一天看的指南"。写得越清楚,AI 越不会犯低级错误。
主流工具深度对比¶
1. Claude Code(Anthropic 官方 CLI)¶
是什么: Anthropic 公司出的命令行编程助手,直接在终端里用,是目前 Agent 能力最强的工具之一。
核心优势: - Agent 能力顶级 — 能自主读写文件、运行命令、搜索代码、修 bug,完成复杂多步任务 - 200K 超大上下文 — 能一次看完大型项目的核心代码 - Extended Thinking — 遇到复杂问题会先"想一想"再回答,推理能力强 - 原生 Tool Use — 工具调用设计精良,文件操作精确 - MCP 支持 — 可以连接外部工具(数据库、API、浏览器等)
缺点: - 价格贵 — Claude Max 订阅 $100/月(Opus 4 模型),$20/月的 Pro 计划额度有限 - 纯终端界面 — 没有图形界面,对新手不太友好 - 需要良好的网络 — API 调用需要稳定的网络连接
价格: - Claude Pro: $20/月(有限使用) - Claude Max 5x: $100/月(日常够用) - Claude Max 20x: $200/月(重度使用) - API 按 token 计费:Sonnet 4 输入 $3/百万 tokens,Opus 4 输入 $15/百万 tokens
适用场景: 复杂的多文件重构、从零搭建项目、需要运行命令验证的任务
2. OpenCode(开源替代方案)¶
是什么: 一个开源的终端 AI 编程助手,功能对标 Claude Code,但支持多种模型后端且完全免费。
核心优势: - 完全开源免费 — MIT 协议,代码透明 - 多模型支持 — 可以接 Claude、GPT-4o、Gemini、本地 Ollama 模型等 - 功能对齐 Claude Code — 支持 Tool Use、文件读写、命令执行、MCP - 自定义灵活 — 可以通过 Rules 和 Hooks 高度自定义行为 - 活跃社区 — GitHub 更新快,功能迭代积极
缺点: - 模型能力取决于后端 — 用 Claude API 效果最好,用免费模型效果会打折 - 生态不如 Claude Code 成熟 — 第三方教程、插件相对少 - 仍在快速迭代 — 偶尔有不稳定的地方
价格: - 工具本身免费 - 模型费用看你接哪个 API(Claude API、OpenAI API、或免费的 Ollama 本地模型)
适用场景: 预算有限但想要 Agent 模式体验、需要灵活切换模型、不想被单一厂商锁定
3. Cursor(IDE 集成)¶
是什么: 基于 VS Code 魔改的 AI-first 代码编辑器,把 AI 能力深度集成到了 IDE 中。
核心优势: - 代码补全 + Agent 双模式 — Tab 补全秒级响应,Cmd+K 内联编辑,Composer 模式做多文件修改 - 可视化差异对比 — 每次 AI 修改都会高亮显示变化,一键接受/拒绝 - @引用系统 — @file、@folder、@web、@docs 精确控制 AI 看到什么 - 低门槛 — 有 VS Code 使用经验就能上手,图形界面友好 - 多模型支持 — 内置 Claude、GPT-4o、可切换
缺点: - 收费 — Pro $20/月,免费版有限额 - 依赖图形界面 — 不适合纯 SSH 远程服务器场景 - 复杂任务不如纯 Agent — Composer 模式做大型重构不如 Claude Code 稳定 - 闭源 — 代码不开放
价格: - Free: 有限次数的高级模型请求 - Pro: $20/月(500 次高级模型请求) - Business: $40/月/人
适用场景: 日常编码、需要图形界面、喜欢边写边补全的开发风格
4. GitHub Copilot¶
是什么: GitHub(微软)出的 AI 编程助手,最早火起来的代码补全工具,现在也加了 Agent 模式。
核心优势: - GitHub 生态集成 — 和 GitHub 仓库、PR、Issues 深度打通 - 代码补全稳定 — 做了多年优化,Tab 补全体验流畅 - 多 IDE 支持 — VS Code、JetBrains、Neovim 等都有插件 - Copilot Workspace — 新推出的 Agent 模式,从 Issue 到 PR 一条龙 - 学生免费 — 有 .edu 邮箱可以白嫖
缺点: - Agent 能力起步晚 — 相比 Claude Code 的 Agent 模式还不够成熟 - 模型选择有限 — 主要用 GPT-4o/Codex,Claude 支持有限 - 复杂推理弱 — 处理多步骤逻辑问题不如 Claude - 上下文管理不透明 — 你不太知道它看了哪些文件
价格: - Free: 基础补全(有限) - Individual: $10/月 - Business: $19/月/人 - Enterprise: $39/月/人
适用场景: 已经深度使用 GitHub 工作流的团队、日常代码补全、学生(免费)
5. Windsurf(原 Codeium)¶
是什么: 另一个 AI-first IDE,前身是 Codeium(免费代码补全工具),现在升级为完整的 AI 编程环境。
核心优势: - Cascade 模式 — Agent 式多步任务执行,自动读文件、改代码、跑命令 - 免费额度较多 — 入门版本免费补全不限量 - 内存系统 — 能记住你之前的对话和偏好 - 界面友好 — 类似 Cursor 的 VS Code 体验
缺点: - 市场份额小 — 社区和教程资源比 Cursor/Copilot 少 - Agent 稳定性待提升 — 复杂任务偶尔出错 - 模型能力受限 — 自研模型不如 Claude/GPT-4o
价格: - Free: 基础功能免费 - Pro: $15/月 - Teams: 按人头收费
适用场景: 预算有限想试试 IDE 集成 AI、从 Codeium 升级过来的用户
6. Cline(VS Code 插件)¶
是什么: 一个开源的 VS Code 插件,让你在 VS Code 里获得类似 Claude Code 的 Agent 体验。
核心优势: - 开源免费 — 插件本身不收费 - 在 VS Code 里运行 — 不用切换工具,保持你的 IDE 习惯 - 支持多种 API — 可以接 Claude、GPT、本地模型 - 可视化 Agent 过程 — 能看到 AI 的每一步操作 - 支持人工审批 — 每一步操作都可以要求人工确认
缺点: - 需要自己配 API Key — 费用不可控(按 token 计费) - 性能不如原生客户端 — 在 VS Code 里跑 Agent 有时会卡 - 对大型项目支持一般 — 上下文管理不如专用工具精细
价格: - 插件免费,API 费用自付(取决于你用的模型)
适用场景: 想在 VS Code 里体验 Agent 模式、已有 API Key、喜欢 GUI 但不想换编辑器
对比总表¶
| 特性 | Claude Code | OpenCode | Cursor | GitHub Copilot | Windsurf | Cline |
|---|---|---|---|---|---|---|
| 类型 | 终端 CLI | 终端 CLI | IDE | IDE 插件 | IDE | VS Code 插件 |
| 开源 | 否 | 是 (MIT) | 否 | 否 | 否 | 是 |
| Agent 能力 | ★★★★★ | ★★★★☆ | ★★★★☆ | ★★★☆☆ | ★★★★☆ | ★★★★☆ |
| 代码补全 | 无(纯 Agent) | 无(纯 Agent) | ★★★★★ | ★★★★★ | ★★★★☆ | 无 |
| 默认模型 | Claude Opus/Sonnet | 可选多种 | Claude/GPT | GPT-4o | 自研+GPT | 可选多种 |
| 上下文窗口 | 200K | 取决于模型 | 200K | 128K | 128K | 取决于模型 |
| 月费 | $20-200 | 免费+API费 | $0-40 | $0-39 | $0-15 | 免费+API费 |
| 远程服务器 | 极好(SSH) | 极好(SSH) | 差 | 中等 | 差 | 中等 |
| MCP 支持 | 是 | 是 | 是 | 有限 | 有限 | 是 |
| 适合新手 | 中等 | 中等 | 好 | 好 | 好 | 中等 |
| 生信推荐度 | ★★★★★ | ★★★★★ | ★★★★☆ | ★★★☆☆ | ★★★☆☆ | ★★★★☆ |
对于你(文强)的推荐: - 日常主力: OpenCode(你当前在用) + Claude API 后端 — 免费工具 + 顶级模型 - 复杂任务: Claude Code — Agent 能力最强,处理多文件重构最稳 - 远程服务器: OpenCode 或 Claude Code — 纯终端,SSH 直接用 - 如果想试 IDE: Cursor — 体验最好,但不适合纯终端环境
高效使用技巧¶
1. 怎么写好 CLAUDE.md / Rules¶
CLAUDE.md(或 OpenCode 的 Rules 文件)是 AI 每次启动会话时第一个读的文件,写得好能让 AI 效率翻倍。
# 示例:生信项目的 CLAUDE.md
## 用户背景
- 2026 届毕业生,准备生信岗位面试
- 项目方向:宏基因组(2 型糖尿病肠道菌群分析)
- 编程水平:Python 中级,R 入门,Shell 基础
## 项目结构
- scripts/ — 分析脚本(Python/Shell)
- data/raw/ — 原始 FASTQ 数据(只读,不要修改)
- data/clean/ — 质控后的干净数据
- results/ — 分析结果输出
- docs/ — 文档和笔记
## 编码规范
- Python 用 PEP8,每个函数加 docstring
- Shell 脚本开头写 #!/bin/bash 和 set -euo pipefail
- 所有脚本必须加详细中文注释(给我自己看的)
- 变量名用英文,注释用中文
## 工具环境
- conda 环境:bioinfo(生信工具)、t2d_ml(机器学习)
- 常用工具:fastp, kraken2, humann3, metaphlan4
- 运行环境:WSL2 Ubuntu 22.04
## 自主运行
- 收到长任务直接执行完毕再汇报,不需要中途确认
- 遇到小问题自己判断解决,只有重大决策才问我
写好 Rules 的关键原则: 1. 写清楚你是谁、项目是什么 — AI 需要知道对谁说话 2. 明确目录结构 — 防止 AI 乱创建文件 3. 定义编码规范 — 一次定好,不用每次重复说 4. 声明环境信息 — 避免 AI 推荐你没装的工具 5. 设定自主程度 — 告诉 AI 什么时候该自己决定,什么时候该问你
2. @文件引用技巧¶
在对话中精确告诉 AI 该看哪些文件:
# Cursor / Windsurf 中的 @引用
@file scripts/kraken2_classify.sh # 引用特定文件
@folder results/ # 引用整个目录
@web https://docs.python.org # 引用网页
@docs pandas # 引用库文档
# Claude Code / OpenCode 中等价操作
# 直接在提示中说明:
"看一下 scripts/kraken2_classify.sh 这个文件,帮我优化它"
# AI 会自动调用 Read 工具去读取文件
技巧: 在终端 Agent 模式中,你不需要手动 @引用,AI 会自己判断需要读哪些文件。但如果你想加速,可以主动指明:"先看 scripts/ 目录下的文件结构"。
3. Plan 模式 vs Build 模式¶
很多 AI 编程助手支持两种工作模式:
| 模式 | 特点 | 何时使用 |
|---|---|---|
| Plan 模式 | AI 先列计划再执行,你审批后才动手 | 大型重构、不熟悉的操作、怕改错的时候 |
| Build 模式 | AI 直接开干,做完汇报 | 简单任务、你已经信任 AI 的判断、赶时间 |
# Claude Code 中使用 Plan 模式
# 在 CLAUDE.md 中写:
## 工作方式
- 复杂任务先出计划,等我确认再执行
- 简单任务直接做
# OpenCode 中等价操作:在对话中说
"先给我一个计划,我确认后再执行"
建议: 对于生信 pipeline 这种一旦改错可能需要重跑几小时的任务,先用 Plan 模式确认逻辑再执行。
4. 多 Agent 并行任务¶
当你有多个独立任务时,可以并行启动多个 Agent:
# 方法 1:开多个终端窗口
# 终端 1:让 AI 写质控脚本
# 终端 2:让 AI 写物种注释脚本
# 终端 3:让 AI 写可视化脚本
# 方法 2:Claude Code 的子 Agent(Task tool)
# AI 会自动把大任务拆分成子任务并行执行
# 方法 3:tmux + 多个 Agent 会话
tmux new-session -s qc # 会话1:质控
tmux new-session -s classify # 会话2:分类
tmux new-session -s visual # 会话3:可视化
注意事项: - 并行任务之间不能有依赖(比如质控必须在分类之前完成) - 每个 Agent 会话独立消耗 API 额度 - 建议给每个 Agent 明确划定"只改这个目录",避免冲突
5. /undo 撤销和会话管理¶
# Claude Code / OpenCode 常用会话命令
/undo # 撤销上一次 AI 的文件修改(超级有用!改坏了就 undo)
/compact # 压缩对话历史,释放上下文空间
/clear # 清空当前会话,重新开始
/cost # 查看当前会话消耗了多少 token/钱
# 会话管理最佳实践:
# 1. 一个任务一个会话 — 不要在同一个会话里做太多不相关的事
# 2. 及时 /compact — 对话超过 50 轮就压缩一次
# 3. 改坏立即 /undo — 不要试图让 AI "再改回来",直接撤销更干净
# 4. 重要操作前 git commit — 给自己留一个回退点
生信场景最佳实践¶
场景 1:用 AI 写宏基因组 Pipeline¶
# 你的提示(给 AI 的指令):
"帮我写一个宏基因组分析 pipeline,步骤如下:
1. fastp 质控(去接头、去低质量)
2. bowtie2 去宿主(人类基因组 hg38)
3. kraken2 物种分类
4. 用 bracken 重新估算丰度
5. 输出每个样本的物种丰度表
输入:data/raw/*.fastq.gz(双端测序,_1.fq.gz 和 _2.fq.gz)
输出:results/taxonomy/
数据库路径:/db/kraken2/k2_standard
参考基因组:/db/bowtie2/hg38
conda 环境:bioinfo
要求:每步加中文注释,失败时报错退出"
技巧: 把输入/输出路径、数据库路径、环境名写清楚,AI 生成的脚本就能直接跑,不用你再改路径。
场景 2:Debug 报错信息¶
# 直接把报错贴给 AI:
"运行 kraken2 时报错了:
kraken2: database does not contain necessary file taxo.k2d
帮我分析原因并解决"
# AI 会:
# 1. 分析报错原因(数据库路径错误或数据库不完整)
# 2. 检查你的数据库目录
# 3. 给出具体解决步骤
场景 3:代码审查¶
# 你的提示:
"审查 scripts/diversity_analysis.py 这个脚本,检查:
1. 有没有 bug 或逻辑错误
2. 性能能不能优化
3. 代码风格是否规范
4. 有没有缺少异常处理的地方
给出具体修改建议"
场景 4:格式转换与数据处理¶
# 生信中最常见的"脏活":
"帮我写一个 Python 脚本:
- 读取 results/kraken2_report.txt(kraken2 格式)
- 转换为标准的 OTU 表格式(行=样本,列=物种,值=丰度)
- 过滤掉丰度 < 0.01% 的物种
- 输出为 TSV 格式到 results/otu_table.tsv"
场景 5:快速生成可视化¶
# 你的提示:
"用 matplotlib 画一个物种丰度柱状图:
- 数据来自 results/top20_species.tsv
- X 轴是样本名,Y 轴是相对丰度
- 每个物种用不同颜色的堆叠柱
- 只显示 Top 10 物种,其余归为 Others
- 图片保存为 results/figures/abundance_barplot.pdf
- 分辨率 300 dpi,A4 大小"
常见问题与解决¶
Q1:AI 生成的代码跑不通怎么办?¶
原因: AI 可能假设了你没有安装的工具、错误的文件路径、或过时的 API。
解决: 1. 把完整报错信息贴回给 AI,让它自己修 2. 明确告诉 AI 你的环境:"我用的是 Python 3.9,pandas 1.5" 3. 在 CLAUDE.md 里写清楚你的环境,减少 AI 的猜测
Q2:AI 改了我不想改的文件怎么办?¶
解决:
/undo # 立即撤销最近的修改
git checkout -- 文件名 # 用 git 恢复特定文件
git stash # 暂存所有修改,回到干净状态
预防: 在 CLAUDE.md 里写 "data/ 目录是只读的,不要修改任何原始数据文件"
Q3:Token 用太快/太贵怎么办?¶
解决:
1. 用 Sonnet 而不是 Opus — 便宜 5 倍,日常任务够用
2. 写好 CLAUDE.md — 减少 AI 反复问你项目信息
3. 及时开新会话 — 长会话后面的消息很贵(因为整个历史都要发送)
4. 用 /compact — 压缩历史对话,节省 token
5. 简单任务用本地模型(Ollama) — 免费但质量稍差
Q4:多个文件需要同时修改,AI 改到一半乱了怎么办?¶
解决:
1. 先 git commit 保存当前状态
2. 把任务拆成小步骤,一步一步来
3. 用 Plan 模式,先确认计划再执行
4. 每步完成后验证一下再继续
Q5:AI 的代码注释/变量名不符合我的风格怎么办?¶
解决: 在 CLAUDE.md 里明确规定:
## 代码风格
- 变量名:snake_case(小写下划线)
- 注释语言:中文
- 函数命名:动词开头(get_、calc_、filter_)
- 不要用缩写(用 sequence 不用 seq)
Q6:远程服务器上没有图形界面,怎么用 AI 编程助手?¶
解决: 终端工具是你的最佳选择:
# SSH 到服务器后直接用
ssh user@server
opencode # 启动 OpenCode
# 或
claude # 启动 Claude Code
# 这两个工具都是纯终端运行,不需要图形界面
# Cursor/Windsurf 在纯 SSH 环境下无法使用
Q7:AI 给的生信分析方法/参数不对怎么办?¶
注意: AI 的训练数据有截止日期,它推荐的工具版本和参数可能过时。
解决: 1. 关键参数一定自己验证(查官方文档或最新文献) 2. 让 AI 解释为什么用这个参数,而不是只给答案 3. 对于新发布的工具,主动给 AI 提供文档链接
Q8:怎么让 AI 理解我的整个项目而不只是单个文件?¶
解决: 1. 写好 CLAUDE.md 描述项目全貌 2. 在对话开头说"先看一下整个项目结构" 3. 用 Agent 模式(它会自动浏览文件) 4. 重要的架构决策写在项目根目录的文档里
速查表¶
Claude Code / OpenCode 通用命令¶
| 命令/操作 | 作用 |
|---|---|
/undo |
撤销上一次文件修改 |
/compact |
压缩对话历史,释放上下文 |
/clear |
清空会话重新开始 |
/cost |
查看本次会话消耗 |
Ctrl+C |
中断 AI 当前操作 |
Ctrl+D |
退出会话 |
Shift+Enter |
输入多行消息 |
OpenCode 特有操作¶
| 命令/快捷键 | 作用 |
|---|---|
Ctrl+P |
列出可用操作 |
| 在提示中说"先看文件结构" | AI 会先浏览项目再动手 |
| 在提示中说"解释每一步" | AI 会给出详细步骤说明 |
高效提示模板¶
# 模板 1:写新脚本
"帮我写一个 [语言] 脚本:
- 功能:[具体做什么]
- 输入:[文件路径和格式]
- 输出:[文件路径和格式]
- 环境:[conda 环境名]
- 要求:加详细中文注释"
# 模板 2:修 bug
"运行 [脚本名] 报错:
[粘贴完整报错信息]
帮我分析原因并修复"
# 模板 3:代码优化
"审查 [文件路径],从以下方面优化:
1. 性能(运行速度)
2. 可读性
3. 异常处理
4. 内存使用
保持功能不变"
# 模板 4:学习新工具
"用白话解释 [工具名] 是什么,怎么用。
给一个最小可运行的例子,每行加中文注释。
我的环境是 [环境信息]"
Git + AI 协作最佳实践¶
# 每次让 AI 大改之前:
git add -A ; git commit -m "before AI refactor" # 先保存当前状态
# AI 改完后验证:
git diff # 看 AI 改了什么
git diff --stat # 快速看改了哪些文件
# 不满意就回滚:
git checkout -- . # 丢弃所有未提交的修改
# 或
/undo # 用 AI 工具自带的撤销
延伸学习资源¶
官方文档¶
- Claude Code 文档: https://docs.anthropic.com/en/docs/claude-code
- OpenCode 文档: https://opencode.ai/docs
- Cursor 文档: https://docs.cursor.com
- GitHub Copilot 文档: https://docs.github.com/en/copilot
学习路径建议¶
第 1 周:熟悉一个 Agent 工具(OpenCode 或 Claude Code)
├── 学会基本对话和文件操作
├── 写好你的 CLAUDE.md
└── 完成 3 个简单任务(写脚本、修 bug、格式转换)
第 2 周:深入使用
├── 尝试多步骤复杂任务(写完整 pipeline)
├── 学会 /undo、/compact 等会话管理
└── 尝试 Plan 模式处理大任务
第 3 周:进阶技巧
├── 配置 MCP 连接外部工具
├── 尝试多 Agent 并行
└── 形成自己的提示模板库
社区与资源¶
- GitHub: https://github.com/anomalyco/opencode (OpenCode 项目,问题反馈和功能请求)
- Anthropic 官方博客(Claude Code 更新日志)
- r/ClaudeAI(Reddit 社区,使用技巧分享)
- 各工具的 Discord 社区(实时问答)
面试相关¶
面试时如果被问到"你怎么使用 AI 工具辅助开发",可以这样回答:
"我日常用 OpenCode/Claude Code 做生信 pipeline 开发。具体做法是:先在 CLAUDE.md 里写清楚项目规范和目录结构,然后把任务拆成小步骤给 AI。比如写宏基因组质控流程,我会先让 AI 出计划,确认逻辑后再让它生成代码。生成的代码我会逐行审查,特别是参数设置要对照官方文档验证。遇到 bug 我会直接把报错贴给 AI,让它分析并修复。但我始终把 AI 当工具而不是替代品——理解原理是我的责任,AI 帮我加速执行。"
最后提醒: AI 编程助手是加速器,不是替代品。核心能力(理解算法、设计架构、验证结果)必须是你自己的。用 AI 节省的时间,应该投入到理解"为什么"而不是只追求"怎么做"。