主题
OpenCode
项目介绍
OpenCode 是开源的 AI 编程助手,支持终端 / IDE / 桌面环境。
核心特性
- 原生终端 / TUI 优化
- 自动加载 LSP,增强代码上下文理解
- 多会话并行,支持会话链接共享
- 支持 75+ 模型供应商,包括本地模型
- 集成 GitHub Copilot / ChatGPT Plus/Pro
平台支持
- Terminal CLI
- Desktop(Beta)
- IDE 扩展
环境配置
1. 安装
bash
npm install -g opencode-ai验证:终端执行 opencode,出现交互界面即代表成功。
2. 安装 CC-Switch
OpenCode 推荐配合 CC-Switch 管理供应商。详见 CC-Switch 通用步骤。
3. 在 CC-Switch 中配 OpenCode 渠道
CC-Switch → 选 OpenCode → Add Vendor:
| 字段 | 值 |
|---|---|
| 预设供应商 | Custom(填 OpusClaw) |
| 供应商标识 | 自定义,例如 OpusClaw-Codex |
| 接口格式 | 视模型选: Anthropic / OpenAI / Google (Gemini) |
| API Key | 对应分组的令牌(claude / chatgpt / gemini) |
OpenCode 支持的分组分类:
- GPT 系:chatgpt 分组
- Claude 系:claude 分组
- Gemini 系:gemini 分组
附加选项
加键值对 {"setCacheKey": true} 让 OpenCode 启用缓存键。
模型配置示例(Codex 系列)
| Model ID | 显示名 |
|---|---|
gpt-5.5 | gpt-5.5 |
gpt-5-codex | gpt-5-codex |
填完点 "Add"。
4. 选刚配好的渠道并启用
在 CC-Switch 主界面选中刚加的 OpusClaw 渠道,点击启用。
验证配置
- 重新打开终端,执行
opencode - 输入
/models命令,确认 OpusClaw 渠道出现在列表 - 选择对应模型,开始使用
注意事项
- 如果你某些场景需要禁用响应缓存,在 Additional Options 里加
{"store": false}配合{"setCacheKey": true}同时使用