Claude Code Bridge 多 AI 卛作平台技术分析
一、项目概述
1. 项目背景
Claude Code Bridge(简称 ccb)是一个创新的终端多 AI 协作工具,通过分屏终端实现 Claude、Codex 和 Gemini 的实时协作。
A. 核心问题
单一 AI 模型存在认知偏差、盲点和上下文限制,而传统的 MCP、Skills 等直接 API 调用方式存在诸多限制。
B. 解决方案
通过终端分屏技术,让多个 AI 模型并行工作,每个模型维护独立的持久化上下文,实现真正的专家团队协作模式。
2. 项目定位
- 版本:v2.3
- 许可证:MIT
- 平台:Linux、macOS、Windows(WSL 和原生支持)
- Python 要求:3.10+
二、核心特性
1. 可视化与可控性
多个 AI 模型在分屏 CLI 中并行运行,用户可以实时看到所有模型的输出,完全掌控协作过程。
2. 持久化上下文
每个 AI 维护自己的记忆,支持随时关闭和恢复会话(通过 -r 标志),无需重新加载完整历史。
3. Token 节省
通过发送轻量级提示而非完整文件历史来恢复上下文,大幅降低 API 调用成本。
4. 原生工作流集成
直接集成到 WezTerm(推荐)或 tmux,无需复杂的服务器部署。
三、系统架构
1. 总体架构
graph TB
subgraph 用户终端环境
A[WezTerm/Tmux] --> B[Claude Code 主面板]
A --> C[Codex 副面板]
A --> D[Gemini 副面板]
end
subgraph ccb 核心层
E[CLI 命令解析] --> F[会话管理器]
F --> G[上下文持久化]
F --> H[任务调度器]
end
subgraph AI API 层
I[Claude API]
J[Codex API]
K[Gemini API]
end
B <-->|实时通信| E
C <-->|实时通信| E
D <-->|实时通信| E
H -->|任务分发| I
H -->|任务分发| J
H -->|任务分发| K
G <-->|上下文恢复| I
G <-->|上下文恢复| J
G <-->|上下文恢复| K2. 组件说明
A. 终端层
- WezTerm/Tmux:提供多窗口分屏能力
- 主面板:Claude Code 主界面
- 副面板:Codex 和 Gemini 独立窗口
B. 核心层
- CLI 命令解析:解析用户命令
- 会话管理器:管理多个 AI 会话
- 上下文持久化:存储和恢复对话历史
- 任务调度器:协调多模型任务分配
C. API 层
- 直接对接各 AI 服务的 API
- 支持异步任务提交
四、安装与部署
1. 前置要求
- Python 3.10+
- WezTerm(强烈推荐)或 tmux
2. 安装步骤
Linux / macOS
git clone https://github.com/bfly123/claude_code_bridge.git
cd claude_code_bridge
./install.sh installWSL 环境
# 在 WSL 终端中运行
git clone https://github.com/bfly123/claude_code_bridge.git
cd claude_code_bridge
./install.sh installWindows 原生环境
git clone https://github.com/bfly123/claude_code_bridge.git
cd claude_code_bridge
powershell -ExecutionPolicy Bypass -File .\install.ps1 install五、使用方法
1. 启动命令
# 启动 Codex
ccb up codex
# 启动 Gemini
ccb up gemini
# 同时启动多个 AI
ccb up codex gemini2. 命令行标志
| 标志 | 描述 | 示例 |
|---|---|---|
-r | 恢复之前的会话上下文 | ccb up codex -r |
-a | 自动模式,跳过权限提示 | ccb up codex -a |
-h | 显示帮助信息 | ccb -h |
-v | 显示版本并检查更新 | ccb -v |
3. 更新命令
ccb update六、协作场景
1. 代码审查
让 Codex 审查代码变更,提供独立的技术视角。
2. 第二意见
让 Gemini 提供替代实现方案,比较不同思路。
3. 结对编程
Codex 编写后端逻辑,Claude 处理前端,分工协作。
4. 架构设计
让 Codex 先设计模块结构,然后分配实现任务。
5. 信息交换
获取多轮对话历史并进行总结归纳。
6. 创意场景:AI 扑克之夜
让 Claude、Codex 和 Gemini 玩斗地主,明牌对战,展示多模型协作的趣味性。
七、命令参考
1. Codex 命令
| 命令 | 描述 |
|---|---|
/cask <msg> | 后台模式:提交任务到 Codex,可继续其他任务(推荐) |
/cask-w <msg> | 前台模式:提交任务并等待响应,更快但阻塞 |
cpend [N] | 获取 Codex 对话历史,N 控制轮数(默认 1) |
cping | 测试 Codex 连通性 |
2. Gemini 命令
| 命令 | 描述 |
|---|---|
/gask <msg> | 后台模式:提交任务到 Gemini |
/gask-w <msg> | 前台模式:提交任务并等待响应 |
gpend [N] | 获取 Gemini 对话历史 |
gping | 测试 Gemini 连通性 |
八、编辑器集成
1. Neovim 集成
与 Neovim 等编辑器结合,实现无缝代码编辑和多模型审查工作流。在编辑器中编辑代码的同时,AI 助手在副面板中实时审查和提出改进建议。
这种集成方式特别适合:
- 代码审查:实时获取多模型反馈
- 重构建议:比较不同模型的优化思路
- 测试生成:一个模型写代码,另一个模型写测试
九、技术特点分析
1. 上下文持久化机制
A. 传统方式的问题
- 每次对话需要发送完整历史
- Token 消耗随对话长度线性增长
- 成本高昂且效率低下
B. ccb 的解决方案
- 每个模型维护独立的上下文存储
- 通过轻量级提示恢复上下文
- 大幅降低 Token 消耗
2. 分屏协作的优势
A. 可视性
- 实时看到所有模型的输出
- 便于比较不同模型的回答
- 直观了解协作状态
B. 并行性
- 多个模型同时工作
- 提高整体效率
- 真正的专家团队模式
C. 控制性
- 用户完全掌控协作过程
- 可随时干预和调整
- 灵活分配任务
3. 终端原生集成
A. 零服务器架构
- 无需额外的后端服务
- 降低部署复杂度
- 减少故障点
B. 工作流集成
- 直接嵌入现有开发环境
- 无缝切换工具
- 保持开发者习惯
十、卸载方法
项目支持完整的卸载功能,具体方法请参考项目文档。
十一、平台支持
1. Linux
完整支持,推荐使用 WezTerm。
2. macOS
完整支持,推荐使用 WezTerm。
3. Windows
- WSL:完整支持
- 原生 Windows:通过 WezTerm 的原生 .exe 支持
十二、技术价值
1. 多模型协作
有效避免单一模型的认知偏差和盲点,提供更全面的解决方案。
2. 成本优化
通过上下文持久化和轻量级提示,显著降低 API 调用成本。
3. 工作流改进
将 AI 协作无缝集成到开发环境,提高生产力。
4. 可扩展性
模块化设计,便于添加新的 AI 模型支持。
十三、应用场景
1. 代码开发
- 多模型代码审查
- 并行开发不同模块
- 交叉验证实现方案
2. 技术研究
- 多角度分析问题
- 比较不同模型的专业能力
- 综合多模型意见
3. 学习辅助
- 获取不同模型的解释
- 比较教学风格
- 加深理解
4. 创意协作
- AI 角色扮演游戏
- 创意头脑风暴
- 娱乐互动