OpenAI 与 Cerebras 签署 100 亿美元算力合作协议技术分析
一、事件概述
2026 年 1 月,OpenAI 宣布与 AI 芯片制造商 Cerebras 达成多年合作协议。根据协议条款,Cerebras 将从 2026 年开始至 2028 年,向 OpenAI 提供 750 兆瓦的算力资源。据知情人士透露,该交易价值超过 100 亿美元。
核心数据
| 指标 | 数值 |
|---|---|
| 合作期限 | 2026-2028 年(3 年) |
| 算力规模 | 750 兆瓦 |
| 交易金额 | 100 亿美元 |
| 主要目的 | 低延迟推理加速 |
二、合作动机分析
2.1 OpenAI 的算力战略
OpenAI 在博客中明确表示,其计算战略是"构建一个有韧性的组合,将合适的系统与合适的工作负载相匹配"。此次合作的核心诉求包括:
- 低延迟推理:为需要更长处理时间的复杂查询提供更快的响应
- 实时交互体验:提升用户与 AI 模型交互的自然度和流畅度
- 规模化能力:为更多用户提供实时 AI 服务
2.2 Cerebras 的战略机遇
- Cerebras 成立于 2016 年,在 ChatGPT 引发的 AI 爆发后声名鹊起
- 公司曾计划 IPO,但多次推迟;据报道正寻求以 20 亿美元估值再融资 10 亿美元
- OpenAI CEO Sam Altman 已是 Cerebras 的投资者,OpenAI 曾考虑收购该公司
三、Cerebras 技术架构分析
3.1 WSE-3 晶圆级引擎
Cerebras 的核心技术是其 Wafer-Scale Engine(WSE),最新版本 WSE-3 的关键规格:
| 技术指标 | 数值 |
|---|---|
| 芯片面积 | 46,255 mm²(史上最大的 AI 芯片) |
| 晶体管数量 | 4 万亿 |
| AI 算力 | 125 PFLOPS |
| 计算核心 | 90 万个 AI 优化核心 |
| 片上 SRAM | 44 GB |
3.2 推理性能优势
Cerebras 声称其系统在推理任务上显著优于基于 GPU 的方案:
- Llama 3.2 70B:达到 2,100 tokens/秒,创行业新纪录
- 比前代行业记录提升 3 倍
- 即使是最大的模型也能在单芯片上运行
3.3 架构优势分析
graph TD
subgraph 传统GPU架构
G1[GPU 1] -->|PCIe| M1[显存]
G2[GPU 2] -->|PCIe| M2[显存]
G3[GPU 3] -->|PCIe| M3[显存]
G1 -->|NVLink| G2
G2 -->|NVLink| G3
end
subgraph Cerebras WSE架构
WSE[晶圆级引擎]
WSE -->|片上互联| SRAM[44GB SRAM<br/>900K核心]
SRAM --> WSE
end
Request[推理请求] --> GPU架构
Request --> WSE架构
GPU架构 -->|多层通信延迟| GPU_Out[输出]
WSE架构 -->|极低延迟| WSE_Out[输出]关键技术差异
- 晶圆级集成:传统芯片将晶圆切割成小芯片,Cerebras 直接使用整片晶圆作为单一处理单元
- 海量片上 SRAM:消除传统 GPU 架构的内存带宽瓶颈
- 数据并行优化:专为大规模数据并行设计的集群架构
四、行业影响分析
4.1 算力供应格局
| 公司 | 市场地位 | 算力来源 |
|---|---|---|
| OpenAI | AI 模型领导者 | Nvidia + Cerebras + 自研芯片 |
| Google DeepMind | 竞争对手 | TPU |
| Anthropic | 竞争对手 | AWS + 自研 |
| Meta | 开源生态 | 自研 + Nvidia |
4.2 对 Nvidia 的影响
- OpenAI 此举是多元化算力供应战略的一部分
- Cerebras 在推理领域挑战 Nvidia 的主导地位
- 2026 年 OpenAI 还将推出与 Broadcom 合作的自研 AI 芯片
4.3 行业趋势
graph LR
A[AI 算力需求爆发] --> B[多元化供应策略]
B --> C1[专用推理芯片]
B --> C2[自研芯片]
B --> C3[传统 GPU]
B --> C4[晶圆级计算]
C1 --> D[降低延迟]
C2 --> D
C3 --> E[通用计算]
C4 --> D五、技术挑战与风险
5.1 技术挑战
- 软件生态:Cerebras 需要构建与 CUDA 竞争的软件栈
- 兼容性:确保 OpenAI 现有模型能平滑迁移
- 可靠性:晶圆级芯片的良率和容错能力
5.2 商业风险
- 供应商锁定:过度依赖单一新型供应商
- 技术路线风险:晶圆级计算尚未经过大规模验证
- 竞争压力:其他厂商可能推出更具竞争力的方案
六、展望
6.1 短期影响(2026-2028)
- OpenAI 推理延迟显著降低
- 实时 AI 应用场景扩展
- Cerebras 获得稳定大客户,助力 IPO
6.2 长期意义
- 验证晶圆级计算路线:如果成功,将开启新的芯片设计范式
- 加速 AI 推理专业化:推理与训练计算进一步分离
- 推动算力市场多元化:打破 Nvidia 在 AI 芯片的垄断
七、总结
OpenAI 与 Cerebras 的 100 亿美元合作标志着 AI 基础设施进入新阶段:
- 推理专用化:低延迟推理成为独立于训练的专门需求
- 架构创新:晶圆级计算挑战传统芯片范式
- 生态多元化:AI 公司通过多供应商策略降低风险
正如 Cerebras CEO Andrew Feldman 所言:"宽带改变了互联网,实时推理将改变 AI"。这场豪赌能否成功,将在未来三年内见分晓。