Ollama 兼容 Anthropic API,支持 Claude Code 使用开源模型
一、新闻概述
1. 标题
Ollama v0.14.0 发布:兼容 Anthropic Messages API,Claude Code 可使用开源模型
2. 发布时间
2026 年 1 月 16 日
3. 来源
Ollama 官方博客
二、核心内容
1. 事件摘要
A. 主要内容
Ollama 宣布从 v0.14.0 版本开始兼容 Anthropic Messages API,使得开发者可以使用 Claude Code 等 Anthropic 官方工具来运行本地开源模型或 Ollama 云服务模型。
B. 核心亮点
- 兼容 Anthropic Messages API 标准
- Claude Code 可直接使用 Ollama 模型
- 支持本地和云端两种部署方式
- 完全兼容现有 Anthropic SDK
2. 关键信息
A. 版本号
Ollama v0.14.0 及以上版本
B. 重要数据
- 支持功能:消息对话、流式输出、系统提示、工具调用、扩展思考、视觉输入
- 推荐上下文长度:至少 32K tokens
C. 涉及产品
- Claude Code:Anthropic 的终端 AI 编程助手
- Ollama:本地和云端大模型运行平台
- Anthropic SDK:Python 和 JavaScript SDK
3. 背景介绍
A. 前置版本
Ollama 之前主要用于运行开源大模型,通过自己的 API 接口提供服务。
B. 相关上下文
Anthropic 提供 Messages API 作为与 Claude 模型交互的标准接口,Claude Code 是基于此 API 构建的终端编程工具。
三、详细报道
1. 主要内容
A. 功能更新
- API 兼容性:完全兼容 Anthropic Messages API
- Claude Code 集成:通过环境变量配置即可使用
- 双模式支持:本地模型和云端模型均可使用
- SDK 兼容:现有使用 Anthropic SDK 的应用无需修改代码逻辑
B. 技术改进
- 工具调用支持:模型可调用外部工具和系统
- 视觉能力:支持图像输入处理
- 扩展思考:支持模型的思考过程输出
- 流式输出:实时返回生成内容
C. 兼容性说明
- API 兼容层完全兼容 Anthropic Messages API 规范
- 现有 Anthropic SDK 应用只需更改 base_url
2. 技术细节
A. 架构变化
graph LR
subgraph Claude_Code
CC[Claude Code]
end
subgraph Anthropic_SDK
PY[Python SDK]
JS[JavaScript SDK]
end
CC -->|API Calls| Ollama[Ollama API]
PY -->|base_url| Ollama
JS -->|baseURL| Ollama
Ollama --> Local[本地模型]
Ollama --> Cloud[云端模型]B. 配置方式
Claude Code 配置:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434SDK 配置(Python):
client = anthropic.Anthropic(
base_url='http://localhost:11434',
api_key='ollama'
)C. 支持的功能特性
- 消息和多轮对话
- 流式输出
- 系统提示
- 工具调用/函数调用
- 扩展思考
- 视觉输入
3. 数据与事实
A. 推荐模型
本地模型:
- gpt-oss:20b
- qwen3-coder
云端模型:
- glm-4.7:cloud
- minimax-m2.1:cloud
B. 技术要求
- 上下文长度:建议至少 32K tokens
- 云端模型自动运行完整上下文长度
四、影响分析
1. 行业影响
A. 技术趋势
- API 标准化:通过兼容主流 API 降低迁移成本
- 本地 AI:推动本地大模型与云端服务的统一体验
- 开源生态:使开源模型更易接入成熟工具链
B. 竞争格局
- 对比 OpenAI:提供类似 OpenAI API 的兼容性策略
- 对比 LM Studio:通过标准 API 兼容获得更广泛工具支持
2. 用户影响
A. 现有用户
- Claude Code 用户:可直接使用本地开源模型,降低 API 调用成本
- Ollama 用户:获得更多工具选择,可使用 Claude Code 等 Anthropic 生态工具
B. 潜在用户
- 关注隐私的开发者:可在本地使用 Claude Code 处理敏感代码
- 成本敏感用户:使用本地模型替代付费 API
C. 迁移成本
- 配置简单:仅需设置环境变量
- 代码兼容:Anthropic SDK 应用只需更改 base_url
3. 技术趋势
A. 技术方向
- API 兼容层成为模型服务平台的标配
- 本地和云端模型的统一调用体验
- 开源模型与商业工具的深度集成
B. 生态影响
- 降低开源模型使用门槛
- 促进 AI 工具的互操作性
- 推动本地 AI 部署的普及
五、各方反应
1. 官方回应
Ollama 官方强调这一更新使得用户可以在本地机器上运行 Claude Code,或通过 ollama.com 连接云端模型。
2. 业内评价
A. 技术意义
- API 标准化有助于降低厂商锁定
- 本地 AI 与云端服务的融合趋势明显
B. 社区反馈
- 开发者欢迎这一兼容性更新
- 关注本地模型的性能表现
六、相关链接
1. 官方公告
- Ollama 博客:Claude Code with Anthropic API compatibility
- Anthropic Messages API 文档
2. 技术文档
- Claude Code 指南
- Anthropic API 兼容性文档
- 上下文长度配置说明
3. 相关资源
- Ollama 下载页面
- Anthropic SDK(Python/JavaScript)