Ollama 兼容 Anthropic API,支持 Claude Code 使用开源模型

一、新闻概述

1. 标题

Ollama v0.14.0 发布:兼容 Anthropic Messages API,Claude Code 可使用开源模型

2. 发布时间

2026 年 1 月 16 日

3. 来源

Ollama 官方博客

二、核心内容

1. 事件摘要

A. 主要内容

Ollama 宣布从 v0.14.0 版本开始兼容 Anthropic Messages API,使得开发者可以使用 Claude Code 等 Anthropic 官方工具来运行本地开源模型或 Ollama 云服务模型。

B. 核心亮点

  • 兼容 Anthropic Messages API 标准
  • Claude Code 可直接使用 Ollama 模型
  • 支持本地和云端两种部署方式
  • 完全兼容现有 Anthropic SDK

2. 关键信息

A. 版本号

Ollama v0.14.0 及以上版本

B. 重要数据

  • 支持功能:消息对话、流式输出、系统提示、工具调用、扩展思考、视觉输入
  • 推荐上下文长度:至少 32K tokens

C. 涉及产品

  • Claude Code:Anthropic 的终端 AI 编程助手
  • Ollama:本地和云端大模型运行平台
  • Anthropic SDK:Python 和 JavaScript SDK

3. 背景介绍

A. 前置版本

Ollama 之前主要用于运行开源大模型,通过自己的 API 接口提供服务。

B. 相关上下文

Anthropic 提供 Messages API 作为与 Claude 模型交互的标准接口,Claude Code 是基于此 API 构建的终端编程工具。

三、详细报道

1. 主要内容

A. 功能更新

  • API 兼容性:完全兼容 Anthropic Messages API
  • Claude Code 集成:通过环境变量配置即可使用
  • 双模式支持:本地模型和云端模型均可使用
  • SDK 兼容:现有使用 Anthropic SDK 的应用无需修改代码逻辑

B. 技术改进

  • 工具调用支持:模型可调用外部工具和系统
  • 视觉能力:支持图像输入处理
  • 扩展思考:支持模型的思考过程输出
  • 流式输出:实时返回生成内容

C. 兼容性说明

  • API 兼容层完全兼容 Anthropic Messages API 规范
  • 现有 Anthropic SDK 应用只需更改 base_url

2. 技术细节

A. 架构变化

graph LR
    subgraph Claude_Code
        CC[Claude Code]
    end
    subgraph Anthropic_SDK
        PY[Python SDK]
        JS[JavaScript SDK]
    end
    CC -->|API Calls| Ollama[Ollama API]
    PY -->|base_url| Ollama
    JS -->|baseURL| Ollama
    Ollama --> Local[本地模型]
    Ollama --> Cloud[云端模型]

mermaid

B. 配置方式

Claude Code 配置:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

SDK 配置(Python):

client = anthropic.Anthropic(
    base_url='http://localhost:11434',
    api_key='ollama'
)

C. 支持的功能特性

  • 消息和多轮对话
  • 流式输出
  • 系统提示
  • 工具调用/函数调用
  • 扩展思考
  • 视觉输入

3. 数据与事实

A. 推荐模型

本地模型:

  • gpt-oss:20b
  • qwen3-coder

云端模型:

  • glm-4.7:cloud
  • minimax-m2.1:cloud

B. 技术要求

  • 上下文长度:建议至少 32K tokens
  • 云端模型自动运行完整上下文长度

四、影响分析

1. 行业影响

A. 技术趋势

  • API 标准化:通过兼容主流 API 降低迁移成本
  • 本地 AI:推动本地大模型与云端服务的统一体验
  • 开源生态:使开源模型更易接入成熟工具链

B. 竞争格局

  • 对比 OpenAI:提供类似 OpenAI API 的兼容性策略
  • 对比 LM Studio:通过标准 API 兼容获得更广泛工具支持

2. 用户影响

A. 现有用户

  • Claude Code 用户:可直接使用本地开源模型,降低 API 调用成本
  • Ollama 用户:获得更多工具选择,可使用 Claude Code 等 Anthropic 生态工具

B. 潜在用户

  • 关注隐私的开发者:可在本地使用 Claude Code 处理敏感代码
  • 成本敏感用户:使用本地模型替代付费 API

C. 迁移成本

  • 配置简单:仅需设置环境变量
  • 代码兼容:Anthropic SDK 应用只需更改 base_url

3. 技术趋势

A. 技术方向

  • API 兼容层成为模型服务平台的标配
  • 本地和云端模型的统一调用体验
  • 开源模型与商业工具的深度集成

B. 生态影响

  • 降低开源模型使用门槛
  • 促进 AI 工具的互操作性
  • 推动本地 AI 部署的普及

五、各方反应

1. 官方回应

Ollama 官方强调这一更新使得用户可以在本地机器上运行 Claude Code,或通过 ollama.com 连接云端模型。

2. 业内评价

A. 技术意义

  • API 标准化有助于降低厂商锁定
  • 本地 AI 与云端服务的融合趋势明显

B. 社区反馈

  • 开发者欢迎这一兼容性更新
  • 关注本地模型的性能表现

六、相关链接

1. 官方公告

  • Ollama 博客:Claude Code with Anthropic API compatibility
  • Anthropic Messages API 文档

2. 技术文档

  • Claude Code 指南
  • Anthropic API 兼容性文档
  • 上下文长度配置说明

3. 相关资源

  • Ollama 下载页面
  • Anthropic SDK(Python/JavaScript)

参考资料

  1. Claude Code with Anthropic API compatibility
  2. Anthropic Messages API Documentation
  3. Claude Code Documentation
最后修改:2026 年 01 月 23 日
如果觉得我的文章对你有用,请随意赞赏