Ollama 发布 Claude Code 兼容性:本地模型运行 AI 编程工具

一、新闻概述

1. 标题

Ollama 发布 Claude Code 兼容性:本地模型运行 AI 编程工具

2. 发布时间

2026 年 1 月 16 日

3. 来源

Ollama 官方博客

二、核心内容

1. 事件摘要

A. 主要内容

Ollama 宣布 v0.14.0 及后续版本与 Anthropic Messages API 兼容,使得 Claude Code 工具可以使用开源模型在本地运行。

B. 核心亮点

  • Claude Code 支持 Ollama 本地模型
  • 支持 Ollama Cloud 云端模型
  • 完全兼容 Anthropic SDK 和工具调用
  • 无需修改现有应用代码,仅需更改 base_url

2. 关键信息

A. 版本号

Ollama v0.14.0 及后续版本

B. 涉及产品

  • Claude Code:Anthropic 的 AI 编程终端工具
  • Ollama:本地大模型运行平台
  • Anthropic Messages API:消息接口标准

C. 核心功能

  • 消息和多轮对话
  • 流式输出
  • 系统提示词
  • 工具调用/函数调用
  • 扩展思考
  • 视觉输入

3. 背景介绍

A. 相关上下文

Claude Code 是 Anthropic 推出的 AI 编程助手,原仅支持 Claude 系列模型。Ollama 是流行的本地大模型运行平台,支持多种开源模型。

B. 行业意义

此次兼容性更新打破了 AI 编程工具与闭源模型的绑定,让开发者可以在本地使用开源模型进行 AI 辅助编程。

三、详细报道

1. 主要内容

A. 兼容性实现

Ollama 实现了 Anthropic Messages API 的完全兼容,现有应用只需更改 base_url 即可连接。

B. 使用方式

安装 Claude Code

macOS、Linux、WSL:

curl -fsSL https://claude.ai/install.sh | bash

Windows PowerShell:

irm https://claude.ai/install.ps1 | iex

Windows CMD:

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

连接 Ollama

配置环境变量:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

运行本地模型:

claude --model gpt-oss:20b

运行云端模型:

claude --model glm-4.7:cloud

C. 推荐模型

本地模型

  • gpt-oss:20b
  • qwen3-coder

云端模型

  • glm-4.7:cloud
  • minimax-m2.1:cloud

建议使用至少 64k 上下文长度的模型。

2. 技术细节

A. 架构设计

graph LR
    A[Claude Code] -->|HTTP API| B[Ollama API]
    B --> C[本地模型]
    B -->|云端连接| D[Ollama Cloud]
    D --> E[云端模型]

Ollama Claude Code 架构图

B. SDK 兼容性

Python SDK

import anthropic

client = anthropic.Anthropic(
    base_url='http://localhost:11434',
    api_key='ollama',
)

message = client.messages.create(
    model='qwen3-coder',
    messages=[
        {'role': 'user', 'content': 'Write a function to check if a number is prime'}
    ]
)

print(message.content[0].text)

JavaScript SDK

import Anthropic from '@anthropic-ai/sdk'

const anthropic = new Anthropic({
  baseURL: 'http://localhost:11434',
  apiKey: 'ollama',
})

const message = await anthropic.messages.create({
  model: 'qwen3-coder',
  messages: [{
    role: 'user',
    content: 'Write a function to check if a number is prime'
  }],
})

console.log(message.content[0].text)

C. 工具调用支持

import anthropic

client = anthropic.Anthropic(
    base_url='http://localhost:11434',
    api_key='ollama',
)

message = client.messages.create(
    model='qwen3-coder',
    tools=[
        {
            'name': 'get_weather',
            'description': 'Get the current weather in a location',
            'input_schema': {
                'type': 'object',
                'properties': {
                    'location': {
                        'type': 'string',
                        'description': 'The city and state, e.g. San Francisco, CA'
                    }
                },
                'required': ['location']
            }
        }
    ],
    messages=[{'role': 'user', 'content': "What's the weather in San Francisco?"}]
)

for block in message.content:
    if block.type == 'tool_use':
        print(f"Tool: {block.name}")
        print(f"Input: {block.input}")

D. 支持的功能特性

  • 消息和多轮对话
  • 流式输出
  • 系统提示词
  • 工具调用/函数调用
  • 扩展思考
  • 视觉输入(图像)

四、影响分析

1. 行业影响

A. 技术趋势

  • AI 编程工具与本地模型结合成为趋势
  • API 兼容性标准推动生态开放
  • 开源模型在代码生成领域竞争力提升

B. 竞争格局

  • 降低对闭源 AI 服务的依赖
  • 为开发者提供更多模型选择
  • 促进 AI 编程工具的本地化部署

2. 用户影响

A. 现有用户

  • 可在本地使用 Claude Code
  • 数据隐私得到更好保护
  • 降低 API 调用成本

B. 潜在用户

  • 降低 AI 编程工具使用门槛
  • 吸引注重隐私的开发者

C. 迁移成本

  • 现有 Anthropic SDK 应用零成本迁移
  • 仅需更改配置,无需修改代码

3. 技术趋势

A. 技术方向

  • API 兼容性成为竞争焦点
  • 本地部署需求持续增长
  • 开源模型能力快速追赶

B. 生态影响

  • 推动 AI 工具的模块化发展
  • 促进模型与工具的解耦
  • 加速开源模型生态繁荣

五、各方反应

1. 官方说明

Ollama 强调此次更新让开发者可以在本地机器上运行 Claude Code,或通过 ollama.com 连接云端模型。

2. 社区反馈

开发者社区对此举表示欢迎,认为这为 AI 辅助编程提供了更多灵活性和隐私保护选择。

六、相关链接

1. 官方文档


参考资料

  1. Claude Code with Anthropic API compatibility · Ollama Blog
最后修改:2026 年 01 月 17 日
如果觉得我的文章对你有用,请随意赞赏