Ollama 发布 Claude Code 兼容性:本地模型运行 AI 编程工具
一、新闻概述
1. 标题
Ollama 发布 Claude Code 兼容性:本地模型运行 AI 编程工具
2. 发布时间
2026 年 1 月 16 日
3. 来源
Ollama 官方博客
二、核心内容
1. 事件摘要
A. 主要内容
Ollama 宣布 v0.14.0 及后续版本与 Anthropic Messages API 兼容,使得 Claude Code 工具可以使用开源模型在本地运行。
B. 核心亮点
- Claude Code 支持 Ollama 本地模型
- 支持 Ollama Cloud 云端模型
- 完全兼容 Anthropic SDK 和工具调用
- 无需修改现有应用代码,仅需更改 base_url
2. 关键信息
A. 版本号
Ollama v0.14.0 及后续版本
B. 涉及产品
- Claude Code:Anthropic 的 AI 编程终端工具
- Ollama:本地大模型运行平台
- Anthropic Messages API:消息接口标准
C. 核心功能
- 消息和多轮对话
- 流式输出
- 系统提示词
- 工具调用/函数调用
- 扩展思考
- 视觉输入
3. 背景介绍
A. 相关上下文
Claude Code 是 Anthropic 推出的 AI 编程助手,原仅支持 Claude 系列模型。Ollama 是流行的本地大模型运行平台,支持多种开源模型。
B. 行业意义
此次兼容性更新打破了 AI 编程工具与闭源模型的绑定,让开发者可以在本地使用开源模型进行 AI 辅助编程。
三、详细报道
1. 主要内容
A. 兼容性实现
Ollama 实现了 Anthropic Messages API 的完全兼容,现有应用只需更改 base_url 即可连接。
B. 使用方式
安装 Claude Code
macOS、Linux、WSL:
curl -fsSL https://claude.ai/install.sh | bashWindows PowerShell:
irm https://claude.ai/install.ps1 | iexWindows CMD:
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd连接 Ollama
配置环境变量:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434运行本地模型:
claude --model gpt-oss:20b运行云端模型:
claude --model glm-4.7:cloudC. 推荐模型
本地模型
- gpt-oss:20b
- qwen3-coder
云端模型
- glm-4.7:cloud
- minimax-m2.1:cloud
建议使用至少 64k 上下文长度的模型。
2. 技术细节
A. 架构设计
graph LR
A[Claude Code] -->|HTTP API| B[Ollama API]
B --> C[本地模型]
B -->|云端连接| D[Ollama Cloud]
D --> E[云端模型]B. SDK 兼容性
Python SDK
import anthropic
client = anthropic.Anthropic(
base_url='http://localhost:11434',
api_key='ollama',
)
message = client.messages.create(
model='qwen3-coder',
messages=[
{'role': 'user', 'content': 'Write a function to check if a number is prime'}
]
)
print(message.content[0].text)JavaScript SDK
import Anthropic from '@anthropic-ai/sdk'
const anthropic = new Anthropic({
baseURL: 'http://localhost:11434',
apiKey: 'ollama',
})
const message = await anthropic.messages.create({
model: 'qwen3-coder',
messages: [{
role: 'user',
content: 'Write a function to check if a number is prime'
}],
})
console.log(message.content[0].text)C. 工具调用支持
import anthropic
client = anthropic.Anthropic(
base_url='http://localhost:11434',
api_key='ollama',
)
message = client.messages.create(
model='qwen3-coder',
tools=[
{
'name': 'get_weather',
'description': 'Get the current weather in a location',
'input_schema': {
'type': 'object',
'properties': {
'location': {
'type': 'string',
'description': 'The city and state, e.g. San Francisco, CA'
}
},
'required': ['location']
}
}
],
messages=[{'role': 'user', 'content': "What's the weather in San Francisco?"}]
)
for block in message.content:
if block.type == 'tool_use':
print(f"Tool: {block.name}")
print(f"Input: {block.input}")D. 支持的功能特性
- 消息和多轮对话
- 流式输出
- 系统提示词
- 工具调用/函数调用
- 扩展思考
- 视觉输入(图像)
四、影响分析
1. 行业影响
A. 技术趋势
- AI 编程工具与本地模型结合成为趋势
- API 兼容性标准推动生态开放
- 开源模型在代码生成领域竞争力提升
B. 竞争格局
- 降低对闭源 AI 服务的依赖
- 为开发者提供更多模型选择
- 促进 AI 编程工具的本地化部署
2. 用户影响
A. 现有用户
- 可在本地使用 Claude Code
- 数据隐私得到更好保护
- 降低 API 调用成本
B. 潜在用户
- 降低 AI 编程工具使用门槛
- 吸引注重隐私的开发者
C. 迁移成本
- 现有 Anthropic SDK 应用零成本迁移
- 仅需更改配置,无需修改代码
3. 技术趋势
A. 技术方向
- API 兼容性成为竞争焦点
- 本地部署需求持续增长
- 开源模型能力快速追赶
B. 生态影响
- 推动 AI 工具的模块化发展
- 促进模型与工具的解耦
- 加速开源模型生态繁荣
五、各方反应
1. 官方说明
Ollama 强调此次更新让开发者可以在本地机器上运行 Claude Code,或通过 ollama.com 连接云端模型。
2. 社区反馈
开发者社区对此举表示欢迎,认为这为 AI 辅助编程提供了更多灵活性和隐私保护选择。