如何在本地运行 Claude Code(100% 免费且完全私密)

一、概述

1. 简介

A. 是什么

本教程介绍如何在本地机器上完全运行 Claude Code,使用本地开源模型作为 AI 引擎。这种设置让 AI 能够读取文件、编辑代码和运行命令,无需将任何数据发送到云端。

B. 为什么学

  • 完全离线运行,无需 API 调用
  • 零成本,无订阅费用
  • 数据隐私得到完全保护
  • 无追踪,无监控

C. 学完能做什么

  • 在本地部署 Claude Code 环境
  • 使用开源模型实现 AI 编程助手功能
  • 让 AI 能够编辑文件和执行终端命令

2. 前置知识

A. 必备技能

  • 基本的命令行操作能力
  • 了解如何安装软件包

B. 推荐知识

  • 对大语言模型有基本了解
  • 了解 Claude Code 的基本概念

二、环境准备

1. 系统要求

  • macOS 或 Linux 系统
  • Windows 系统
  • 内存要求取决于选择的模型大小

2. 核心组件

  • Ollama:本地 AI 模型运行引擎
  • Claude Code:AI 编程助手
  • 开源代码模型:如 Qwen2.5-Coder 或 Gemma

三、核心概念

1. 基本术语

  • Ollama:本地大模型运行平台,支持函数调用
  • Claude Code:Anthropic 官方的 AI 编程助手
  • 本地模式:Claude Code 连接到本地模型而非云端 API

2. 工作原理

graph LR
    A[用户输入] --> B[Claude Code]
    B --> C{模型选择}
    C -->|云端模式| D[Anthropic API]
    C -->|本地模式| E[Ollama]
    E --> F[本地开源模型]
    F --> G[文件读写]
    F --> H[命令执行]
    G --> B
    H --> B
    D --> I[需要联网]
    E --> J[完全离线]

Claude Code 工作模式对比

四、快速上手

1. 步骤一:选择本地"大脑"(Ollama)

在运行 Claude Code 之前,需要先安装一个能够托管 AI 模型并支持工具调用或函数调用的本地引擎。Ollama 可以完成这个任务。

首先下载并安装 Ollama。安装完成后,它在 Mac 和 Windows 上都会在后台静默运行。

2. 步骤二:下载代码模型

接下来需要下载一个专注于代码的模型。有很多开源模型可以选择,具体取决于机器的性能。

推荐配置:

高性能系统:

# 拉取更大的模型
ollama run qwen2.5-coder:30b

低内存机器:

# 使用较小的模型
ollama run gemma:2b
# 或
ollama run qwen2.5-coder:7b

首次运行命令时,模型会下载到本地机器,因此输出可能会与后续运行有所不同。

3. 步骤三:安装 Claude Code

现在安装 Claude Code 代理本身,这将把模型转变为活跃的编程助手。

在终端中运行对应系统的安装命令:

Mac 或 Linux:

curl -fsSL https://claude.ai/install.sh | bash

Windows:

irm https://claude.ai/install.ps1 | iex

安装完成后,通过以下命令验证是否成功:

claude --version

注意:如果之前登录过 Anthropic 账户,可能需要先登出,以便 Claude 切换到本地模式。

4. 步骤四:将 Claude 指向本地机器

这是最关键的一步。默认情况下,Claude 会尝试连接到 Anthropic 的服务器。这里需要明确将其重定向到本地 Ollama 实例。

首先,通过设置基础 URL 告诉 Claude Ollama 的运行位置:

export ANTHROPIC_BASE_URL="http://localhost:11434"

接下来,Claude 仍然期望有 API 密钥,因此提供一个虚拟值:

export ANTHROPIC_AUTH_TOKEN="ollama"

还可以选择退出遥测和调查:

export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

五、实战演示

1. 启动 Claude

导航到任何项目文件夹,使用选定的模型启动 Claude。例如:

claude --model qwen2.5-coder:7b

应该会看到本地模型出现。

2. 测试功能

启动后,尝试一个提示词。例如:

Add a hello world website

将会看到 Claude 读取文件、修改代码并实时执行终端命令,完全在本地机器上运行。

无 API 调用,无云端处理,零成本。只是一个完全本地化的 AI 编程代理,直接在项目内部工作。

sequenceDiagram
    participant U as 用户
    participant C as Claude Code
    participant O as Ollama
    participant M as 本地模型
    participant F as 文件系统
    participant T as 终端

    U->>C: 输入提示词
    C->>O: 发送请求
    O->>M: 模型推理
    M->>O: 返回响应
    O->>C: 返回结果
    C->>F: 读取文件
    F-->>C: 文件内容
    C->>F: 写入修改
    C->>T: 执行命令
    T-->>C: 命令输出
    C-->>U: 显示结果

Claude Code 本地执行流程

六、适用场景

1. 目标用户

  • 希望拥有私密、离线 AI 编程代理的开发者
  • 想要 Claude Code 功能的高级用户
  • 尝试本地大模型的开源爱好者
  • 任何希望 AI 能够真正编辑文件和运行终端命令的人

2. 优势分析

  • 完全免费:无 API 调用成本
  • 隐私保护:数据不离开本地机器
  • 离线工作:无需互联网连接
  • 无监控:无遥测数据收集

七、常见问题

1. 模型选择

高性能机器建议使用更大的模型以获得更好的性能,低内存机器应选择较小的模型。

2. 兼容性

如果之前使用过云端版本的 Claude Code,需要确保正确设置环境变量以切换到本地模式。

3. 性能考虑

本地模型的性能取决于硬件配置,特别是内存和 CPU/GPU 资源。


参考资料

  1. How to Run Claude Code Locally (100% Free & Fully Private) - Twitter/X
  2. Ollama 官方网站
  3. Claude Code 安装脚本
最后修改:2026 年 01 月 23 日
如果觉得我的文章对你有用,请随意赞赏