VPN07

DeepSeek-R1本地安装完整教程:Windows/Mac/Linux/手机全平台

2026-03-06 阅读约20分钟 AI安装教程 DeepSeek-R1 本地大模型
开源大语言模型下载中心
DeepSeek-R1 / Qwen / Llama 4 / Gemma 一站下载
立即下载模型 →

本文导读:DeepSeek-R1 是深度求索(DeepSeek)发布的顶尖开源推理大模型,参数规模从 7B 到 671B,采用 MIT 协议完全开源可商用。本教程覆盖 Windows、macOS、Linux、Android、iPhone 全平台独立安装步骤,并提供量化版本选择建议,帮助你在任何设备上快速运行全球最强开源推理模型。

DeepSeek-R1:全球最强开源推理模型

DeepSeek-R1 于2025年1月正式发布,凭借超越 OpenAI o1 的数学推理和代码生成能力迅速席卷全球 AI 圈。作为完全开源、MIT 协议的大模型,任何人都可以免费下载、修改和商业使用,这使它成为 2026 年最受关注的本地大模型首选。

🧮

顶尖推理能力

在 AIME 数学竞赛和 Codeforces 代码挑战中超越 GPT-4o,MoE 架构让推理质量媲美千亿闭源模型。

🆓

MIT 协议免费

完全开源可商用,无需付费订阅,本地运行无网络限制,数据100%不离开你的设备。

多规格可选

从 7B(6GB显存)到 671B 旗舰版,覆盖手机到服务器全场景,每种设备都有合适的量化版本。

7B~671B
参数规模
6GB+
最低显存(7B量化)
MIT
开源协议
中英双语
语言支持

安装前:选择合适的 DeepSeek-R1 版本

DeepSeek-R1 有多个参数规模版本,安装前需要根据你的硬件配置选择合适的版本。选错版本会导致运行极慢甚至无法启动。

版本 显存要求 RAM(内存) 适合场景 Ollama 命令
R1 7B Q4 6 GB 8 GB 手机 / 入门PC deepseek-r1:7b
R1 14B Q4 10 GB 16 GB 主流游戏本 deepseek-r1:14b
R1 32B Q4 20 GB 32 GB RTX 3090 / 4090 deepseek-r1:32b
R1 671B Q4 400 GB+ 512 GB 多卡服务器 deepseek-r1:671b

💡 新手推荐:DeepSeek-R1 14B 量化版

如果不确定选哪个版本,推荐 14B Q4 量化版。它在 RTX 4060 / RTX 3070 等主流显卡上运行流畅(约 30 token/秒),推理质量接近 GPT-4o,是性能与资源消耗的最佳平衡点。

Windows 安装 DeepSeek-R1 教程

Windows 用户推荐使用 Ollama 安装,支持 NVIDIA 和 AMD 显卡加速,也可以在纯 CPU 模式下运行小参数量版本。整个安装过程约 5 分钟,下载模型需要 10-30 分钟(取决于网速和模型大小)。

方式一:Ollama 安装(推荐)

① 下载并安装 Ollama for Windows

访问 ollama.com,点击"Download for Windows",下载安装包(约 100MB)并双击安装,全程点击下一步即可。

② 打开 PowerShell 或命令提示符,运行以下命令

# 下载 DeepSeek-R1 14B(约 9GB,主流配置推荐)
ollama pull deepseek-r1:14b

# 或下载 7B 版本(约 5GB,适合低配置)
ollama pull deepseek-r1:7b

# 启动对话
ollama run deepseek-r1:14b

# 验证安装成功
ollama list

方式二:LM Studio 图形界面(无命令行)

不习惯命令行的用户可以使用 LM Studio 图形界面。访问 lmstudio.ai 下载安装(免费)。打开后在搜索框输入"DeepSeek-R1",选择适合你显存的量化版本,点击"Download",下载完成后点击"Load"加载模型即可开始对话,界面与 ChatGPT 完全相似。

# Windows 下通过 PowerShell 查看显卡信息
nvidia-smi

# 输出示例(确认显存大小后再选择版本):
# | NVIDIA GeForce RTX 4060 | 8192MiB total |

# 8GB 显存 → 选 deepseek-r1:7b
# 12GB 显存 → 选 deepseek-r1:14b Q4
# 24GB 显存 → 选 deepseek-r1:32b Q4

macOS 安装 DeepSeek-R1 教程

macOS 用户,尤其是搭载 Apple Silicon(M1/M2/M3/M4)芯片的 Mac 用户,在运行本地大模型方面拥有天然优势。Apple Silicon 的统一内存架构让 GPU 与 CPU 共享内存,16GB 内存的 MacBook Air M2 可以流畅运行 DeepSeek-R1 14B,效果令人惊叹。

# 方法一:Homebrew 安装(推荐)
# 如果没有 Homebrew,先安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# 安装 Ollama
brew install ollama

# 设置开机自启
brew services start ollama

# 下载 DeepSeek-R1(根据内存选择版本)
# 16GB 内存 Mac → 14B 版本
ollama pull deepseek-r1:14b

# 32GB 内存 Mac → 32B 版本(推理质量更强)
ollama pull deepseek-r1:32b

# 启动对话
ollama run deepseek-r1:14b
# 方法二:直接从 ollama.com 下载 macOS 安装包
# 访问 ollama.com,下载 Ollama.dmg,安装后菜单栏出现羊驼图标

# 查看运行状态
ollama ps

# 测试 DeepSeek-R1 中文推理能力
ollama run deepseek-r1:14b "请解一道数学题:求 x^2 - 5x + 6 = 0 的根"
M1/M2/M3
芯片
16GB
推荐内存(14B版本)
40+ tok/s
M3 Pro 实测速度
无风扇噪音
M系列芯片优势

Linux 安装 DeepSeek-R1 教程

Linux 是部署 DeepSeek-R1 的最佳服务器环境,支持 NVIDIA CUDA GPU 加速,可以将模型作为 API 服务供团队或应用调用。以下步骤在 Ubuntu 22.04 LTS 和 Debian 12 环境下经过测试。

# 一行命令安装 Ollama(所有主流 Linux 发行版通用)
curl -fsSL https://ollama.com/install.sh | sh

# 配置开机自启(systemd)
sudo systemctl enable ollama
sudo systemctl start ollama

# 下载 DeepSeek-R1
ollama pull deepseek-r1:14b

# 检查 NVIDIA GPU 是否正确识别
nvidia-smi
ollama ps # 应显示 GPU 利用率

将 DeepSeek-R1 部署为 API 服务

Linux 服务器上最大的优势是可以将 DeepSeek-R1 暴露为兼容 OpenAI 格式的 API 接口,供其他程序或设备远程调用:

# 绑定到所有网卡(允许局域网/外网访问)
export OLLAMA_HOST=0.0.0.0:11434
ollama serve

# 或修改 systemd 配置文件永久生效:
sudo nano /etc/systemd/system/ollama.service
# 在 [Service] 下添加:
# Environment="OLLAMA_HOST=0.0.0.0:11434"

sudo systemctl daemon-reload
sudo systemctl restart ollama

# 测试 API 接口
curl http://localhost:11434/api/generate \
  -d '{"model":"deepseek-r1:14b","prompt":"你好"}'

配合 Open WebUI 搭建团队知识库

# Docker 一键部署 Open WebUI(图形化管理界面)
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

# 访问 http://服务器IP:3000 即可使用图形界面

Android 手机运行 DeepSeek-R1 教程

Android 旗舰手机(骁龙 8 Gen 2 / 天玑 9300 以上,至少 12GB RAM)可以直接运行 DeepSeek-R1 7B 的量化版本(约 4.5GB),对话流畅,适合日常使用。

方案一:ChatterUI 本机运行(旗舰手机)

从 GitHub 下载 ChatterUI APK(搜索"ChatterUI GitHub"),安装后在 HuggingFace 下载 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B-GGUF 中的 Q4_K_M 版本(约 4.5GB)。将文件复制到手机存储,在 ChatterUI 中导入模型,即可本地离线运行,对话隐私完全保护。

# HuggingFace 上的模型路径:
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B-GGUF
# 下载文件:DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf(约4.5GB)

方案二:远程连接电脑(推荐所有 Android 用户)

在电脑上运行 DeepSeek-R1,手机通过局域网或 VPN07 远程访问,体验完整的大参数版本能力。安装 Enchanted 或 Mango LLM 应用,在服务器地址填入电脑 IP(如 192.168.1.100:11434),即可在手机上享受 32B 或更大版本的强大推理能力。

方案三:Termux + Ollama(技术用户)

技术爱好者可以通过 Termux 在 Android 上直接安装 Ollama,无需额外 App。适合折腾党,要求手机 Root 或开启开发者选项。

# Termux 中安装(仅支持 ARM64 设备)
pkg update && pkg install ollama
ollama pull deepseek-r1:7b

iPhone / iPad 运行 DeepSeek-R1 教程

iPhone 15 Pro 及以上机型(A17 Pro 芯片,8GB RAM)可以在本机直接运行 DeepSeek-R1 7B 量化版,iPad Pro M4 则可以运行更大的 14B 版本。以下是三种方案供你选择。

🥇 推荐:PocketPal AI(本机运行,App Store 直接下载)

App Store 搜索"PocketPal AI"下载(免费)。进入 App 后点击"Model Library",搜索"DeepSeek-R1",选择适合你机型的量化版本:

  • • iPhone 15 Pro / iPhone 16 → 选 DeepSeek-R1-7B Q4_K_M(约 4.5GB)
  • • iPad Pro M4 (16GB) → 选 DeepSeek-R1-14B Q4_K_M(约 9GB)

下载完成后点击"Load"加载模型,等待约1-2分钟即可开始离线对话,完全无需网络。

方案二:Enchanted LLM(连接局域网电脑)

App Store 下载"Enchanted LLM",在设置中填入运行 DeepSeek-R1 的电脑局域网 IP(如 http://192.168.1.100:11434),即可在 iPhone 上远程使用电脑上运行的大参数版本,延迟低,体验流畅。

方案三:iOS Ollama 控制台(适合开发者)

App Store 有多款 Ollama 前端 App(如"Ollama AI"),可以直接连接运行中的 Ollama 服务器,支持多模型切换、对话历史保存,适合开发者日常测试使用。

DeepSeek-R1 API 调用:开发者集成指南

通过 Ollama 在本地运行 DeepSeek-R1 后,它会自动提供兼容 OpenAI API 格式的接口,你可以用现有的 OpenAI 代码直接切换到本地 DeepSeek-R1,无需任何额外费用。

# Python 调用 DeepSeek-R1(兼容 OpenAI SDK)
from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1',
    api_key='ollama' # 本地无需真实密钥
)

response = client.chat.completions.create(
    model='deepseek-r1:14b',
    messages=[
        {"role": "system", "content": "你是一位数学专家"},
        {"role": "user", "content": "证明勾股定理"}
    ]
)
print(response.choices[0].message.content)
# Node.js / JavaScript 调用示例
const response = await fetch('http://localhost:11434/api/generate', {
  method: 'POST',
  headers: { 'Content-Type': 'application/json' },
  body: JSON.stringify({
    model: 'deepseek-r1:14b',
    prompt: '请分析这段代码的时间复杂度',
    stream: false
  })
});
const data = await response.json();
console.log(data.response);

常见问题解答

Q1:ollama pull deepseek-r1 下载非常慢怎么办?

DeepSeek 模型托管在境外服务器(HuggingFace / Ollama CDN),国内直连速度受到限制,10GB 的模型文件可能需要数小时。推荐使用 VPN07 进行网络加速,其千兆带宽节点(1000Mbps)可将下载速度提升到 10-50 MB/s,14B 版本约 10-15 分钟即可完成下载。VPN07 月费仅 ¥9,覆盖 70+ 国家节点,稳定运营十年,还提供 30 天无理由退款保障,是 AI 开发者的必备工具。

Q2:DeepSeek-R1 和 DeepSeek-R1-Distill 有什么区别?

DeepSeek-R1 是满血版本(最大 671B),推理能力最强。DeepSeek-R1-Distill 是通过知识蒸馏从 R1 提炼的小版本(7B/14B/32B),使用 Qwen2.5 和 Llama3 作为基础模型训练,在保留 R1 推理链思考能力的同时大幅降低了显存要求。个人用户推荐使用 Distill 版本,Ollama 中的 deepseek-r1:7b 和 deepseek-r1:14b 默认就是 Distill 版本。

Q3:显卡是 AMD 的能用 DeepSeek-R1 吗?

可以。Ollama 支持 AMD GPU(通过 ROCm),但需要先安装 AMD ROCm 驱动(rocm.docs.amd.com 下载)。支持 RX 6000 系列及以上,安装完 ROCm 后,Ollama 的所有命令与 NVIDIA 完全相同。如果 AMD 显存不足,也可以纯 CPU 模式运行 7B 版本,速度约 2-5 token/秒。

Q4:运行 DeepSeek-R1 时出现 "out of memory" 怎么办?

这是显存不足的表现。解决方案:1)换用更小的量化版本(如从 14B 换为 7B);2)关闭其他占用显存的程序(游戏、视频处理软件等);3)使用 Ollama 的 OLLAMA_GPU_OVERHEAD 参数减少 GPU 保留量;4)如果没有独显,可以纯 CPU 运行,速度较慢但可用。

DeepSeek-R1 vs 主流开源模型:能力对比

模型 数学推理 代码生成 中文理解 最低显存 协议
DeepSeek-R1 14B ★ ★★★★★ ★★★★★ ★★★★ 10GB MIT
Qwen3.5 14B ★★★★ ★★★★ ★★★★★ 10GB Apache 2.0
Llama4 Scout ★★★ ★★★★ ★★★ 16GB Llama 4
Phi-4 14B ★★★★ ★★★★★ ★★★ 8GB MIT

📋 DeepSeek-R1 安装验收清单

还想体验更多开源大模型?
DeepSeek-R1 / Qwen / Llama 4 / Gemma 一站下载
查看全部模型 →

VPN07 助力 DeepSeek-R1 快速下载

1000Mbps 千兆加速 · 运营十年稳定可靠

DeepSeek-R1 14B 模型文件约 9GB,在没有加速的情况下,国内用户下载速度通常只有几百 KB/s,甚至几十 KB/s,可能需要数小时。使用 VPN07,你将获得 1000Mbps 千兆带宽节点,下载速度提升百倍,14B 版本约 10 分钟完成,32B 版本约 25 分钟完成。VPN07 覆盖全球 70+ 国家节点,月费仅 ¥9,稳定运营十年,还提供 30 天无理由退款保障,是每位 AI 开发者的首选网络工具。

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天退款
无理由退款

相关文章推荐

月费¥9 · 运营十年
免费试用 VPN07