DeepSeek-R1本地安装完整教程:Windows/Mac/Linux/手机全平台
本文导读:DeepSeek-R1 是深度求索(DeepSeek)发布的顶尖开源推理大模型,参数规模从 7B 到 671B,采用 MIT 协议完全开源可商用。本教程覆盖 Windows、macOS、Linux、Android、iPhone 全平台独立安装步骤,并提供量化版本选择建议,帮助你在任何设备上快速运行全球最强开源推理模型。
DeepSeek-R1:全球最强开源推理模型
DeepSeek-R1 于2025年1月正式发布,凭借超越 OpenAI o1 的数学推理和代码生成能力迅速席卷全球 AI 圈。作为完全开源、MIT 协议的大模型,任何人都可以免费下载、修改和商业使用,这使它成为 2026 年最受关注的本地大模型首选。
顶尖推理能力
在 AIME 数学竞赛和 Codeforces 代码挑战中超越 GPT-4o,MoE 架构让推理质量媲美千亿闭源模型。
MIT 协议免费
完全开源可商用,无需付费订阅,本地运行无网络限制,数据100%不离开你的设备。
多规格可选
从 7B(6GB显存)到 671B 旗舰版,覆盖手机到服务器全场景,每种设备都有合适的量化版本。
安装前:选择合适的 DeepSeek-R1 版本
DeepSeek-R1 有多个参数规模版本,安装前需要根据你的硬件配置选择合适的版本。选错版本会导致运行极慢甚至无法启动。
| 版本 | 显存要求 | RAM(内存) | 适合场景 | Ollama 命令 |
|---|---|---|---|---|
| R1 7B Q4 | 6 GB | 8 GB | 手机 / 入门PC | deepseek-r1:7b |
| R1 14B Q4 | 10 GB | 16 GB | 主流游戏本 | deepseek-r1:14b |
| R1 32B Q4 | 20 GB | 32 GB | RTX 3090 / 4090 | deepseek-r1:32b |
| R1 671B Q4 | 400 GB+ | 512 GB | 多卡服务器 | deepseek-r1:671b |
💡 新手推荐:DeepSeek-R1 14B 量化版
如果不确定选哪个版本,推荐 14B Q4 量化版。它在 RTX 4060 / RTX 3070 等主流显卡上运行流畅(约 30 token/秒),推理质量接近 GPT-4o,是性能与资源消耗的最佳平衡点。
Windows 安装 DeepSeek-R1 教程
Windows 用户推荐使用 Ollama 安装,支持 NVIDIA 和 AMD 显卡加速,也可以在纯 CPU 模式下运行小参数量版本。整个安装过程约 5 分钟,下载模型需要 10-30 分钟(取决于网速和模型大小)。
方式一:Ollama 安装(推荐)
① 下载并安装 Ollama for Windows
访问 ollama.com,点击"Download for Windows",下载安装包(约 100MB)并双击安装,全程点击下一步即可。
② 打开 PowerShell 或命令提示符,运行以下命令
# 下载 DeepSeek-R1 14B(约 9GB,主流配置推荐)
ollama pull deepseek-r1:14b
# 或下载 7B 版本(约 5GB,适合低配置)
ollama pull deepseek-r1:7b
# 启动对话
ollama run deepseek-r1:14b
# 验证安装成功
ollama list
方式二:LM Studio 图形界面(无命令行)
不习惯命令行的用户可以使用 LM Studio 图形界面。访问 lmstudio.ai 下载安装(免费)。打开后在搜索框输入"DeepSeek-R1",选择适合你显存的量化版本,点击"Download",下载完成后点击"Load"加载模型即可开始对话,界面与 ChatGPT 完全相似。
# Windows 下通过 PowerShell 查看显卡信息
nvidia-smi
# 输出示例(确认显存大小后再选择版本):
# | NVIDIA GeForce RTX 4060 | 8192MiB total |
# 8GB 显存 → 选 deepseek-r1:7b
# 12GB 显存 → 选 deepseek-r1:14b Q4
# 24GB 显存 → 选 deepseek-r1:32b Q4
macOS 安装 DeepSeek-R1 教程
macOS 用户,尤其是搭载 Apple Silicon(M1/M2/M3/M4)芯片的 Mac 用户,在运行本地大模型方面拥有天然优势。Apple Silicon 的统一内存架构让 GPU 与 CPU 共享内存,16GB 内存的 MacBook Air M2 可以流畅运行 DeepSeek-R1 14B,效果令人惊叹。
# 方法一:Homebrew 安装(推荐)
# 如果没有 Homebrew,先安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装 Ollama
brew install ollama
# 设置开机自启
brew services start ollama
# 下载 DeepSeek-R1(根据内存选择版本)
# 16GB 内存 Mac → 14B 版本
ollama pull deepseek-r1:14b
# 32GB 内存 Mac → 32B 版本(推理质量更强)
ollama pull deepseek-r1:32b
# 启动对话
ollama run deepseek-r1:14b
# 方法二:直接从 ollama.com 下载 macOS 安装包
# 访问 ollama.com,下载 Ollama.dmg,安装后菜单栏出现羊驼图标
# 查看运行状态
ollama ps
# 测试 DeepSeek-R1 中文推理能力
ollama run deepseek-r1:14b "请解一道数学题:求 x^2 - 5x + 6 = 0 的根"
Linux 安装 DeepSeek-R1 教程
Linux 是部署 DeepSeek-R1 的最佳服务器环境,支持 NVIDIA CUDA GPU 加速,可以将模型作为 API 服务供团队或应用调用。以下步骤在 Ubuntu 22.04 LTS 和 Debian 12 环境下经过测试。
# 一行命令安装 Ollama(所有主流 Linux 发行版通用)
curl -fsSL https://ollama.com/install.sh | sh
# 配置开机自启(systemd)
sudo systemctl enable ollama
sudo systemctl start ollama
# 下载 DeepSeek-R1
ollama pull deepseek-r1:14b
# 检查 NVIDIA GPU 是否正确识别
nvidia-smi
ollama ps # 应显示 GPU 利用率
将 DeepSeek-R1 部署为 API 服务
Linux 服务器上最大的优势是可以将 DeepSeek-R1 暴露为兼容 OpenAI 格式的 API 接口,供其他程序或设备远程调用:
# 绑定到所有网卡(允许局域网/外网访问)
export OLLAMA_HOST=0.0.0.0:11434
ollama serve
# 或修改 systemd 配置文件永久生效:
sudo nano /etc/systemd/system/ollama.service
# 在 [Service] 下添加:
# Environment="OLLAMA_HOST=0.0.0.0:11434"
sudo systemctl daemon-reload
sudo systemctl restart ollama
# 测试 API 接口
curl http://localhost:11434/api/generate \
-d '{"model":"deepseek-r1:14b","prompt":"你好"}'
配合 Open WebUI 搭建团队知识库
# Docker 一键部署 Open WebUI(图形化管理界面)
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
# 访问 http://服务器IP:3000 即可使用图形界面
Android 手机运行 DeepSeek-R1 教程
Android 旗舰手机(骁龙 8 Gen 2 / 天玑 9300 以上,至少 12GB RAM)可以直接运行 DeepSeek-R1 7B 的量化版本(约 4.5GB),对话流畅,适合日常使用。
方案一:ChatterUI 本机运行(旗舰手机)
从 GitHub 下载 ChatterUI APK(搜索"ChatterUI GitHub"),安装后在 HuggingFace 下载 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B-GGUF 中的 Q4_K_M 版本(约 4.5GB)。将文件复制到手机存储,在 ChatterUI 中导入模型,即可本地离线运行,对话隐私完全保护。
# HuggingFace 上的模型路径:
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B-GGUF
# 下载文件:DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf(约4.5GB)
方案二:远程连接电脑(推荐所有 Android 用户)
在电脑上运行 DeepSeek-R1,手机通过局域网或 VPN07 远程访问,体验完整的大参数版本能力。安装 Enchanted 或 Mango LLM 应用,在服务器地址填入电脑 IP(如 192.168.1.100:11434),即可在手机上享受 32B 或更大版本的强大推理能力。
方案三:Termux + Ollama(技术用户)
技术爱好者可以通过 Termux 在 Android 上直接安装 Ollama,无需额外 App。适合折腾党,要求手机 Root 或开启开发者选项。
# Termux 中安装(仅支持 ARM64 设备)
pkg update && pkg install ollama
ollama pull deepseek-r1:7b
iPhone / iPad 运行 DeepSeek-R1 教程
iPhone 15 Pro 及以上机型(A17 Pro 芯片,8GB RAM)可以在本机直接运行 DeepSeek-R1 7B 量化版,iPad Pro M4 则可以运行更大的 14B 版本。以下是三种方案供你选择。
🥇 推荐:PocketPal AI(本机运行,App Store 直接下载)
App Store 搜索"PocketPal AI"下载(免费)。进入 App 后点击"Model Library",搜索"DeepSeek-R1",选择适合你机型的量化版本:
- • iPhone 15 Pro / iPhone 16 → 选 DeepSeek-R1-7B Q4_K_M(约 4.5GB)
- • iPad Pro M4 (16GB) → 选 DeepSeek-R1-14B Q4_K_M(约 9GB)
下载完成后点击"Load"加载模型,等待约1-2分钟即可开始离线对话,完全无需网络。
方案二:Enchanted LLM(连接局域网电脑)
App Store 下载"Enchanted LLM",在设置中填入运行 DeepSeek-R1 的电脑局域网 IP(如 http://192.168.1.100:11434),即可在 iPhone 上远程使用电脑上运行的大参数版本,延迟低,体验流畅。
方案三:iOS Ollama 控制台(适合开发者)
App Store 有多款 Ollama 前端 App(如"Ollama AI"),可以直接连接运行中的 Ollama 服务器,支持多模型切换、对话历史保存,适合开发者日常测试使用。
DeepSeek-R1 API 调用:开发者集成指南
通过 Ollama 在本地运行 DeepSeek-R1 后,它会自动提供兼容 OpenAI API 格式的接口,你可以用现有的 OpenAI 代码直接切换到本地 DeepSeek-R1,无需任何额外费用。
# Python 调用 DeepSeek-R1(兼容 OpenAI SDK)
from openai import OpenAI
client = OpenAI(
base_url='http://localhost:11434/v1',
api_key='ollama' # 本地无需真实密钥
)
response = client.chat.completions.create(
model='deepseek-r1:14b',
messages=[
{"role": "system", "content": "你是一位数学专家"},
{"role": "user", "content": "证明勾股定理"}
]
)
print(response.choices[0].message.content)
# Node.js / JavaScript 调用示例
const response = await fetch('http://localhost:11434/api/generate', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
model: 'deepseek-r1:14b',
prompt: '请分析这段代码的时间复杂度',
stream: false
})
});
const data = await response.json();
console.log(data.response);
常见问题解答
Q1:ollama pull deepseek-r1 下载非常慢怎么办?
DeepSeek 模型托管在境外服务器(HuggingFace / Ollama CDN),国内直连速度受到限制,10GB 的模型文件可能需要数小时。推荐使用 VPN07 进行网络加速,其千兆带宽节点(1000Mbps)可将下载速度提升到 10-50 MB/s,14B 版本约 10-15 分钟即可完成下载。VPN07 月费仅 ¥9,覆盖 70+ 国家节点,稳定运营十年,还提供 30 天无理由退款保障,是 AI 开发者的必备工具。
Q2:DeepSeek-R1 和 DeepSeek-R1-Distill 有什么区别?
DeepSeek-R1 是满血版本(最大 671B),推理能力最强。DeepSeek-R1-Distill 是通过知识蒸馏从 R1 提炼的小版本(7B/14B/32B),使用 Qwen2.5 和 Llama3 作为基础模型训练,在保留 R1 推理链思考能力的同时大幅降低了显存要求。个人用户推荐使用 Distill 版本,Ollama 中的 deepseek-r1:7b 和 deepseek-r1:14b 默认就是 Distill 版本。
Q3:显卡是 AMD 的能用 DeepSeek-R1 吗?
可以。Ollama 支持 AMD GPU(通过 ROCm),但需要先安装 AMD ROCm 驱动(rocm.docs.amd.com 下载)。支持 RX 6000 系列及以上,安装完 ROCm 后,Ollama 的所有命令与 NVIDIA 完全相同。如果 AMD 显存不足,也可以纯 CPU 模式运行 7B 版本,速度约 2-5 token/秒。
Q4:运行 DeepSeek-R1 时出现 "out of memory" 怎么办?
这是显存不足的表现。解决方案:1)换用更小的量化版本(如从 14B 换为 7B);2)关闭其他占用显存的程序(游戏、视频处理软件等);3)使用 Ollama 的 OLLAMA_GPU_OVERHEAD 参数减少 GPU 保留量;4)如果没有独显,可以纯 CPU 运行,速度较慢但可用。
DeepSeek-R1 vs 主流开源模型:能力对比
| 模型 | 数学推理 | 代码生成 | 中文理解 | 最低显存 | 协议 |
|---|---|---|---|---|---|
| DeepSeek-R1 14B ★ | ★★★★★ | ★★★★★ | ★★★★ | 10GB | MIT |
| Qwen3.5 14B | ★★★★ | ★★★★ | ★★★★★ | 10GB | Apache 2.0 |
| Llama4 Scout | ★★★ | ★★★★ | ★★★ | 16GB | Llama 4 |
| Phi-4 14B | ★★★★ | ★★★★★ | ★★★ | 8GB | MIT |
📋 DeepSeek-R1 安装验收清单
VPN07 助力 DeepSeek-R1 快速下载
1000Mbps 千兆加速 · 运营十年稳定可靠
DeepSeek-R1 14B 模型文件约 9GB,在没有加速的情况下,国内用户下载速度通常只有几百 KB/s,甚至几十 KB/s,可能需要数小时。使用 VPN07,你将获得 1000Mbps 千兆带宽节点,下载速度提升百倍,14B 版本约 10 分钟完成,32B 版本约 25 分钟完成。VPN07 覆盖全球 70+ 国家节点,月费仅 ¥9,稳定运营十年,还提供 30 天无理由退款保障,是每位 AI 开发者的首选网络工具。