VPN07

DeepSeek-R1 本地安裝 2026 全攻略:Windows / Mac / Linux / 手機五平台一次搞定

2026-03-05 閱讀約 20 分鐘 DeepSeek-R1 本地部署 開源 AI
開源大語言模型下載中心
DeepSeek-R1 / Qwen3.5 / Llama 4 一站下載
立即下載模型 →

教學說明:DeepSeek-R1 是由中國 DeepSeek 公司發布的開源推理大模型,以接近 o1 的推理能力和完全開源的授權震驚全球 AI 社群。本教學完整覆蓋 Windows、macOS、Linux、Android、iOS 五大平台的安裝方式,並提供從 7B 輕量版到 671B 旗艦版的各版本建議,無論你用什麼設備都能找到合適的部署方案。

DeepSeek-R1 是什麼?為什麼全球 AI 工程師都在用?

DeepSeek-R1 是 DeepSeek 公司於 2026 年初發布的推理增強型大語言模型,其最大特色是採用了強化學習訓練框架,使模型在數學、程式設計和邏輯推理方面達到了與 OpenAI o1 相當的水準。更關鍵的是,DeepSeek 選擇完全開源,模型權重可免費下載,商業使用授權寬鬆,這使它迅速成為全球最受歡迎的開源 AI 模型之一。

DeepSeek-R1 提供多個尺寸版本,從輕量的 1.5B、7B、8B,到中階的 14B、32B,再到旗艦的 70B 和 671B,覆蓋從低規設備到高端伺服器的全部需求。量化版本(Q4/Q8)進一步降低了硬體門檻,讓普通消費級電腦也能在本機執行高品質推理 AI。

🧠

推理能力超強

數學、程式設計、邏輯推理達 o1 水準

🔓

完全開源免費

MIT 授權,商業使用無限制,完全本地執行

🌏

中文理解出色

繁簡中文理解能力在開源模型中名列前茅

硬體需求一覽:選哪個版本適合你?

DeepSeek-R1 的版本眾多,根據你的設備規格選擇合適的版本是關鍵。以下是各版本的硬體需求對照表:

模型版本 VRAM / RAM 適用設備 推薦場景
deepseek-r1:7b 6GB+ GTX 1060 / M1 / 高端手機 入門使用、日常對話
deepseek-r1:14b 10GB+ RTX 3060 / M2 16GB 程式輔助、中等推理
deepseek-r1:32b 20GB+ RTX 4090 / M2 Max 複雜推理、高品質輸出
deepseek-r1:70b 48GB+ 多卡 / M2 Ultra 旗艦推理、專業用途

Apple Silicon 用戶的特別優勢

M1/M2/M3/M4 系列 Mac 採用統一記憶體架構(UMA),16GB 統一記憶體等同於 16GB VRAM,可流暢運行 deepseek-r1:14b 的 Q4 量化版。M2 Max(96GB)甚至可以運行 70B 版本。對於預算有限但希望獲得優質本地 AI 體驗的用戶,配備 32GB 統一記憶體的 MacBook Pro M4 是目前最佳選擇之一。

Windows 安裝 DeepSeek-R1 完整教學

Windows 用戶推薦透過 Ollama 進行安裝,整個過程只需三步即可完成,無需配置複雜的 Python 環境:

Windows 安裝步驟

1

下載 Ollama Windows 安裝程式

前往 ollama.com 下載 OllamaSetup.exe,安裝後 Ollama 會在系統背景自動啟動。若網路下載緩慢,建議使用 VPN07 的 1000Mbps 千兆頻寬加速。

2

開啟 PowerShell,下載 DeepSeek-R1

# 下載 7B 版本(推薦入門)
ollama pull deepseek-r1:7b

# 或下載 14B 版本(較好品質)
ollama pull deepseek-r1:14b

7B 版本大小約 4.7GB,14B 版本約 9GB。建議搭配 VPN07 使用,千兆頻寬讓下載時間從數小時縮短至數分鐘。

3

啟動 DeepSeek-R1 開始推理

ollama run deepseek-r1:7b

看到 >>> 提示符即可直接輸入問題,DeepSeek-R1 會先顯示推理過程(thinking),再給出最終答案。

安裝 Open WebUI 獲得 ChatGPT 式圖形介面

不習慣命令列的用戶可以安裝 Open WebUI,獲得和 ChatGPT 一樣的網頁介面體驗。前置需求:已安裝 Docker Desktop。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

執行後開啟 http://localhost:3000 即可使用圖形介面,在模型選單中選擇 deepseek-r1:7b 即可對話。

macOS 安裝 DeepSeek-R1 完整教學

macOS 用戶有兩種安裝方式,對 Apple Silicon 用戶特別友好:

方法一:下載 Mac App(最簡便)

前往 ollama.com/download 下載 macOS 版本(.dmg 格式),拖入 Applications 資料夾後直接執行,無需任何命令列操作。接著開啟終端機輸入:

ollama pull deepseek-r1:14b
ollama run deepseek-r1:14b

方法二:Homebrew 安裝(開發者推薦)

# 安裝 Ollama
brew install ollama

# 啟動後台服務
brew services start ollama

# 下載 DeepSeek-R1
ollama pull deepseek-r1:14b
ollama run deepseek-r1:14b
M4 Pro
32b 流暢執行
M2/M3
14b 最佳選擇
M1
7b 版本可用
Metal GPU
自動硬體加速

Linux 安裝 DeepSeek-R1 完整教學

Linux 是執行本地 LLM 的最佳平台,無論是 Ubuntu、Debian 還是 CentOS,安裝方式幾乎相同:

Ubuntu / Debian 一鍵安裝

# 一鍵安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 設定開機自啟
sudo systemctl enable ollama
sudo systemctl start ollama

# 下載 DeepSeek-R1 7B
ollama pull deepseek-r1:7b

# 執行
ollama run deepseek-r1:7b

NVIDIA GPU 加速(顯著提升推理速度)

如果你的 Linux 主機配備 NVIDIA 顯示卡,安裝 CUDA 驅動後 Ollama 會自動偵測並啟用 GPU 加速,推理速度可提升 10-50 倍:

# 確認 GPU 狀態
nvidia-smi

# 確認 Ollama 已偵測 GPU
ollama run deepseek-r1:7b
# 看到 "using GPU" 表示 GPU 加速已啟用

RTX 4090(24GB VRAM)可流暢執行 32B 版本,RTX 3090 可執行 14B 版本,GTX 1080Ti 適合 7B 版本。

Docker 方式部署(推薦伺服器使用)

若需要在伺服器上穩定部署,Docker 方式更易於管理:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# 在容器內下載模型
docker exec -it ollama ollama pull deepseek-r1:7b

Android 手機安裝 DeepSeek-R1

Android 用戶可透過 Termux 在手機上本機執行輕量版 DeepSeek-R1,適合探索本地 AI 的樂趣(需要高端旗艦機):

Android Termux 安裝步驟

1

從 F-Droid 下載安裝 Termux(不要用 Google Play 版本,版本過舊會有相容性問題)

2

在 Termux 中執行以下命令安裝 Ollama:

pkg update && pkg upgrade -y
pkg install curl -y
curl -fsSL https://ollama.com/install.sh | sh
3

下載並執行 DeepSeek-R1 輕量版:

# 下載 1.5B 超輕量版(適合大多數手機)
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b

# 高端旗艦機(16GB RAM+)可嘗試
ollama pull deepseek-r1:7b

Android 推薦設備規格

執行 deepseek-r1:7b 建議搭載驍龍 8 Gen 3 或天璣 9300 以上處理器,並至少有 12GB RAM。1.5B 版本則在 8GB RAM 的中高階手機上也能運作。手機電池消耗較快,建議接上充電器使用。

iPhone / iOS 安裝 DeepSeek-R1

iOS 用戶有兩種方式在 iPhone 上體驗 DeepSeek-R1 的強大推理能力:

方法一:Enchanted App 遠端連線(推薦)

Enchanted 是 iOS 上最受歡迎的 Ollama 前端,在 App Store 可免費下載。配合家中電腦或 Mac 上已安裝的 Ollama 服務,可以遠端調用 DeepSeek-R1:

# 在電腦端設定 Ollama 允許外部連線
OLLAMA_HOST=0.0.0.0 ollama serve

接著在 Enchanted App 設定中填入電腦的本地 IP 地址(如 192.168.1.100:11434)即可連線,手機與電腦需在同一 Wi-Fi 網路。

方法二:PocketPal AI 本機執行(輕量版)

PocketPal AI 支援在 iPhone 本機直接執行小型 LLM,從 App Store 安裝後可下載 DeepSeek-R1 的 1.5B 量化版直接在手機離線使用,iPhone 15 Pro 以上機型執行效果最佳。

進階使用:讓 DeepSeek-R1 發揮最大效能

掌握以下技巧,可以大幅提升 DeepSeek-R1 的使用體驗:

💡 善用系統提示詞強化繁體中文輸出

DeepSeek-R1 預設以簡體中文回應,使用以下系統提示可強制使用繁體中文:

ollama run deepseek-r1:14b "請用繁體中文回答所有問題。"

💡 API 整合:替換 ChatGPT API

Ollama 提供與 OpenAI 完全相容的 API,只需將端點從 api.openai.com 改為 localhost:11434,所有支援 ChatGPT API 的應用都可直接使用本地 DeepSeek-R1。

💡 設定模型上下文長度

DeepSeek-R1 支援較長的上下文,可透過環境變數調整:

OLLAMA_NUM_CTX=32768 ollama run deepseek-r1:14b

為什麼下載大模型需要優質網路連線?

DeepSeek-R1 的各版本模型文件大小從 1.5B 的約 1GB 到 70B 的 40GB 以上不等。在台灣,Hugging Face 和 Ollama 的模型庫有時會受到網路環境影響,下載速度不穩定甚至中斷。優質的網路連線可以將下載時間從數小時縮短至數分鐘。

📊 下載速度對比(以 14B 模型 9GB 為例)

2 Mbps
一般網路
9GB 需 10小時+
30 Mbps
一般 VPN
9GB 需 40分鐘
1000 Mbps
VPN07
9GB 僅需 1.5分鐘

VPN07 提供 1000Mbps 千兆頻寬,覆蓋全球 70+ 個國家節點,讓你在台灣也能以最快速度連接 Ollama 模型庫和 Hugging Face,輕鬆完成大型模型的下載。服務穩定運營超過十年,30 天退款保障讓你無後顧之憂。

常見問題 FAQ

Q:DeepSeek-R1 和 GPT-4o 相比怎麼樣?

DeepSeek-R1 在數學和程式設計推理方面接近 o1 的水準,在某些基準測試中甚至超越 GPT-4o。開源免費、資料完全本地、無使用限制是其相對閉源模型最大的優勢。

Q:下載後資料安全嗎?

完全安全。本地執行的 DeepSeek-R1 不會將任何對話資料傳送至外部伺服器,資料完全保留在你的設備上,隱私保護是本地 AI 相比雲端服務最大的優勢。

Q:為什麼回答前有 <think> 標籤?

這是 DeepSeek-R1 的推理(Chain of Thought)過程,模型在給出答案前會先展示思考步驟。如果覺得干擾閱讀,可以使用 Open WebUI 等前端工具隱藏思考過程,只顯示最終答案。

Q:可以用 DeepSeek-R1 開發應用程式嗎?

完全可以!Ollama 提供 OpenAI 相容 API(預設 localhost:11434),任何基於 ChatGPT API 構建的應用都可以一行修改配置,替換為本地 DeepSeek-R1,實現零 API 費用的 AI 應用開發。

還想體驗更多開源大模型?
DeepSeek-R1 / Qwen3.5 / Llama 4 / Gemma 一站下載
查看全部模型 →

VPN07 — DeepSeek-R1 下載加速首選

千兆頻寬加速下載 · 70+ 國家節點 · 十年穩定服務

DeepSeek-R1 模型文件少則數 GB,多則 40GB 以上。下載速度決定你能多快開始使用本地 AI。VPN07 提供 1000Mbps 千兆頻寬,連接 Ollama 官方模型庫和 Hugging Face 速度穩定飛快,讓 14GB 的模型 2 分鐘內下載完畢。70+ 國家節點、穩定運營十年、30 天退款保障,$1.5/月即可體驗。

$1.5/月
超低月費
1000Mbps
千兆頻寬
70+
國家節點
30天
退款保障

相關文章推薦

月費$1.5 · 運營十年
免費試用 VPN07