DeepSeek-R1 本地安裝 2026 全攻略:Windows / Mac / Linux / 手機五平台一次搞定
教學說明:DeepSeek-R1 是由中國 DeepSeek 公司發布的開源推理大模型,以接近 o1 的推理能力和完全開源的授權震驚全球 AI 社群。本教學完整覆蓋 Windows、macOS、Linux、Android、iOS 五大平台的安裝方式,並提供從 7B 輕量版到 671B 旗艦版的各版本建議,無論你用什麼設備都能找到合適的部署方案。
DeepSeek-R1 是什麼?為什麼全球 AI 工程師都在用?
DeepSeek-R1 是 DeepSeek 公司於 2026 年初發布的推理增強型大語言模型,其最大特色是採用了強化學習訓練框架,使模型在數學、程式設計和邏輯推理方面達到了與 OpenAI o1 相當的水準。更關鍵的是,DeepSeek 選擇完全開源,模型權重可免費下載,商業使用授權寬鬆,這使它迅速成為全球最受歡迎的開源 AI 模型之一。
DeepSeek-R1 提供多個尺寸版本,從輕量的 1.5B、7B、8B,到中階的 14B、32B,再到旗艦的 70B 和 671B,覆蓋從低規設備到高端伺服器的全部需求。量化版本(Q4/Q8)進一步降低了硬體門檻,讓普通消費級電腦也能在本機執行高品質推理 AI。
推理能力超強
數學、程式設計、邏輯推理達 o1 水準
完全開源免費
MIT 授權,商業使用無限制,完全本地執行
中文理解出色
繁簡中文理解能力在開源模型中名列前茅
硬體需求一覽:選哪個版本適合你?
DeepSeek-R1 的版本眾多,根據你的設備規格選擇合適的版本是關鍵。以下是各版本的硬體需求對照表:
| 模型版本 | VRAM / RAM | 適用設備 | 推薦場景 |
|---|---|---|---|
| deepseek-r1:7b | 6GB+ | GTX 1060 / M1 / 高端手機 | 入門使用、日常對話 |
| deepseek-r1:14b | 10GB+ | RTX 3060 / M2 16GB | 程式輔助、中等推理 |
| deepseek-r1:32b | 20GB+ | RTX 4090 / M2 Max | 複雜推理、高品質輸出 |
| deepseek-r1:70b | 48GB+ | 多卡 / M2 Ultra | 旗艦推理、專業用途 |
Apple Silicon 用戶的特別優勢
M1/M2/M3/M4 系列 Mac 採用統一記憶體架構(UMA),16GB 統一記憶體等同於 16GB VRAM,可流暢運行 deepseek-r1:14b 的 Q4 量化版。M2 Max(96GB)甚至可以運行 70B 版本。對於預算有限但希望獲得優質本地 AI 體驗的用戶,配備 32GB 統一記憶體的 MacBook Pro M4 是目前最佳選擇之一。
Windows 安裝 DeepSeek-R1 完整教學
Windows 用戶推薦透過 Ollama 進行安裝,整個過程只需三步即可完成,無需配置複雜的 Python 環境:
Windows 安裝步驟
下載 Ollama Windows 安裝程式
前往 ollama.com 下載 OllamaSetup.exe,安裝後 Ollama 會在系統背景自動啟動。若網路下載緩慢,建議使用 VPN07 的 1000Mbps 千兆頻寬加速。
開啟 PowerShell,下載 DeepSeek-R1
# 下載 7B 版本(推薦入門)
ollama pull deepseek-r1:7b
# 或下載 14B 版本(較好品質)
ollama pull deepseek-r1:14b
7B 版本大小約 4.7GB,14B 版本約 9GB。建議搭配 VPN07 使用,千兆頻寬讓下載時間從數小時縮短至數分鐘。
啟動 DeepSeek-R1 開始推理
ollama run deepseek-r1:7b
看到 >>> 提示符即可直接輸入問題,DeepSeek-R1 會先顯示推理過程(thinking),再給出最終答案。
安裝 Open WebUI 獲得 ChatGPT 式圖形介面
不習慣命令列的用戶可以安裝 Open WebUI,獲得和 ChatGPT 一樣的網頁介面體驗。前置需求:已安裝 Docker Desktop。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
執行後開啟 http://localhost:3000 即可使用圖形介面,在模型選單中選擇 deepseek-r1:7b 即可對話。
macOS 安裝 DeepSeek-R1 完整教學
macOS 用戶有兩種安裝方式,對 Apple Silicon 用戶特別友好:
方法一:下載 Mac App(最簡便)
前往 ollama.com/download 下載 macOS 版本(.dmg 格式),拖入 Applications 資料夾後直接執行,無需任何命令列操作。接著開啟終端機輸入:
ollama pull deepseek-r1:14b
ollama run deepseek-r1:14b
方法二:Homebrew 安裝(開發者推薦)
# 安裝 Ollama
brew install ollama
# 啟動後台服務
brew services start ollama
# 下載 DeepSeek-R1
ollama pull deepseek-r1:14b
ollama run deepseek-r1:14b
Linux 安裝 DeepSeek-R1 完整教學
Linux 是執行本地 LLM 的最佳平台,無論是 Ubuntu、Debian 還是 CentOS,安裝方式幾乎相同:
Ubuntu / Debian 一鍵安裝
# 一鍵安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 設定開機自啟
sudo systemctl enable ollama
sudo systemctl start ollama
# 下載 DeepSeek-R1 7B
ollama pull deepseek-r1:7b
# 執行
ollama run deepseek-r1:7b
NVIDIA GPU 加速(顯著提升推理速度)
如果你的 Linux 主機配備 NVIDIA 顯示卡,安裝 CUDA 驅動後 Ollama 會自動偵測並啟用 GPU 加速,推理速度可提升 10-50 倍:
# 確認 GPU 狀態
nvidia-smi
# 確認 Ollama 已偵測 GPU
ollama run deepseek-r1:7b
# 看到 "using GPU" 表示 GPU 加速已啟用
RTX 4090(24GB VRAM)可流暢執行 32B 版本,RTX 3090 可執行 14B 版本,GTX 1080Ti 適合 7B 版本。
Docker 方式部署(推薦伺服器使用)
若需要在伺服器上穩定部署,Docker 方式更易於管理:
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# 在容器內下載模型
docker exec -it ollama ollama pull deepseek-r1:7b
Android 手機安裝 DeepSeek-R1
Android 用戶可透過 Termux 在手機上本機執行輕量版 DeepSeek-R1,適合探索本地 AI 的樂趣(需要高端旗艦機):
Android Termux 安裝步驟
從 F-Droid 下載安裝 Termux(不要用 Google Play 版本,版本過舊會有相容性問題)
在 Termux 中執行以下命令安裝 Ollama:
pkg update && pkg upgrade -y
pkg install curl -y
curl -fsSL https://ollama.com/install.sh | sh
下載並執行 DeepSeek-R1 輕量版:
# 下載 1.5B 超輕量版(適合大多數手機)
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
# 高端旗艦機(16GB RAM+)可嘗試
ollama pull deepseek-r1:7b
Android 推薦設備規格
執行 deepseek-r1:7b 建議搭載驍龍 8 Gen 3 或天璣 9300 以上處理器,並至少有 12GB RAM。1.5B 版本則在 8GB RAM 的中高階手機上也能運作。手機電池消耗較快,建議接上充電器使用。
iPhone / iOS 安裝 DeepSeek-R1
iOS 用戶有兩種方式在 iPhone 上體驗 DeepSeek-R1 的強大推理能力:
方法一:Enchanted App 遠端連線(推薦)
Enchanted 是 iOS 上最受歡迎的 Ollama 前端,在 App Store 可免費下載。配合家中電腦或 Mac 上已安裝的 Ollama 服務,可以遠端調用 DeepSeek-R1:
# 在電腦端設定 Ollama 允許外部連線
OLLAMA_HOST=0.0.0.0 ollama serve
接著在 Enchanted App 設定中填入電腦的本地 IP 地址(如 192.168.1.100:11434)即可連線,手機與電腦需在同一 Wi-Fi 網路。
方法二:PocketPal AI 本機執行(輕量版)
PocketPal AI 支援在 iPhone 本機直接執行小型 LLM,從 App Store 安裝後可下載 DeepSeek-R1 的 1.5B 量化版直接在手機離線使用,iPhone 15 Pro 以上機型執行效果最佳。
進階使用:讓 DeepSeek-R1 發揮最大效能
掌握以下技巧,可以大幅提升 DeepSeek-R1 的使用體驗:
💡 善用系統提示詞強化繁體中文輸出
DeepSeek-R1 預設以簡體中文回應,使用以下系統提示可強制使用繁體中文:
ollama run deepseek-r1:14b "請用繁體中文回答所有問題。"
💡 API 整合:替換 ChatGPT API
Ollama 提供與 OpenAI 完全相容的 API,只需將端點從 api.openai.com 改為 localhost:11434,所有支援 ChatGPT API 的應用都可直接使用本地 DeepSeek-R1。
💡 設定模型上下文長度
DeepSeek-R1 支援較長的上下文,可透過環境變數調整:
OLLAMA_NUM_CTX=32768 ollama run deepseek-r1:14b
為什麼下載大模型需要優質網路連線?
DeepSeek-R1 的各版本模型文件大小從 1.5B 的約 1GB 到 70B 的 40GB 以上不等。在台灣,Hugging Face 和 Ollama 的模型庫有時會受到網路環境影響,下載速度不穩定甚至中斷。優質的網路連線可以將下載時間從數小時縮短至數分鐘。
📊 下載速度對比(以 14B 模型 9GB 為例)
VPN07 提供 1000Mbps 千兆頻寬,覆蓋全球 70+ 個國家節點,讓你在台灣也能以最快速度連接 Ollama 模型庫和 Hugging Face,輕鬆完成大型模型的下載。服務穩定運營超過十年,30 天退款保障讓你無後顧之憂。
常見問題 FAQ
Q:DeepSeek-R1 和 GPT-4o 相比怎麼樣?
DeepSeek-R1 在數學和程式設計推理方面接近 o1 的水準,在某些基準測試中甚至超越 GPT-4o。開源免費、資料完全本地、無使用限制是其相對閉源模型最大的優勢。
Q:下載後資料安全嗎?
完全安全。本地執行的 DeepSeek-R1 不會將任何對話資料傳送至外部伺服器,資料完全保留在你的設備上,隱私保護是本地 AI 相比雲端服務最大的優勢。
Q:為什麼回答前有 <think> 標籤?
這是 DeepSeek-R1 的推理(Chain of Thought)過程,模型在給出答案前會先展示思考步驟。如果覺得干擾閱讀,可以使用 Open WebUI 等前端工具隱藏思考過程,只顯示最終答案。
Q:可以用 DeepSeek-R1 開發應用程式嗎?
完全可以!Ollama 提供 OpenAI 相容 API(預設 localhost:11434),任何基於 ChatGPT API 構建的應用都可以一行修改配置,替換為本地 DeepSeek-R1,實現零 API 費用的 AI 應用開發。
VPN07 — DeepSeek-R1 下載加速首選
千兆頻寬加速下載 · 70+ 國家節點 · 十年穩定服務
DeepSeek-R1 模型文件少則數 GB,多則 40GB 以上。下載速度決定你能多快開始使用本地 AI。VPN07 提供 1000Mbps 千兆頻寬,連接 Ollama 官方模型庫和 Hugging Face 速度穩定飛快,讓 14GB 的模型 2 分鐘內下載完畢。70+ 國家節點、穩定運營十年、30 天退款保障,$1.5/月即可體驗。