DeepSeek R1 インストール完全ガイド【Windows/Mac/Android/iPhone】
DeepSeek R1などのAIモデルをまとめて比較・ダウンロード
10種類以上のオープンソースLLMを一覧で確認できます
この記事について:中国のDeepSeek社が開発したDeepSeek R1は、OpenAIのo1に匹敵する推論性能を持ちながら完全オープンソースで公開されたAIモデルです。本記事では、Windows・macOS・Linux・Android・iPhoneのすべてのプラットフォームに対してDeepSeek R1をローカルインストールする具体的な手順を、初心者にも分かりやすく解説します。一度インストールすれば、クラウドへのデータ送信なし・月額費用なしで最高性能のAIを手元で動かすことができます。
DeepSeek R1とは?なぜ今注目されているのか
DeepSeek R1は2026年にDeepSeek社がリリースした大規模言語モデルで、数学・コーディング・論理推論において特に優秀な成績を収めています。最大の特徴は、GPT-4やClaude 3.5 Sonnetに匹敵する性能を持ちながら、完全なオープンソースとして無料公開されている点です。モデルサイズも1.5Bから671Bまで幅広く用意されており、低スペックのPCからハイエンドサーバーまで対応しています。
ローカルで動かすことのメリットは大きく3つあります。第一にプライバシーの完全保護です。会社の機密情報・個人情報・医療データなどをクラウドに送信する必要がなくなります。第二にランニングコストゼロです。ChatGPT Plusのような月額費用が一切かかりません。第三にオフライン利用です。インターネット接続がない環境でもAIを活用できます。
プラットフォーム別の推奨スペックとモデル選択
デバイス別 推奨DeepSeek R1モデル一覧
| デバイス | VRAM/RAM | 推奨モデル | 応答速度 |
|---|---|---|---|
| RTX 4090 PC | 24GB VRAM | DeepSeek-R1-32B | 40+tok/s |
| RTX 3080/4080 PC | 10-16GB | DeepSeek-R1-14B | 25+tok/s |
| MacBook Pro M3/M4 | 18-36GB | DeepSeek-R1-14B | 30+tok/s |
| 一般ノートPC (8GB RAM) | 8GB RAM | DeepSeek-R1-7B | 8-15tok/s |
| Android (RAM 8GB以上) | 8GB RAM | DeepSeek-R1-1.5B | 5-10tok/s |
| iPhone 15 Pro以降 | 8GB RAM | DeepSeek-R1-1.5B | 8-15tok/s |
Windows へのインストール方法(Ollama使用)
WindowsへのDeepSeek R1インストールは、Ollamaを使う方法が最もシンプルです。Ollamaはローカルでのllmの実行を簡単にするオープンソースツールで、コマンド一つでモデルの取得・起動が可能です。
1 Ollamaをダウンロード・インストール
公式サイト ollama.com からWindows版インストーラーをダウンロードします。インストールは通常のWindowsアプリと同様にウィザードに従うだけです。インストール完了後、タスクバーのシステムトレイにOllamaのアイコンが表示されます。
必要環境:Windows 10/11(64ビット)、RAM 8GB以上、ストレージ空き 10GB以上
2 コマンドプロンプトでモデルを取得
Windowsのコマンドプロンプト(cmd)またはPowerShellを開き、以下のコマンドを実行します。スペックに合わせてモデルサイズを選択してください。
# 7Bモデル(RAM 8GB以上推奨)
ollama pull deepseek-r1:7b
# 14Bモデル(RAM 16GB以上推奨)
ollama pull deepseek-r1:14b
# 1.5Bモデル(低スペックPC向け)
ollama pull deepseek-r1:1.5b
ダウンロードサイズ:1.5B=約1.1GB、7B=約4.7GB、14B=約9.0GB。Wi-Fi環境での実行を推奨します。
3 モデルを起動してチャット開始
# チャット起動
ollama run deepseek-r1:7b
# Web UIで使う場合(Open WebUI)
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main
Open WebUIを使うと、ブラウザからChatGPTライクなインターフェースでDeepSeek R1を使えます。Dockerが必要です。
macOSへのインストール方法(Apple Silicon最適化)
MacはApple SiliconのM1〜M4チップが搭載されており、統合メモリアーキテクチャのおかげでGPUとCPUがメモリを共有します。これにより、同じメモリ容量でも専用グラフィックスカードよりも高速にLLMを実行できます。MacBook Pro M3 Pro(18GBメモリ)でDeepSeek-R1-14Bが快適に動作します。
1 Homebrewでollamaをインストール
# Homebrewがない場合はまずインストール
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# Ollamaをインストール
brew install ollama
# Ollamaサービスを起動
ollama serve
または ollama.com からmacOS版のdmgファイルをダウンロードしてインストールすることも可能です。
2 DeepSeek R1モデルをダウンロード&実行
# Apple Silicon最適化版(M1〜M4に最適)
ollama pull deepseek-r1:14b
# より高性能な32Bモデル(M3 Max/M4 Max推奨)
ollama pull deepseek-r1:32b
# 起動
ollama run deepseek-r1:14b
MacBook Pro M3 Pro(18GB)でDeepSeek-R1-14Bは約30トークン/秒で動作します。日本語の長文生成も非常にスムーズです。
Linux(Ubuntu)へのインストール方法
Linuxは開発者や研究者に人気のプラットフォームです。NVIDIAのGPUを搭載したLinuxマシンでは、CUDAアクセラレーションにより最高の推論速度を実現できます。
Ubuntu/Debian系での完全インストール手順
# Step 1: Ollamaをインストール(公式スクリプト)
curl -fsSL https://ollama.com/install.sh | sh
# Step 2: Ollamaサービスを確認
systemctl status ollama
# Step 3: DeepSeek R1をダウンロード
ollama pull deepseek-r1:14b
# Step 4: 起動(ターミナルチャット)
ollama run deepseek-r1:14b
# Step 5: APIサーバーとして起動(ポート11434)
OLLAMA_HOST=0.0.0.0 ollama serve
NVIDIA GPU使用の場合はCUDAドライバー(12.x以上)が必要です。AMD GPUはROCmに対応しています。
AndroidスマートフォンへのDeepSeek R1インストール
Androidスマートフォンで動かす場合は、軽量なDeepSeek-R1-1.5Bモデルが現実的です。RAM 6GB以上のフラッグシップモデル(Samsung Galaxy S24/S25、Google Pixel 9など)で動作します。
方法1 Termux + Ollamaを使う方法(推奨)
# Termuxをインストール(F-Droidから推奨)
# https://f-droid.org/packages/com.termux/
# Termuxを起動してパッケージを更新
pkg update && pkg upgrade
# Ollamaをインストール
pkg install ollama
# DeepSeek R1 1.5Bをダウンロード(約1.1GB)
ollama pull deepseek-r1:1.5b
# 起動
ollama run deepseek-r1:1.5b
Galaxy S24 Ultra(12GB RAM)でDeepSeek-R1-1.5Bは5-8トークン/秒で動作します。
方法2 PocketPal AIアプリを使う方法(初心者向け)
技術的な操作が不要な方には、PocketPal AIアプリが最適です。Google Playからインストール後、アプリ内でDeepSeek R1-1.5Bを選択してダウンロードするだけです。
- ・コマンド操作不要
- ・GUI付きチャット画面
- ・モデル管理が簡単
- ・1.5B/3Bモデルのみ
- ・RAM 6GB以上推奨
- ・ストレージ3GB必要
iPhoneへのDeepSeek R1インストール方法
iPhoneでDeepSeek R1を動かすにはApple SiliconのGPUアクセラレーションを活用します。iPhone 12以降(A14 Bionic以降)で動作しますが、iPhone 15 Pro(A17 Pro)以降での使用を強く推奨します。
1 Off Grid アプリを使う方法(最も簡単)
App Storeで「Off Grid」を検索してインストールします。アプリを開き「モデルを追加」→「DeepSeek」を選択してDeepSeek-R1-1.5Bをダウンロードします。
2 MobileVLM / LLM Farm(代替アプリ)
App Storeで「LLM Farm」や「MobileVLM」を検索してもDeepSeek R1の軽量版を動かすことができます。いずれもllama.cppベースで動作します。
iPhone 16 Pro Max(8GB RAM)でDeepSeek-R1-7Bが15-20トークン/秒で動作します。長文の推論も快適に処理できます。
よくあるトラブルと解決方法
❌ 問題:モデルのダウンロードが途中で止まる
HuggingFaceへの接続が不安定な場合に発生します。VPN07を使ってより安定した接続に切り替えるか、リトライコマンド(同じollama pullコマンドを再実行)で再開できます。
⚠️ 問題:動作が非常に遅い
スペックに対してモデルサイズが大きすぎる可能性があります。より小さなモデル(1.5B→7B)を選択してください。また、Ollamaの環境変数でGPUを明示的に指定することで速度が改善する場合があります。
✅ 問題:日本語の出力品質が低い
DeepSeek R1は英語中心のモデルですが、システムプロンプトで「必ず日本語で回答してください」と指定することで日本語出力を改善できます。また、7B以上のモデルは日本語性能が大幅に向上します。
モデルを高速ダウンロードするための接続最適化
DeepSeek R1のモデルファイルはHugging Face(米国サーバー)またはModelScope(中国サーバー)から配信されています。回線状況によってダウンロード速度が大きく異なります。特に大きなモデル(14B以上)は数GB〜数十GBのダウンロードが必要で、接続品質が重要になります。
💡 高速ダウンロードのヒント
- 深夜帯(23時〜6時)のダウンロードは回線混雑が少なく高速
- 有線LAN接続を使用するとWi-Fiより安定した速度を確保
- VPN07の1000Mbps高速回線を使うとHuggingFaceへの接続が大幅に安定
- ModelScopeミラーを使う:
OLLAMA_MODELS=modelscope ollama pull deepseek-r1:7b
DeepSeek R1などのAIモデルをまとめて比較・ダウンロード
10種類以上のオープンソースLLMを一覧で確認できます
VPN07:AIモデルを安定・高速にダウンロード
10年以上の実績・IEPL専用回線・世界70カ国対応
DeepSeek R1などの大型LLMモデルのダウンロードにはHuggingFaceへの安定接続が不可欠です。VPN07の1000Mbps超高速専用回線なら、14Bモデル(9GB)もわずか数分でダウンロード完了。さらに海外のAI APIへの接続も最適化されます。月額$1.5・30日間返金保証で安心してお試しいただけます。