VPN07

DeepSeek R1 インストール完全ガイド【Windows/Mac/Android/iPhone】

2026-03-05 約15分で読める DeepSeek R1 ローカルAI 全プラットフォーム
🤖

DeepSeek R1などのAIモデルをまとめて比較・ダウンロード

10種類以上のオープンソースLLMを一覧で確認できます

モデルを見る →

この記事について:中国のDeepSeek社が開発したDeepSeek R1は、OpenAIのo1に匹敵する推論性能を持ちながら完全オープンソースで公開されたAIモデルです。本記事では、Windows・macOS・Linux・Android・iPhoneのすべてのプラットフォームに対してDeepSeek R1をローカルインストールする具体的な手順を、初心者にも分かりやすく解説します。一度インストールすれば、クラウドへのデータ送信なし・月額費用なしで最高性能のAIを手元で動かすことができます。

DeepSeek R1とは?なぜ今注目されているのか

DeepSeek R1は2026年にDeepSeek社がリリースした大規模言語モデルで、数学・コーディング・論理推論において特に優秀な成績を収めています。最大の特徴は、GPT-4やClaude 3.5 Sonnetに匹敵する性能を持ちながら、完全なオープンソースとして無料公開されている点です。モデルサイズも1.5Bから671Bまで幅広く用意されており、低スペックのPCからハイエンドサーバーまで対応しています。

671B
最大パラメータ数
無料
オープンソース
1.5B〜
軽量版から選択可
o1級
推論性能

ローカルで動かすことのメリットは大きく3つあります。第一にプライバシーの完全保護です。会社の機密情報・個人情報・医療データなどをクラウドに送信する必要がなくなります。第二にランニングコストゼロです。ChatGPT Plusのような月額費用が一切かかりません。第三にオフライン利用です。インターネット接続がない環境でもAIを活用できます。

プラットフォーム別の推奨スペックとモデル選択

デバイス別 推奨DeepSeek R1モデル一覧

デバイス VRAM/RAM 推奨モデル 応答速度
RTX 4090 PC 24GB VRAM DeepSeek-R1-32B 40+tok/s
RTX 3080/4080 PC 10-16GB DeepSeek-R1-14B 25+tok/s
MacBook Pro M3/M4 18-36GB DeepSeek-R1-14B 30+tok/s
一般ノートPC (8GB RAM) 8GB RAM DeepSeek-R1-7B 8-15tok/s
Android (RAM 8GB以上) 8GB RAM DeepSeek-R1-1.5B 5-10tok/s
iPhone 15 Pro以降 8GB RAM DeepSeek-R1-1.5B 8-15tok/s

Windows へのインストール方法(Ollama使用)

WindowsへのDeepSeek R1インストールは、Ollamaを使う方法が最もシンプルです。Ollamaはローカルでのllmの実行を簡単にするオープンソースツールで、コマンド一つでモデルの取得・起動が可能です。

1 Ollamaをダウンロード・インストール

公式サイト ollama.com からWindows版インストーラーをダウンロードします。インストールは通常のWindowsアプリと同様にウィザードに従うだけです。インストール完了後、タスクバーのシステムトレイにOllamaのアイコンが表示されます。

必要環境:Windows 10/11(64ビット)、RAM 8GB以上、ストレージ空き 10GB以上

2 コマンドプロンプトでモデルを取得

Windowsのコマンドプロンプト(cmd)またはPowerShellを開き、以下のコマンドを実行します。スペックに合わせてモデルサイズを選択してください。

# 7Bモデル(RAM 8GB以上推奨)
ollama pull deepseek-r1:7b

# 14Bモデル(RAM 16GB以上推奨)
ollama pull deepseek-r1:14b

# 1.5Bモデル(低スペックPC向け)
ollama pull deepseek-r1:1.5b

ダウンロードサイズ:1.5B=約1.1GB、7B=約4.7GB、14B=約9.0GB。Wi-Fi環境での実行を推奨します。

3 モデルを起動してチャット開始

# チャット起動
ollama run deepseek-r1:7b

# Web UIで使う場合(Open WebUI)
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main

Open WebUIを使うと、ブラウザからChatGPTライクなインターフェースでDeepSeek R1を使えます。Dockerが必要です。

macOSへのインストール方法(Apple Silicon最適化)

MacはApple SiliconのM1〜M4チップが搭載されており、統合メモリアーキテクチャのおかげでGPUとCPUがメモリを共有します。これにより、同じメモリ容量でも専用グラフィックスカードよりも高速にLLMを実行できます。MacBook Pro M3 Pro(18GBメモリ)でDeepSeek-R1-14Bが快適に動作します。

1 Homebrewでollamaをインストール

# Homebrewがない場合はまずインストール
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# Ollamaをインストール
brew install ollama

# Ollamaサービスを起動
ollama serve

または ollama.com からmacOS版のdmgファイルをダウンロードしてインストールすることも可能です。

2 DeepSeek R1モデルをダウンロード&実行

# Apple Silicon最適化版(M1〜M4に最適)
ollama pull deepseek-r1:14b

# より高性能な32Bモデル(M3 Max/M4 Max推奨)
ollama pull deepseek-r1:32b

# 起動
ollama run deepseek-r1:14b

MacBook Pro M3 Pro(18GB)でDeepSeek-R1-14Bは約30トークン/秒で動作します。日本語の長文生成も非常にスムーズです。

Linux(Ubuntu)へのインストール方法

Linuxは開発者や研究者に人気のプラットフォームです。NVIDIAのGPUを搭載したLinuxマシンでは、CUDAアクセラレーションにより最高の推論速度を実現できます。

Ubuntu/Debian系での完全インストール手順

# Step 1: Ollamaをインストール(公式スクリプト)
curl -fsSL https://ollama.com/install.sh | sh

# Step 2: Ollamaサービスを確認
systemctl status ollama

# Step 3: DeepSeek R1をダウンロード
ollama pull deepseek-r1:14b

# Step 4: 起動(ターミナルチャット)
ollama run deepseek-r1:14b

# Step 5: APIサーバーとして起動(ポート11434)
OLLAMA_HOST=0.0.0.0 ollama serve

NVIDIA GPU使用の場合はCUDAドライバー(12.x以上)が必要です。AMD GPUはROCmに対応しています。

AndroidスマートフォンへのDeepSeek R1インストール

Androidスマートフォンで動かす場合は、軽量なDeepSeek-R1-1.5Bモデルが現実的です。RAM 6GB以上のフラッグシップモデル(Samsung Galaxy S24/S25、Google Pixel 9など)で動作します。

方法1 Termux + Ollamaを使う方法(推奨)

# Termuxをインストール(F-Droidから推奨)
# https://f-droid.org/packages/com.termux/

# Termuxを起動してパッケージを更新
pkg update && pkg upgrade

# Ollamaをインストール
pkg install ollama

# DeepSeek R1 1.5Bをダウンロード(約1.1GB)
ollama pull deepseek-r1:1.5b

# 起動
ollama run deepseek-r1:1.5b

Galaxy S24 Ultra(12GB RAM)でDeepSeek-R1-1.5Bは5-8トークン/秒で動作します。

方法2 PocketPal AIアプリを使う方法(初心者向け)

技術的な操作が不要な方には、PocketPal AIアプリが最適です。Google Playからインストール後、アプリ内でDeepSeek R1-1.5Bを選択してダウンロードするだけです。

✅ メリット
  • ・コマンド操作不要
  • ・GUI付きチャット画面
  • ・モデル管理が簡単
⚠️ 注意点
  • ・1.5B/3Bモデルのみ
  • ・RAM 6GB以上推奨
  • ・ストレージ3GB必要

iPhoneへのDeepSeek R1インストール方法

iPhoneでDeepSeek R1を動かすにはApple SiliconのGPUアクセラレーションを活用します。iPhone 12以降(A14 Bionic以降)で動作しますが、iPhone 15 Pro(A17 Pro)以降での使用を強く推奨します。

1 Off Grid アプリを使う方法(最も簡単)

App Storeで「Off Grid」を検索してインストールします。アプリを開き「モデルを追加」→「DeepSeek」を選択してDeepSeek-R1-1.5Bをダウンロードします。

1.5Bモデル
約1.1GB
iPhone 12〜
7Bモデル
約4.7GB
iPhone 15 Pro〜
DL時間
3〜15分
Wi-Fi推奨

2 MobileVLM / LLM Farm(代替アプリ)

App Storeで「LLM Farm」や「MobileVLM」を検索してもDeepSeek R1の軽量版を動かすことができます。いずれもllama.cppベースで動作します。

iPhone 16 Pro Max(8GB RAM)でDeepSeek-R1-7Bが15-20トークン/秒で動作します。長文の推論も快適に処理できます。

よくあるトラブルと解決方法

❌ 問題:モデルのダウンロードが途中で止まる

HuggingFaceへの接続が不安定な場合に発生します。VPN07を使ってより安定した接続に切り替えるか、リトライコマンド(同じollama pullコマンドを再実行)で再開できます。

⚠️ 問題:動作が非常に遅い

スペックに対してモデルサイズが大きすぎる可能性があります。より小さなモデル(1.5B→7B)を選択してください。また、Ollamaの環境変数でGPUを明示的に指定することで速度が改善する場合があります。

✅ 問題:日本語の出力品質が低い

DeepSeek R1は英語中心のモデルですが、システムプロンプトで「必ず日本語で回答してください」と指定することで日本語出力を改善できます。また、7B以上のモデルは日本語性能が大幅に向上します。

モデルを高速ダウンロードするための接続最適化

DeepSeek R1のモデルファイルはHugging Face(米国サーバー)またはModelScope(中国サーバー)から配信されています。回線状況によってダウンロード速度が大きく異なります。特に大きなモデル(14B以上)は数GB〜数十GBのダウンロードが必要で、接続品質が重要になります。

💡 高速ダウンロードのヒント

  • 深夜帯(23時〜6時)のダウンロードは回線混雑が少なく高速
  • 有線LAN接続を使用するとWi-Fiより安定した速度を確保
  • VPN07の1000Mbps高速回線を使うとHuggingFaceへの接続が大幅に安定
  • ModelScopeミラーを使う:OLLAMA_MODELS=modelscope ollama pull deepseek-r1:7b
🤖

DeepSeek R1などのAIモデルをまとめて比較・ダウンロード

10種類以上のオープンソースLLMを一覧で確認できます

モデルを見る →

VPN07:AIモデルを安定・高速にダウンロード

10年以上の実績・IEPL専用回線・世界70カ国対応

DeepSeek R1などの大型LLMモデルのダウンロードにはHuggingFaceへの安定接続が不可欠です。VPN07の1000Mbps超高速専用回線なら、14Bモデル(9GB)もわずか数分でダウンロード完了。さらに海外のAI APIへの接続も最適化されます。月額$1.5・30日間返金保証で安心してお試しいただけます。

$1.5/月
業界最安値
1000Mbps
超高速帯域
70+国
グローバル対応
30日
返金保証

関連記事

月額$1.5 · 10年の実績
VPN07を無料で試す