VPN07

Microsoft Phi-4 インストール【全OS・スマホ対応】無料LLM

2026-03-05 約14分で読める Phi-4 Microsoft AI コーディング特化

Phi-4などの高性能LLMをまとめて比較・ダウンロード

Microsoft・Google・Metaなど10種類以上のAIモデルを一覧で確認

モデルを見る →

この記事について:MicrosoftのPhi-4は、14Bパラメータという小規模でありながら、数学・コーディング・論理推論でGPT-4o miniを大幅に上回る性能を誇るオープンソースAIです。「少ないリソースで最大のパフォーマンス」を実現するPhi思想の集大成であり、8GB VRAMのGPUでも快適に動作します。本記事では、Windows・macOS・Linux・Android・iPhoneへのPhi-4インストール手順を完全解説します。

Microsoft Phi-4とは?小型でも最強のLLMの実力

Phi-4はMicrosoft Researchが開発したSLM(Small Language Model)の最新世代です。14Bという比較的小さなモデルサイズながら、丁寧にキュレーションされた高品質なトレーニングデータと革新的な学習手法により、数学のベンチマーク(MATH、HumanEval等)でGPT-4oに匹敵するスコアを達成しています。

14B
パラメータ数
8GB
最低VRAM(Q4)
#1
14B以下コーディング
MIT
商用利用可能ライセンス

🏆 Phi-4のベンチマーク成績(14B以下モデル比較)

MATH(数学) 80.4%
HumanEval(コーディング) 82.6%
MMLU(総合知識) 78.2%

WindowsへのPhi-4インストール(Ollama + VS Code)

Phi-4はWindowsと特に相性が良く、MicrosoftのGitHub Copilotや VS Code拡張機能とも連携できます。OllamaによるスタンドアロンインストールとAI Toolkitを使った方法の両方を解説します。

方法1 Ollamaで簡単インストール

# コマンドプロンプト or PowerShellを開く
# Phi-4(14B・Q4量子化版・推奨)
ollama pull phi4

# Phi-4 Mini(軽量版・3.8B・スマホ向け)
ollama pull phi4-mini

# チャット起動
ollama run phi4

# コーディング専用プロンプトで起動
ollama run phi4 "あなたはプロのPythonエンジニアです。"

RTX 3060(12GB VRAM)でPhi-4はQ4量子化で35-45トークン/秒の高速推論。コード生成が非常にスムーズです。

方法2 VS Code AI Toolkit(開発者向け最強ツール)

VS CodeにMicrosoftが公式提供する「AI Toolkit」拡張機能をインストールすると、Phi-4を直接コードエディタから使えます。コード補完・レビュー・デバッグが一体化した最強の開発環境が構築できます。

1

VS Codeを開き、拡張機能で「AI Toolkit for VS Code」を検索・インストール

2

サイドバーのAI Toolkitパネルを開き「Models」→「microsoft/phi-4」を選択

3

「Download」をクリックしてモデルをローカルに取得後、Playgroundでテスト

macOSへのPhi-4インストール

MacでのPhi-4はApple SiliconのANE(Apple Neural Engine)とGPUを組み合わせて高速に動作します。特にM2/M3チップとの相性が良く、14Bモデルが流暢なスピードで推論を行います。

Homebrew + Ollamaでのインストール

# Ollamaのインストール
brew install ollama
brew services start ollama

# Phi-4をダウンロード(約8.5GB)
ollama pull phi4

# Phi-4 Miniをダウンロード(約2.5GB)
ollama pull phi4-mini

# チャット起動(日本語対応)
ollama run phi4

# コーディング問題を解いてみる
ollama run phi4 "フィボナッチ数列を生成するPythonコードを書いて"

MacBook Pro M3 Pro(18GB)でPhi-4は40+トークン/秒。Qwen3.5-14BやLlama 3.1-8Bより高速で動作します。

Jan.ai(GUIアプリ・Mac推奨)

Jan.aiはMac・Windows・Linux対応のオープンソースAIデスクトップアプリです。アプリ内でPhi-4を検索してダウンロードするだけで、ChatGPTライクなUIでPhi-4を使えます。

jan.aiから無料ダウンロード。インストール後、モデルハブで「phi-4」を検索してダウンロード(約8.5GB)。

LinuxへのPhi-4インストール(サーバー・開発環境)

Ubuntu/Debian系 完全インストール手順

# Ollamaのインストール
curl -fsSL https://ollama.com/install.sh | sh

# Phi-4をダウンロード(14B・Q4量子化・約8.5GB)
ollama pull phi4

# Phi-4 Miniをダウンロード(3.8B・約2.5GB)
ollama pull phi4-mini

# コーディングアシスタントとして起動
ollama run phi4

# REST APIとして公開
OLLAMA_HOST=0.0.0.0:11434 ollama serve

# APIテスト
curl http://localhost:11434/api/chat -d '{
"model": "phi4",
"messages": [{"role": "user", "content": "Hello!"}]
}'

RTX 3060(12GB)でPhi-4(Q4)は40+tok/s。同サイズのモデルの中で最高水準のコーディング性能を発揮します。

AndroidへのPhi-4インストール

AndroidスマートフォンではフルサイズのPhi-4(14B)の実行は難しいですが、Phi-4 Mini(3.8B)なら8GB RAM以上のフラッグシップモデルで快適に動作します。コード補完・数学問題解決など、外出先での軽量コーディングアシスタントとして非常に有用です。

方法1 Termux + Ollama(Phi-4 Mini推奨)

# F-DroidからTermuxをインストール後
pkg update && pkg upgrade -y
pkg install ollama

# Phi-4 Mini(3.8B・スマホ最適)
ollama pull phi4-mini
ollama run phi4-mini

# より軽量なPhi-3 Mini(代替)
ollama pull phi3:mini
ollama run phi3:mini

方法2 PocketPal AI(初心者向けGUI)

Google PlayでPocketPal AIをインストールし、モデル一覧からPhi-4 Miniを選択・ダウンロードします。コマンド操作なしで利用開始できます。

Phi-4 Mini
約2.5GB
RAM 6GB+
推奨機種
Galaxy S24〜
Pixel 9〜
推論速度
10〜15tok/s
日本語対応

iPhoneへのPhi-4インストール

iPhoneではPhi-4 Mini(3.8B)を使うことで、iPhone 13以降で快適なコーディングアシスタント体験が得られます。Apple Silicon(A15〜A18)のNeural Engineが小型モデルの推論を効率的に処理します。

推奨 Off Grid アプリ(App Store)

App StoreでOff Gridをダウンロードし、モデル一覧から「Phi-4 Mini」を選択してダウンロードします。Phi-4 Miniはコーディング特化のため、プログラミング問題・算数・ロジック問題に特に強みを発揮します。

iPhone 14 Pro(A16)
Phi-4 Mini Q4
20〜25tok/s
iPhone 16 Pro(A18 Pro)
Phi-4 Mini Q4
30〜40tok/s

💡 iPhoneでのPhi-4活用例

  • 外出先でコードレビュー・バグ修正の相談
  • 数学の試験問題・パズルの解き方を解説
  • 英語・日本語のロジカルな文章作成支援
  • プライバシーを守りながらビジネス文書の下書き作成

Phi-4 vs 他の小型モデル:コーディング性能比較

🥇

Phi-4 14B - コーディング王者

HumanEval 82.6% / MATH 80.4%
82.6%
コード生成
8GB
最低VRAM
~8.5GB
ファイルサイズ
MIT
ライセンス

2. Qwen3.5-14B

HumanEval 75.6%

多言語対応が強み。日本語のビジネス文書・チャット用途に最適。コーディングもPhi-4に次ぐ性能。

3. Gemma 3 12B

HumanEval 71.3%

Googleの最適化技術により低メモリで動作。マルチモーダル機能(画像理解)が強み。

4. Llama 3.1-8B

HumanEval 68.9%

最も普及しているオープンソースモデル。エコシステムが充実しており、ツール連携が豊富。

Phi-4などの高性能LLMをまとめて比較・ダウンロード

10種類以上のオープンソースLLMを一覧で確認できます

モデルを見る →

VPN07:Phi-4を高速ダウンロードして開発環境を強化

10年以上の実績・IEPL専用回線・世界70カ国対応

Phi-4のモデルはHugging FaceおよびMicrosoft Azure経由で配信されます。安定した高速回線でのダウンロードが作業効率を左右します。VPN07の1000Mbps専用回線なら、8.5GBのPhi-4モデルを数分でダウンロード完了。GitHubやDockerHubへのアクセスも最適化され、開発環境構築がスムーズになります。

$1.5/月
業界最安値
1000Mbps
超高速帯域
70+国
グローバル対応
30日
返金保証

関連記事

月額$1.5 · 10年の実績
VPN07を無料で試す