Microsoft Phi-4 インストール【全OS・スマホ対応】無料LLM
Phi-4などの高性能LLMをまとめて比較・ダウンロード
Microsoft・Google・Metaなど10種類以上のAIモデルを一覧で確認
この記事について:MicrosoftのPhi-4は、14Bパラメータという小規模でありながら、数学・コーディング・論理推論でGPT-4o miniを大幅に上回る性能を誇るオープンソースAIです。「少ないリソースで最大のパフォーマンス」を実現するPhi思想の集大成であり、8GB VRAMのGPUでも快適に動作します。本記事では、Windows・macOS・Linux・Android・iPhoneへのPhi-4インストール手順を完全解説します。
Microsoft Phi-4とは?小型でも最強のLLMの実力
Phi-4はMicrosoft Researchが開発したSLM(Small Language Model)の最新世代です。14Bという比較的小さなモデルサイズながら、丁寧にキュレーションされた高品質なトレーニングデータと革新的な学習手法により、数学のベンチマーク(MATH、HumanEval等)でGPT-4oに匹敵するスコアを達成しています。
🏆 Phi-4のベンチマーク成績(14B以下モデル比較)
WindowsへのPhi-4インストール(Ollama + VS Code)
Phi-4はWindowsと特に相性が良く、MicrosoftのGitHub Copilotや VS Code拡張機能とも連携できます。OllamaによるスタンドアロンインストールとAI Toolkitを使った方法の両方を解説します。
方法1 Ollamaで簡単インストール
# コマンドプロンプト or PowerShellを開く
# Phi-4(14B・Q4量子化版・推奨)
ollama pull phi4
# Phi-4 Mini(軽量版・3.8B・スマホ向け)
ollama pull phi4-mini
# チャット起動
ollama run phi4
# コーディング専用プロンプトで起動
ollama run phi4 "あなたはプロのPythonエンジニアです。"
RTX 3060(12GB VRAM)でPhi-4はQ4量子化で35-45トークン/秒の高速推論。コード生成が非常にスムーズです。
方法2 VS Code AI Toolkit(開発者向け最強ツール)
VS CodeにMicrosoftが公式提供する「AI Toolkit」拡張機能をインストールすると、Phi-4を直接コードエディタから使えます。コード補完・レビュー・デバッグが一体化した最強の開発環境が構築できます。
VS Codeを開き、拡張機能で「AI Toolkit for VS Code」を検索・インストール
サイドバーのAI Toolkitパネルを開き「Models」→「microsoft/phi-4」を選択
「Download」をクリックしてモデルをローカルに取得後、Playgroundでテスト
macOSへのPhi-4インストール
MacでのPhi-4はApple SiliconのANE(Apple Neural Engine)とGPUを組み合わせて高速に動作します。特にM2/M3チップとの相性が良く、14Bモデルが流暢なスピードで推論を行います。
Homebrew + Ollamaでのインストール
# Ollamaのインストール
brew install ollama
brew services start ollama
# Phi-4をダウンロード(約8.5GB)
ollama pull phi4
# Phi-4 Miniをダウンロード(約2.5GB)
ollama pull phi4-mini
# チャット起動(日本語対応)
ollama run phi4
# コーディング問題を解いてみる
ollama run phi4 "フィボナッチ数列を生成するPythonコードを書いて"
MacBook Pro M3 Pro(18GB)でPhi-4は40+トークン/秒。Qwen3.5-14BやLlama 3.1-8Bより高速で動作します。
Jan.ai(GUIアプリ・Mac推奨)
Jan.aiはMac・Windows・Linux対応のオープンソースAIデスクトップアプリです。アプリ内でPhi-4を検索してダウンロードするだけで、ChatGPTライクなUIでPhi-4を使えます。
jan.aiから無料ダウンロード。インストール後、モデルハブで「phi-4」を検索してダウンロード(約8.5GB)。
LinuxへのPhi-4インストール(サーバー・開発環境)
Ubuntu/Debian系 完全インストール手順
# Ollamaのインストール
curl -fsSL https://ollama.com/install.sh | sh
# Phi-4をダウンロード(14B・Q4量子化・約8.5GB)
ollama pull phi4
# Phi-4 Miniをダウンロード(3.8B・約2.5GB)
ollama pull phi4-mini
# コーディングアシスタントとして起動
ollama run phi4
# REST APIとして公開
OLLAMA_HOST=0.0.0.0:11434 ollama serve
# APIテスト
curl http://localhost:11434/api/chat -d '{
"model": "phi4",
"messages": [{"role": "user", "content": "Hello!"}]
}'
RTX 3060(12GB)でPhi-4(Q4)は40+tok/s。同サイズのモデルの中で最高水準のコーディング性能を発揮します。
AndroidへのPhi-4インストール
AndroidスマートフォンではフルサイズのPhi-4(14B)の実行は難しいですが、Phi-4 Mini(3.8B)なら8GB RAM以上のフラッグシップモデルで快適に動作します。コード補完・数学問題解決など、外出先での軽量コーディングアシスタントとして非常に有用です。
方法1 Termux + Ollama(Phi-4 Mini推奨)
# F-DroidからTermuxをインストール後
pkg update && pkg upgrade -y
pkg install ollama
# Phi-4 Mini(3.8B・スマホ最適)
ollama pull phi4-mini
ollama run phi4-mini
# より軽量なPhi-3 Mini(代替)
ollama pull phi3:mini
ollama run phi3:mini
方法2 PocketPal AI(初心者向けGUI)
Google PlayでPocketPal AIをインストールし、モデル一覧からPhi-4 Miniを選択・ダウンロードします。コマンド操作なしで利用開始できます。
iPhoneへのPhi-4インストール
iPhoneではPhi-4 Mini(3.8B)を使うことで、iPhone 13以降で快適なコーディングアシスタント体験が得られます。Apple Silicon(A15〜A18)のNeural Engineが小型モデルの推論を効率的に処理します。
推奨 Off Grid アプリ(App Store)
App StoreでOff Gridをダウンロードし、モデル一覧から「Phi-4 Mini」を選択してダウンロードします。Phi-4 Miniはコーディング特化のため、プログラミング問題・算数・ロジック問題に特に強みを発揮します。
💡 iPhoneでのPhi-4活用例
- 外出先でコードレビュー・バグ修正の相談
- 数学の試験問題・パズルの解き方を解説
- 英語・日本語のロジカルな文章作成支援
- プライバシーを守りながらビジネス文書の下書き作成
Phi-4 vs 他の小型モデル:コーディング性能比較
Phi-4 14B - コーディング王者
2. Qwen3.5-14B
HumanEval 75.6%多言語対応が強み。日本語のビジネス文書・チャット用途に最適。コーディングもPhi-4に次ぐ性能。
3. Gemma 3 12B
HumanEval 71.3%Googleの最適化技術により低メモリで動作。マルチモーダル機能(画像理解)が強み。
4. Llama 3.1-8B
HumanEval 68.9%最も普及しているオープンソースモデル。エコシステムが充実しており、ツール連携が豊富。
Phi-4などの高性能LLMをまとめて比較・ダウンロード
10種類以上のオープンソースLLMを一覧で確認できます
VPN07:Phi-4を高速ダウンロードして開発環境を強化
10年以上の実績・IEPL専用回線・世界70カ国対応
Phi-4のモデルはHugging FaceおよびMicrosoft Azure経由で配信されます。安定した高速回線でのダウンロードが作業効率を左右します。VPN07の1000Mbps専用回線なら、8.5GBのPhi-4モデルを数分でダウンロード完了。GitHubやDockerHubへのアクセスも最適化され、開発環境構築がスムーズになります。