オープンソース LLM ダウンロードセンター
人気オープンソース LLM 10選:ダウンロードリンク・インストール手順・動作環境まとめ
アカウント不要、データはすべてローカル保存 · MacBook / Mac mini / Windows / Linux 対応
brew install ollama
curl -fsSL https://ollama.com/install.sh | sh
irm https://ollama.com/install.ps1 | iex
ollama pull qwen3
ollama run qwen3
用途別フィルター
注目のオープンソースモデル
Llama 4
MetaMeta旗艦オープンソースシリーズ。世界最大のオープンエコシステム。Scout/Maverick など複数サイズから選択可能。
ollama pull llama4
Mistral Large 2
Mistral AI欧州トップのオープンソースモデル。コーディングと多言語性能が優れ、プライバシーコンプライアンスも高水準。
ollama pull mistral-large
Gemma 3
GoogleGoogle製軽量オープンソースモデル。4GB VRAMで1Bバージョンが動作。低スペックデバイスの第一選択。
ollama pull gemma3
Phi-4
MicrosoftMicrosoftの精密小型モデル。14Bながら同クラスの競合を凌駕。MITライセンスで商用利用可。
ollama pull phi4
MiniCPM
Tsinghua / ModelBestスマートフォンでも動く超軽量モデル。エッジデプロイの最有力候補で中国語最適化も抜群。
ollama pull minicpm-v
Yi-34B
01.AI01.AI旗艦オープンソースモデル。中英バランスに優れ、長文ドキュメントの理解・作成能力が際立つ。
ollama pull yi:34b
動作環境・GPU別推奨モデル
GPU VRAMに合わせてモデルを選択してください。VRAM が多いほど大きなモデルを実行できます。
| GPU VRAM | 推奨モデル |
|---|---|
| 4 GB | Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B |
| 8 GB | Qwen3-8B Phi-4 (14B量化) GLM-9B |
| 16 GB | DeepSeek-R1-14B Qwen3-14B Yi-34B量化 |
| 24 GB+ | DeepSeek-R1-32B Qwen3-32B Mistral-22B |
ヒント:すべてのモデルは Ollama で簡単にダウンロード・実行できます。コマンド形式:ollama pull <モデル名>
モデル性能ランキング
2026年3月 · 統一ベンチマーク比較 · バー最大 = その指標の最高スコア
| 模型 |
MMLU-Pro
総合知識
|
GPQA Diamond
科学推論
|
SWE-Bench
コード修正
|
Arena Elo
人間選好
|
VRAM | |
|---|---|---|---|---|---|---|
|
S
Sランク — クローズドソース最上位モデルに匹敵
|
||||||
| S |
Qwen 3.5
397B/17B · 阿里巴巴
|
84.6%
|
82.1%
|
62.5%
|
1451
|
8GB+ |
| S |
DeepSeek-R1
685B/37B · 深度求索
|
84.0%
|
85.3%
|
49.2%
|
1420
|
16GB+ |
| S |
智谱 GLM-5
744B/40B · 智谱AI
|
70.4%
|
86.0%
|
77.8%
|
1452
|
24GB+ |
|
A
Aランク — 旗艦級の性能、ハードウェア要件は比較的抑えめ
|
||||||
| A |
Llama 4 Maverick
400B/17B · Meta
|
83.2%
|
78.5%
|
55.8%
|
1320
|
8GB+ |
| A |
Mistral Large 3
675B/41B · Mistral AI
|
82.8%
|
79.3%
|
54.1%
|
1315
|
24GB+ |
|
B
Bランク — コンシューマーGPU1枚で動作、総合性能に優れる
|
||||||
| B |
Llama 4 Scout
109B/17B · Meta · 10M上下文
|
78.5%
|
74.2%
|
48.5%
|
1280
|
8GB |
| B |
Gemma 3 27B
27B · Google
|
67.5%
|
42.4%
|
35.2%
|
1220
|
16GB |
|
C
Cランク — 4〜8GB VRAMで動作、エッジ・低スペック向け
|
||||||
| C |
Phi-4
14B · Microsoft · MIT
|
75.2%
|
56.1%
|
41.3%
|
1200
|
8GB |
| C |
Yi-1.5-34B
34B · 零一万物
|
63.1%
|
40.2%
|
31.5%
|
1140
|
16GB |
| C |
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
|
58.3%
|
38.5%
|
28.1%
|
1150
|
6GB |
数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各モデル公式レポート(2026年3月)· 一部スコアはコミュニティテスト推定値
LLMダウンロードには高速ネットワークが必須
Hugging Face から数十GBのモデルファイルをダウンロードするには、安定した高速の海外ネットワークが必要です
関連チュートリアル
Qwen3.5-397B vs ChatGPT 徹底比較:圧倒的な差の理由
ベンチマーク・コスト・日本語性能を多角的に検証。Qwen3.5とChatGPT GPT-5.2・Claude Opusを完全解説。
詳しく見る →Qwen3.5を無料で使う:Ollama・Hugging Face 完全入門
OllamaとHugging FaceでQwen3.5を無料または低コストで実行する方法。OpenAI互換APIの設定も詳述。
詳しく見る →iPhoneでQwen3.5をオフライン実行!ローカルAI完全導入
Off Gridアプリ・MLXフレームワーク使用。iPhone 12以降対応。プライバシー完全保護でAIをローカル実行。
詳しく見る →AndroidでQwen3.5を動かす!Termux完全インストールガイド
Termux・ONNX Runtime・MLC LLM の3つの方法を詳しく解説。Galaxy・Pixel 対応。完全オフライン実行。
詳しく見る →