オープンソース LLM ダウンロードセンター

人気オープンソース LLM 10選:ダウンロードリンク・インストール手順・動作環境まとめ

🚀 クイックスタート:Ollama をインストールして3ステップで任意のモデルを実行

アカウント不要、データはすべてローカル保存 · MacBook / Mac mini / Windows / Linux 対応

1
brew install ollama
2
ollama pull qwen3
3
ollama run qwen3

用途別フィルター

注目のオープンソースモデル

DeepSeek-R1

DeepSeek AI
MIT
671B
パラメータ
16GB+
最小VRAM
★★★★★
推論性能

世界トップクラスの推論モデル。数学・コーディング性能はクローズドソース旗艦に匹敵。MoEアーキテクチャで効率的に動作。

日常会話 コーディング ドキュメント
ollama pull deepseek-r1

Qwen 3.5

Alibaba
Apache 2.0
0.6B~235B
パラメータ
4GB+
最小VRAM
★★★★★
中国語性能

中国語理解は世界一。0.6B〜235Bまで幅広いサイズでどんなハードウェアにも対応。

日常会話 コーディング ドキュメント 低スペック
ollama pull qwen3

MiniMax M2

MiniMax
CC-BY-NC
456B
パラメータ
24GB+
最小VRAM
★★★★☆
推論速度

Sparse MoEによる超高速推論・低消費電力。OpenClaw と組み合わせて24時間ローカルAIアシスタントを実現。

日常会話 ドキュメント
huggingface-cli download MiniMaxAI/MiniMax-M1-40k

智谱 GLM

Zhipu AI
Apache 2.0
9B~32B
パラメータ
8GB+
最小VRAM
★★★★☆
コーディング

清華大学系の旗艦オープンソースモデル。コーディングとツール呼び出しに優れ、国内デプロイエコシステムが充実。

日常会話 コーディング ドキュメント
ollama pull glm4

Llama 4

Meta
Llama 4
17B~400B
パラメータ
8GB+
最小VRAM
★★★★★
エコシステム

Meta旗艦オープンソースシリーズ。世界最大のオープンエコシステム。Scout/Maverick など複数サイズから選択可能。

日常会話 コーディング
ollama pull llama4

Mistral Large 2

Mistral AI
MRL 2.0
123B
パラメータ
24GB+
最小VRAM
★★★★☆
多言語

欧州トップのオープンソースモデル。コーディングと多言語性能が優れ、プライバシーコンプライアンスも高水準。

日常会話 コーディング
ollama pull mistral-large

Gemma 3

Google
Gemma ToU
1B~27B
パラメータ
4GB+
最小VRAM
★★★★☆
軽量高速

Google製軽量オープンソースモデル。4GB VRAMで1Bバージョンが動作。低スペックデバイスの第一選択。

日常会話 低スペック
ollama pull gemma3

Phi-4

Microsoft
MIT
14B
パラメータ
8GB
最小VRAM
★★★★★
コスパ

Microsoftの精密小型モデル。14Bながら同クラスの競合を凌駕。MITライセンスで商用利用可。

コーディング 低スペック
ollama pull phi4

MiniCPM

Tsinghua / ModelBest
Apache 2.0
3B~4B
パラメータ
4GB
最小VRAM
★★★★☆
エッジ実行

スマートフォンでも動く超軽量モデル。エッジデプロイの最有力候補で中国語最適化も抜群。

日常会話 低スペック
ollama pull minicpm-v

Yi-34B

01.AI
Apache 2.0
34B
パラメータ
16GB+
最小VRAM
★★★★☆
中英バランス

01.AI旗艦オープンソースモデル。中英バランスに優れ、長文ドキュメントの理解・作成能力が際立つ。

日常会話 ドキュメント
ollama pull yi:34b

動作環境・GPU別推奨モデル

GPU VRAMに合わせてモデルを選択してください。VRAM が多いほど大きなモデルを実行できます。

GPU VRAM 推奨モデル
4 GB Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B
8 GB Qwen3-8B Phi-4 (14B量化) GLM-9B
16 GB DeepSeek-R1-14B Qwen3-14B Yi-34B量化
24 GB+ DeepSeek-R1-32B Qwen3-32B Mistral-22B

ヒント:すべてのモデルは Ollama で簡単にダウンロード・実行できます。コマンド形式:ollama pull <モデル名>

モデル性能ランキング

2026年3月 · 統一ベンチマーク比較 · バー最大 = その指標の最高スコア

模型 MMLU-Pro
総合知識
GPQA Diamond
科学推論
SWE-Bench
コード修正
Arena Elo
人間選好
VRAM
S Sランク — クローズドソース最上位モデルに匹敵
S
Qwen 3.5
397B/17B · 阿里巴巴
84.6%
82.1%
62.5%
1451
8GB+
S
DeepSeek-R1
685B/37B · 深度求索
84.0%
85.3%
49.2%
1420
16GB+
S
智谱 GLM-5
744B/40B · 智谱AI
70.4%
86.0%
77.8%
1452
24GB+
A Aランク — 旗艦級の性能、ハードウェア要件は比較的抑えめ
A
Llama 4 Maverick
400B/17B · Meta
83.2%
78.5%
55.8%
1320
8GB+
A
Mistral Large 3
675B/41B · Mistral AI
82.8%
79.3%
54.1%
1315
24GB+
B Bランク — コンシューマーGPU1枚で動作、総合性能に優れる
B
Llama 4 Scout
109B/17B · Meta · 10M上下文
78.5%
74.2%
48.5%
1280
8GB
B
Gemma 3 27B
27B · Google
67.5%
42.4%
35.2%
1220
16GB
C Cランク — 4〜8GB VRAMで動作、エッジ・低スペック向け
C
Phi-4
14B · Microsoft · MIT
75.2%
56.1%
41.3%
1200
8GB
C
Yi-1.5-34B
34B · 零一万物
63.1%
40.2%
31.5%
1140
16GB
C
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
58.3%
38.5%
28.1%
1150
6GB
MMLU-Pro 総合知識推論
GPQA Diamond 博士レベルの科学推論
SWE-Bench コード修正(最大=77.8%)
Arena Elo 人間選好投票(最大=1500)

数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各モデル公式レポート(2026年3月)· 一部スコアはコミュニティテスト推定値

S
Sランク クローズドソース最上位に匹敵・超越、ハードウェア要件高め
智谱 GLM-5 Apache 2.0
744B 总 / 40B 激活 · 24GB+ Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
コーディング1位 中国チップ対応
DeepSeek-R1 MIT
685B 总 / 37B 激活 · 16GB+ MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
推論最強 数学1位
Qwen 3.5 Apache 2.0
397B 总 / 17B 激活 · 8GB+ Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
中国語1位 201言語対応
A
Aランク 旗艦級の性能でハードウェア要件は比較的抑えめ
Llama 4 Maverick Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1Mコンテキスト 最大エコシステム
Mistral Large 3 Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
EU準拠 多言語対応優秀
B
Bランク コンシューマーGPU1枚で動作、総合性能に優れる
Llama 4 Scout Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
コンテキスト
10M
10M超長コンテキスト GPU1枚で動作
Gemma 3 27B Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
コンシューマーGPU最強 多模态

LLMダウンロードには高速ネットワークが必須

Hugging Face から数十GBのモデルファイルをダウンロードするには、安定した高速の海外ネットワークが必要です

¥9/月
月額わずか
1000Mbps
ギガビット回線
70+国家
全球节点
30日
返金保証

関連チュートリアル

月額$1.5 · 10年の実績
無料体験 VPN07