開源大語言模型下載中心

精選10款主流開源 LLM,含下載連結、安裝教程與硬體配置建議

🚀 快速開始:安裝 Ollama,3步執行任意模型

無需帳號,資料不離本機 · MacBook / Mac mini / Windows / Linux 均支援

1
brew install ollama
2
ollama pull qwen3
3
ollama run qwen3

依使用場景篩選

精選開源模型

DeepSeek-R1

深度求索
MIT
671B
參數量
16GB+
最低顯存
★★★★★
推理能力

全球頂尖推理模型,數學與程式能力媲美閉源旗艦,MoE架構高效部署

日常對話 程式開發 文件處理
ollama pull deepseek-r1

Qwen 3.5

阿里巴巴
Apache 2.0
0.6B~235B
參數量
4GB+
最低顯存
★★★★★
中文能力

中文理解全球第一,參數規模涵蓋超低規到旗艦,適合各類硬體

日常對話 程式開發 文件處理 低規設備
ollama pull qwen3

MiniMax M2

MiniMax
CC-BY-NC
456B
參數量
24GB+
最低顯存
★★★★☆
推理速度

Sparse MoE架構極速推理,低耗能,搭配 OpenClaw 實現24小時本地AI助理

日常對話 文件處理
huggingface-cli download MiniMaxAI/MiniMax-M1-40k

智谱 GLM

智谱AI
Apache 2.0
9B~32B
參數量
8GB+
最低顯存
★★★★☆
程式能力

清華系旗艦開源模型,程式與工具呼叫領先,國內部署生態完善

日常對話 程式開發 文件處理
ollama pull glm4

Llama 4

Meta
Llama 4
17B~400B
參數量
8GB+
最低顯存
★★★★★
生態成熟

Meta旗艦開源系列,全球最大開源生態,Scout/Maverick多尺寸可選

日常對話 程式開發
ollama pull llama4

Mistral Large 2

Mistral AI
MRL 2.0
123B
參數量
24GB+
最低顯存
★★★★☆
多語言

歐洲頂尖開源模型,程式與多語言能力出色,隱私合規性優秀

日常對話 程式開發
ollama pull mistral-large

Gemma 3

Google
Gemma ToU
1B~27B
參數量
4GB+
最低顯存
★★★★☆
輕量高效

Google開源輕量模型,4GB顯存即可執行1B版本,低規設備首選

日常對話 低規設備
ollama pull gemma3

Phi-4

Microsoft
MIT
14B
參數量
8GB
最低顯存
★★★★★
性價比

微軟精密小模型,14B參數能力超越同量級競品,MIT協議可商用

程式開發 低規設備
ollama pull phi4

MiniCPM

清华 / 面壁智能
Apache 2.0
3B~4B
參數量
4GB
最低顯存
★★★★☆
邊緣部署

可在手機上執行的超輕量大模型,邊緣部署首選,中文優化出色

日常對話 低規設備
ollama pull minicpm-v

Yi-34B

零一万物
Apache 2.0
34B
參數量
16GB+
最低顯存
★★★★☆
中英雙語

零一萬物旗艦開源模型,中英雙語均衡,長文件理解與創作能力出色

日常對話 文件處理
ollama pull yi:34b

硬體配置參考

依顯示卡顯存選擇合適的模型,顯存越大可執行的模型參數量越大

顯示卡顯存 推薦模型
4 GB Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B
8 GB Qwen3-8B Phi-4 (14B量化) GLM-9B
16 GB DeepSeek-R1-14B Qwen3-14B Yi-34B量化
24 GB+ DeepSeek-R1-32B Qwen3-32B Mistral-22B

提示:所有模型均可透過 Ollama 一鍵下載執行,命令格式:ollama pull 模型名

模型天梯對比

2026年3月 · 所有模型統一標準對比 · 進度條滿格 = 該項最高分

模型 MMLU-Pro
綜合知識
GPQA Diamond
科學推理
SWE-Bench
程式修復
Arena Elo
人類偏好
顯存
S 綜合旗艦 — 接近頂級閉源模型水準
S
Qwen 3.5
397B/17B · 阿里巴巴
84.6%
82.1%
62.5%
1451
8GB+
S
DeepSeek-R1
685B/37B · 深度求索
84.0%
85.3%
49.2%
1420
16GB+
S
智谱 GLM-5
744B/40B · 智谱AI
70.4%
86.0%
77.8%
1452
24GB+
A 高效能實用 — 旗艦級能力,硬體需求相對可控
A
Llama 4 Maverick
400B/17B · Meta
83.2%
78.5%
55.8%
1320
8GB+
A
Mistral Large 3
675B/41B · Mistral AI
82.8%
79.3%
54.1%
1315
24GB+
B 消費級旗艦 — 單張消費顯卡可跑,綜合能力出色
B
Llama 4 Scout
109B/17B · Meta · 10M上下文
78.5%
74.2%
48.5%
1280
8GB
B
Gemma 3 27B
27B · Google
67.5%
42.4%
35.2%
1220
16GB
C 輕量高效 — 4–8GB 顯存可執行,邊緣/低規首選
C
Phi-4
14B · Microsoft · MIT
75.2%
56.1%
41.3%
1200
8GB
C
Yi-1.5-34B
34B · 零一万物
63.1%
40.2%
31.5%
1140
16GB
C
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
58.3%
38.5%
28.1%
1150
6GB
MMLU-Pro 综合知识推理
GPQA Diamond 博士級科學
SWE-Bench 程式修復(滿格=77.8%)
Arena Elo 人類偏好投票(滿格=1500)

数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各模型官方報告(2026年3月)· 部分模型分數為社群測試估算

S
綜合旗艦 接近或超越頂級閉源模型,硬體需求高
智谱 GLM-5 Apache 2.0
744B 总 / 40B 激活 · 24GB+ Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
程式第一 國產晶片
DeepSeek-R1 MIT
685B 总 / 37B 激活 · 16GB+ MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
推理最強 數學第一
Qwen 3.5 Apache 2.0
397B 总 / 17B 激活 · 8GB+ Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
中文第一 201語言
A
高效能實用 旗艦級能力,硬體需求相對可控
Llama 4 Maverick Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1M上下文 最大生態
Mistral Large 3 Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
歐洲合規 多語言強
B
消費級旗艦 單張消費顯卡可跑,綜合能力出色
Llama 4 Scout Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
上下文
10M
10M超長上下文 單GPU可跑
Gemma 3 27B Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
消費卡最強 多模态

下載大型模型,網速是關鍵

從 Hugging Face 下載數十GB模型檔案,需要穩定高速的境外網路

¥9/月
超低月費
1000Mbps
千兆頻寬
70+国家
全球节点
30天
退款保證

相關教程文章

月費$1.5 · 營運十年
免費試用 VPN07