開源大語言模型下載中心
精選10款主流開源 LLM,含下載連結、安裝教程與硬體配置建議
🚀 快速開始:安裝 Ollama,3步執行任意模型
無需帳號,資料不離本機 · MacBook / Mac mini / Windows / Linux 均支援
1
brew install ollama
curl -fsSL https://ollama.com/install.sh | sh
irm https://ollama.com/install.ps1 | iex
2
ollama pull qwen3
3
ollama run qwen3
依使用場景篩選
精選開源模型
硬體配置參考
依顯示卡顯存選擇合適的模型,顯存越大可執行的模型參數量越大
| 顯示卡顯存 | 推薦模型 |
|---|---|
| 4 GB | Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B |
| 8 GB | Qwen3-8B Phi-4 (14B量化) GLM-9B |
| 16 GB | DeepSeek-R1-14B Qwen3-14B Yi-34B量化 |
| 24 GB+ | DeepSeek-R1-32B Qwen3-32B Mistral-22B |
提示:所有模型均可透過 Ollama 一鍵下載執行,命令格式:ollama pull 模型名
模型天梯對比
2026年3月 · 所有模型統一標準對比 · 進度條滿格 = 該項最高分
| 模型 |
MMLU-Pro
綜合知識
|
GPQA Diamond
科學推理
|
SWE-Bench
程式修復
|
Arena Elo
人類偏好
|
顯存 | |
|---|---|---|---|---|---|---|
|
S
綜合旗艦 — 接近頂級閉源模型水準
|
||||||
| S |
Qwen 3.5
397B/17B · 阿里巴巴
|
84.6%
|
82.1%
|
62.5%
|
1451
|
8GB+ |
| S |
DeepSeek-R1
685B/37B · 深度求索
|
84.0%
|
85.3%
|
49.2%
|
1420
|
16GB+ |
| S |
智谱 GLM-5
744B/40B · 智谱AI
|
70.4%
|
86.0%
|
77.8%
|
1452
|
24GB+ |
|
A
高效能實用 — 旗艦級能力,硬體需求相對可控
|
||||||
| A |
Llama 4 Maverick
400B/17B · Meta
|
83.2%
|
78.5%
|
55.8%
|
1320
|
8GB+ |
| A |
Mistral Large 3
675B/41B · Mistral AI
|
82.8%
|
79.3%
|
54.1%
|
1315
|
24GB+ |
|
B
消費級旗艦 — 單張消費顯卡可跑,綜合能力出色
|
||||||
| B |
Llama 4 Scout
109B/17B · Meta · 10M上下文
|
78.5%
|
74.2%
|
48.5%
|
1280
|
8GB |
| B |
Gemma 3 27B
27B · Google
|
67.5%
|
42.4%
|
35.2%
|
1220
|
16GB |
|
C
輕量高效 — 4–8GB 顯存可執行,邊緣/低規首選
|
||||||
| C |
Phi-4
14B · Microsoft · MIT
|
75.2%
|
56.1%
|
41.3%
|
1200
|
8GB |
| C |
Yi-1.5-34B
34B · 零一万物
|
63.1%
|
40.2%
|
31.5%
|
1140
|
16GB |
| C |
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
|
58.3%
|
38.5%
|
28.1%
|
1150
|
6GB |
MMLU-Pro 综合知识推理
GPQA Diamond 博士級科學
SWE-Bench 程式修復(滿格=77.8%)
Arena Elo 人類偏好投票(滿格=1500)
数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各模型官方報告(2026年3月)· 部分模型分數為社群測試估算
S
綜合旗艦
接近或超越頂級閉源模型,硬體需求高
智谱 GLM-5
Apache 2.0
744B 总 / 40B 激活 · 24GB+
Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
程式第一
國產晶片
DeepSeek-R1
MIT
685B 总 / 37B 激活 · 16GB+
MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
推理最強
數學第一
Qwen 3.5
Apache 2.0
397B 总 / 17B 激活 · 8GB+
Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
中文第一
201語言
A
高效能實用
旗艦級能力,硬體需求相對可控
Llama 4 Maverick
Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1M上下文
最大生態
Mistral Large 3
Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
歐洲合規
多語言強
B
消費級旗艦
單張消費顯卡可跑,綜合能力出色
Llama 4 Scout
Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
上下文
10M
10M超長上下文
單GPU可跑
Gemma 3 27B
Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
消費卡最強
多模态
相關教程文章
DeepSeek R1
安裝教程
DeepSeek R1使用教學:國產最強推理AI模型
DeepSeek R1推理能力媲美GPT-4,詳解使用方法、R1與V3區別、本機部署與API調用完整指南。
閱讀更多 →
Qwen 3.5
Ollama 教學
Ollama 安裝 Qwen3.5:Windows/Mac/Linux 一鍵本地 AI
三行指令在 Windows/macOS/Linux 跑 Qwen3.5,搭配 Open WebUI 圖形介面,完整 2026 教學。
閱讀更多 →
Qwen 3.5
iOS 教學
iPhone 安裝 Qwen3.5 教學:iOS 離線 AI 本機部署
LLM Farm / PocketPal 離線部署 Qwen3.5-2B/4B,無需網路、完全私密,iPhone 12 以上均可執行。
閱讀更多 →
Qwen 3.5
Android 教學
Android 手機跑 Qwen3.5:Termux 免費本機 AI 部署
Termux + llama.cpp 離線部署 Qwen3.5-2B,PocketPal 圖形介面一鍵安裝,三星 Galaxy 親測可行。
閱讀更多 →