开源大语言模型下载中心

精选10款主流开源 LLM,含下载链接、安装教程与硬件配置建议

🚀 快速开始:安装 Ollama,3步运行任意模型

无需账号,数据不出本机 · MacBook / Mac mini / Windows / Linux 均支持

1
brew install ollama
2
ollama pull qwen3
3
ollama run qwen3

按使用场景筛选

精选开源模型

DeepSeek-R1

深度求索
MIT
671B
参数量
16GB+
最低显存
★★★★★
推理能力

全球顶尖推理模型,数学与代码能力媲美闭源旗舰,MoE架构高效部署

日常对话 代码开发 文档处理
ollama pull deepseek-r1

Qwen 3.5

阿里巴巴
Apache 2.0
0.6B~235B
参数量
4GB+
最低显存
★★★★★
中文能力

中文理解全球第一,参数规模覆盖超低配到旗舰,适合各类硬件

日常对话 代码开发 文档处理 低配设备
ollama pull qwen3

MiniMax M2

MiniMax
CC-BY-NC
456B
参数量
24GB+
最低显存
★★★★☆
推理速度

Sparse MoE架构极速推理,低能耗,配合 OpenClaw 实现24小时本地AI助手

日常对话 文档处理
huggingface-cli download MiniMaxAI/MiniMax-M1-40k

智谱 GLM

智谱AI
Apache 2.0
9B~32B
参数量
8GB+
最低显存
★★★★☆
代码能力

清华系旗舰开源模型,代码与工具调用领先,国内部署生态完善

日常对话 代码开发 文档处理
ollama pull glm4

Llama 4

Meta
Llama 4
17B~400B
参数量
8GB+
最低显存
★★★★★
生态成熟

Meta旗舰开源系列,全球最大开源生态,Scout/Maverick多尺寸可选

日常对话 代码开发
ollama pull llama4

Mistral Large 2

Mistral AI
MRL 2.0
123B
参数量
24GB+
最低显存
★★★★☆
多语言

欧洲顶尖开源模型,代码与多语言能力出色,隐私合规性优秀

日常对话 代码开发
ollama pull mistral-large

Gemma 3

Google
Gemma ToU
1B~27B
参数量
4GB+
最低显存
★★★★☆
轻量高效

Google开源轻量模型,4GB显存即可运行1B版本,低配设备首选

日常对话 低配设备
ollama pull gemma3

Phi-4

Microsoft
MIT
14B
参数量
8GB
最低显存
★★★★★
性价比

微软精密小模型,14B参数能力超越同量级竞品,MIT协议可商用

代码开发 低配设备
ollama pull phi4

MiniCPM

清华 / 面壁智能
Apache 2.0
3B~4B
参数量
4GB
最低显存
★★★★☆
端侧部署

可在手机上运行的超轻量大模型,端侧部署首选,中文优化出色

日常对话 低配设备
ollama pull minicpm-v

Yi-34B

零一万物
Apache 2.0
34B
参数量
16GB+
最低显存
★★★★☆
中英双语

零一万物旗舰开源模型,中英双语均衡,长文档理解与创作能力出色

日常对话 文档处理
ollama pull yi:34b

硬件配置参考

根据显卡显存选择合适的模型,显存越大可运行的模型参数量越大

显卡显存 推荐模型
4 GB Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B
8 GB Qwen3-8B Phi-4 (14B量化) GLM-9B
16 GB DeepSeek-R1-14B Qwen3-14B Yi-34B量化
24 GB+ DeepSeek-R1-32B Qwen3-32B Mistral-22B

提示:所有模型均可通过 Ollama 一键下载运行,命令格式:ollama pull 模型名

模型天梯对比

2026年3月 · 所有模型统一标准对比 · 进度条满格 = 该项最高分

模型 MMLU-Pro
综合知识
GPQA Diamond
科学推理
SWE-Bench
代码修复
Arena Elo
人类偏好
显存
S 综合旗舰 — 接近顶级闭源模型水平
S
Qwen 3.5
397B/17B · 阿里巴巴
84.6%
82.1%
62.5%
1451
8GB+
S
DeepSeek-R1
685B/37B · 深度求索
84.0%
85.3%
49.2%
1420
16GB+
S
智谱 GLM-5
744B/40B · 智谱AI
70.4%
86.0%
77.8%
1452
24GB+
A 高性能实用 — 旗舰级能力,硬件需求相对可控
A
Llama 4 Maverick
400B/17B · Meta
83.2%
78.5%
55.8%
1320
8GB+
A
Mistral Large 3
675B/41B · Mistral AI
82.8%
79.3%
54.1%
1315
24GB+
B 消费级旗舰 — 单张消费显卡可跑,综合能力出色
B
Llama 4 Scout
109B/17B · Meta · 10M上下文
78.5%
74.2%
48.5%
1280
8GB
B
Gemma 3 27B
27B · Google
67.5%
42.4%
35.2%
1220
16GB
C 轻量高效 — 4–8GB 显存可运行,端侧/低配首选
C
Phi-4
14B · Microsoft · MIT
75.2%
56.1%
41.3%
1200
8GB
C
Yi-1.5-34B
34B · 零一万物
63.1%
40.2%
31.5%
1140
16GB
C
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
58.3%
38.5%
28.1%
1150
6GB
MMLU-Pro 综合知识推理
GPQA Diamond 博士级科学
SWE-Bench 代码修复(满格=77.8%)
Arena Elo 人类偏好投票(满格=1500)

数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各模型官方报告(2026年3月)· 部分模型分数为社区测试估算

S
综合旗舰 接近或超越顶级闭源模型,硬件需求高
智谱 GLM-5 Apache 2.0
744B 总 / 40B 激活 · 24GB+ Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
代码第一 国产芯片
DeepSeek-R1 MIT
685B 总 / 37B 激活 · 16GB+ MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
推理最强 数学第一
Qwen 3.5 Apache 2.0
397B 总 / 17B 激活 · 8GB+ Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
中文第一 201语言
A
高性能实用 旗舰级能力,硬件需求相对可控
Llama 4 Maverick Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1M上下文 最大生态
Mistral Large 3 Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
欧洲合规 多语言强
B
消费级旗舰 单张消费显卡可跑,综合能力出色
Llama 4 Scout Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
上下文
10M
10M超长上下文 单GPU可跑
Gemma 3 27B Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
消费卡最强 多模态

下载大模型,网速是关键

从 Hugging Face 下载几十GB模型文件,需要稳定高速的境外网络

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天
退款保证

相关教程文章

月费¥9 · 运营十年
免费试用 VPN07