开源大语言模型下载中心
精选10款主流开源 LLM,含下载链接、安装教程与硬件配置建议
🚀 快速开始:安装 Ollama,3步运行任意模型
无需账号,数据不出本机 · MacBook / Mac mini / Windows / Linux 均支持
1
brew install ollama
curl -fsSL https://ollama.com/install.sh | sh
irm https://ollama.com/install.ps1 | iex
2
ollama pull qwen3
3
ollama run qwen3
按使用场景筛选
精选开源模型
硬件配置参考
根据显卡显存选择合适的模型,显存越大可运行的模型参数量越大
| 显卡显存 | 推荐模型 |
|---|---|
| 4 GB | Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B |
| 8 GB | Qwen3-8B Phi-4 (14B量化) GLM-9B |
| 16 GB | DeepSeek-R1-14B Qwen3-14B Yi-34B量化 |
| 24 GB+ | DeepSeek-R1-32B Qwen3-32B Mistral-22B |
提示:所有模型均可通过 Ollama 一键下载运行,命令格式:ollama pull 模型名
模型天梯对比
2026年3月 · 所有模型统一标准对比 · 进度条满格 = 该项最高分
| 模型 |
MMLU-Pro
综合知识
|
GPQA Diamond
科学推理
|
SWE-Bench
代码修复
|
Arena Elo
人类偏好
|
显存 | |
|---|---|---|---|---|---|---|
|
S
综合旗舰 — 接近顶级闭源模型水平
|
||||||
| S |
Qwen 3.5
397B/17B · 阿里巴巴
|
84.6%
|
82.1%
|
62.5%
|
1451
|
8GB+ |
| S |
DeepSeek-R1
685B/37B · 深度求索
|
84.0%
|
85.3%
|
49.2%
|
1420
|
16GB+ |
| S |
智谱 GLM-5
744B/40B · 智谱AI
|
70.4%
|
86.0%
|
77.8%
|
1452
|
24GB+ |
|
A
高性能实用 — 旗舰级能力,硬件需求相对可控
|
||||||
| A |
Llama 4 Maverick
400B/17B · Meta
|
83.2%
|
78.5%
|
55.8%
|
1320
|
8GB+ |
| A |
Mistral Large 3
675B/41B · Mistral AI
|
82.8%
|
79.3%
|
54.1%
|
1315
|
24GB+ |
|
B
消费级旗舰 — 单张消费显卡可跑,综合能力出色
|
||||||
| B |
Llama 4 Scout
109B/17B · Meta · 10M上下文
|
78.5%
|
74.2%
|
48.5%
|
1280
|
8GB |
| B |
Gemma 3 27B
27B · Google
|
67.5%
|
42.4%
|
35.2%
|
1220
|
16GB |
|
C
轻量高效 — 4–8GB 显存可运行,端侧/低配首选
|
||||||
| C |
Phi-4
14B · Microsoft · MIT
|
75.2%
|
56.1%
|
41.3%
|
1200
|
8GB |
| C |
Yi-1.5-34B
34B · 零一万物
|
63.1%
|
40.2%
|
31.5%
|
1140
|
16GB |
| C |
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
|
58.3%
|
38.5%
|
28.1%
|
1150
|
6GB |
MMLU-Pro 综合知识推理
GPQA Diamond 博士级科学
SWE-Bench 代码修复(满格=77.8%)
Arena Elo 人类偏好投票(满格=1500)
数据来源:Artificial Analysis · LMSYS Chatbot Arena · 各模型官方报告(2026年3月)· 部分模型分数为社区测试估算
S
综合旗舰
接近或超越顶级闭源模型,硬件需求高
智谱 GLM-5
Apache 2.0
744B 总 / 40B 激活 · 24GB+
Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
代码第一
国产芯片
DeepSeek-R1
MIT
685B 总 / 37B 激活 · 16GB+
MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
推理最强
数学第一
Qwen 3.5
Apache 2.0
397B 总 / 17B 激活 · 8GB+
Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
中文第一
201语言
A
高性能实用
旗舰级能力,硬件需求相对可控
Llama 4 Maverick
Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1M上下文
最大生态
Mistral Large 3
Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
欧洲合规
多语言强
B
消费级旗舰
单张消费显卡可跑,综合能力出色
Llama 4 Scout
Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
上下文
10M
10M超长上下文
单GPU可跑
Gemma 3 27B
Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
消费卡最强
多模态
相关教程文章
DeepSeek
安装教程
DeepSeek R1使用教程:国产最强推理AI
详解 DeepSeek 使用方法、R1与V3区别、本地部署与API调用完整指南
阅读更多 →
Qwen 3.5
全平台安装
Qwen3.5全平台安装教程:iPhone安卓Windows三端详解
从零开始在iPhone、Android和Windows三个平台安装运行Qwen3.5模型
阅读更多 →
MiniMax
本地部署
OpenClaw本地模型零费用:MiniMax M2.5驱动24小时AI助手
完整指南:本地部署MiniMax M2.5模型,配合OpenClaw实现免费24小时AI助手
阅读更多 →
GLM / 国产AI
配置指南
OpenClaw 2026国产AI模型接入全解:千帆GLM配置问答
GLM、MiniMax、Moonshot等国产AI模型在OpenClaw中的完整接入与配置指南
阅读更多 →