Ollama安装使用完整教程2026:管理十大开源AI大模型指南
本文导读:Ollama 是目前最受欢迎的开源大语言模型本地运行管理工具,支持 macOS、Windows 和 Linux,一行命令即可下载并运行 DeepSeek-R1、Qwen 3.5、Llama 4、Gemma 3 等十余款主流开源大模型。本教程从零开始,覆盖 Ollama 安装、常用命令、Open WebUI 图形界面配置、API 调用、多模型切换和高级技巧,帮助你全面掌握这个强大的 AI 工具。
Ollama 是什么?为什么它是本地 AI 的首选?
Ollama 是一个开源的本地大语言模型运行框架,由前 Inflection AI 工程师团队开发,于 2023 年发布后迅速成为开源 AI 社区最流行的本地部署工具,GitHub 星标超过 10 万。其核心优势在于:
一行命令启动任意模型
只需 ollama run deepseek-r1 即可自动下载并启动,无需手动配置 Python 环境或处理依赖问题。
统一管理多个模型
可以在同一台电脑上安装 DeepSeek、Qwen、Llama 等多个模型,随时切换,互不干扰,统一通过 ollama list 查看所有已安装模型。
OpenAI 兼容 API
Ollama 自动提供兼容 OpenAI 格式的 REST API,现有使用 ChatGPT API 的代码无需修改即可切换到本地模型,开发成本为零。
完全离线运行
模型下载完成后,Ollama 完全离线运行,所有对话数据保存在本地,不上传任何内容,隐私保护有保障。
Windows 安装 Ollama 教程
Windows 10/11 64位系统均支持 Ollama,安装过程与安装普通软件完全相同,零门槛。
第一步:下载安装包
访问 ollama.com,点击"Download for Windows",下载 OllamaSetup.exe(约 100MB)。
第二步:双击安装
运行 OllamaSetup.exe,点击"Install",安装完成后 Ollama 会自动启动并在系统托盘显示图标。
第三步:运行第一个模型
打开 PowerShell 或 CMD,输入以下命令运行 DeepSeek-R1(7B 版本适合大多数电脑):
# 验证 Ollama 安装成功
ollama --version
# 下载并运行 DeepSeek-R1(7B版本)
ollama run deepseek-r1:7b
# 输入问题开始对话(输入 /bye 退出)
macOS 安装 Ollama 教程
macOS 用户有两种安装方式:官网下载 .dmg 安装包(适合普通用户)或通过 Homebrew 安装(适合开发者)。推荐使用 Homebrew,方便后续管理和更新。
# 方式一:Homebrew 安装(推荐)
brew install ollama
# 设置开机自启
brew services start ollama
# 方式二:官网下载 .dmg
# 访问 ollama.com → Download for Mac → 双击安装
# 验证安装并运行模型
ollama run qwen3
# M系列Mac推荐尝试较大模型(内存即显存)
ollama run deepseek-r1:32b # 适合 M2 Pro/Max
Linux 安装 Ollama 教程
Linux 是 Ollama 的最强运行环境,一行命令完成安装,自动配置 systemd 服务,支持 NVIDIA CUDA / AMD ROCm GPU 加速。
# 一键安装(Ubuntu/Debian/CentOS/Fedora 均适用)
curl -fsSL https://ollama.com/install.sh | sh
# 安装完成后自动启动服务,验证状态
systemctl status ollama
# 下载模型(首次使用)
ollama pull llama4
# 设置 Ollama 监听所有网络接口(允许局域网访问)
echo 'OLLAMA_HOST=0.0.0.0:11434' | sudo tee -a /etc/systemd/system/ollama.service.d/override.conf
sudo systemctl daemon-reload && sudo systemctl restart ollama
Ollama 常用命令速查表
| 命令 | 功能 | 示例 |
|---|---|---|
| ollama run [模型] | 下载(如未安装)并运行模型 | ollama run qwen3 |
| ollama pull [模型] | 仅下载模型,不运行 | ollama pull deepseek-r1:32b |
| ollama list | 查看已安装的所有模型 | ollama list |
| ollama rm [模型] | 删除已安装的模型 | ollama rm llama4 |
| ollama serve | 手动启动 Ollama API 服务 | ollama serve |
| ollama ps | 查看当前运行中的模型 | ollama ps |
| ollama show [模型] | 查看模型详细信息 | ollama show qwen3 |
十大开源 AI 大模型 Ollama 安装命令
以下是 VPN07 开源大模型下载中心 精选的十大主流开源模型在 Ollama 中的安装命令,一览即可快速下载使用:
# 1. DeepSeek-R1(全球最强开源推理模型)
ollama pull deepseek-r1:7b # 普通电脑
ollama pull deepseek-r1:32b # RTX 4090
# 2. Qwen 3.5(中文第一,阿里巴巴)
ollama pull qwen3 # 最新旗舰
ollama pull qwen3:0.6b # 超轻量,手机可用
# 3. Llama 4(Meta 最新旗舰)
ollama pull llama4 # Scout 版本
# 4. Gemma 3(Google 开源)
ollama pull gemma3 # 27B 旗舰
ollama pull gemma3:2b # 轻量版
# 5. Phi-4(微软高效模型)
ollama pull phi4 # 14B 高效版
# 6. Mistral Large 2(欧洲顶尖模型)
ollama pull mistral-large # 完整版
# 7. MiniCPM(面壁智能,手机专用)
ollama pull minicpm # 适合手机部署
# 8. GLM-4(智谱AI,工具调用专家)
ollama pull glm4
# 9. Yi-34B(零壹AI,中英双语)
ollama pull yi:34b # 旗舰版
ollama pull yi:6b # 轻量版
# 10. MiniMax(百亿MoE,超长上下文)
ollama pull minimax-text # 7B蒸馏版
Open WebUI:给 Ollama 装上图形界面
命令行对话不够直观?Open WebUI 是 Ollama 最流行的图形界面前端,提供类 ChatGPT 的聊天界面,支持多用户账号、对话历史保存、文件上传分析和模型切换。
# 使用 Docker 一键安装 Open WebUI
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
# 安装完成后,浏览器打开:
# http://localhost:3000
💡 Windows 没有 Docker 怎么办?
可以下载 Docker Desktop for Windows(免费),安装后即可运行上述命令。或者使用 pip install open-webui 直接安装,然后用 open-webui serve 启动。
Ollama API 调用:替代 ChatGPT API
Ollama 默认在 http://localhost:11434 启动 REST API,完全兼容 OpenAI API 格式,可以让任何使用 ChatGPT API 的项目零成本切换到本地模型:
# Python 调用示例(使用 OpenAI SDK)
from openai import OpenAI
client = OpenAI(
base_url='http://localhost:11434/v1',
api_key='ollama'
)
# 使用 DeepSeek-R1 进行对话
response = client.chat.completions.create(
model='deepseek-r1:7b',
messages=[
{"role": "user", "content": "请帮我写一个冒泡排序的Python代码"}
]
)
print(response.choices[0].message.content)
# curl 命令直接调用 API
curl http://localhost:11434/api/chat \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3",
"messages": [{"role": "user", "content": "你好,请介绍一下你自己"}],
"stream": false
}'
多模型切换与 Modelfile 自定义
Ollama 支持通过 Modelfile 自定义模型的系统提示词、参数温度、上下文长度等,创建属于自己的专属 AI 助手:
# 创建 Modelfile
cat > Modelfile << 'EOF'
FROM deepseek-r1:7b
# 自定义系统提示
SYSTEM "你是一个专业的Python代码审查专家,每次回答都要指出代码中的潜在问题并给出优化建议。"
# 参数设置
PARAMETER temperature 0.3
PARAMETER num_ctx 32768
EOF
# 从 Modelfile 创建自定义模型
ollama create code-reviewer -f Modelfile
# 使用自定义模型
ollama run code-reviewer
常见问题解答
Q1:Ollama 下载模型速度很慢怎么办?
Ollama 的模型仓库托管在境外,国内下载受网络限制。推荐使用 VPN07 开启网络加速节点,1000Mbps 千兆带宽可将下载速度提升数十倍,几 GB 的模型几分钟即可完成,几十 GB 的大模型也不需要等一整天。VPN07 运营十年,月费仅 ¥9,还提供 30 天无理由退款保障。
Q2:Ollama 模型默认存储在哪里?
macOS/Linux:~/.ollama/models/;Windows:C:\Users\用户名\.ollama\models\。可以通过设置环境变量 OLLAMA_MODELS=/path/to/models 更改存储位置,建议存放在空间较大的磁盘分区。
Q3:如何让 Ollama 允许局域网内其他设备访问?
默认情况下 Ollama 只监听 localhost。设置环境变量 OLLAMA_HOST=0.0.0.0:11434 可以让局域网内其他设备(手机、平板等)访问。macOS 用户在 .zshrc 中添加该环境变量后重启 Ollama 即可。
Q4:Ollama 和 LM Studio 哪个更好用?
各有侧重:Ollama 是命令行工具,更适合开发者,支持 API 服务和自动化集成;LM Studio 是图形界面工具,更适合普通用户,界面友好,支持 GGUF 模型文件直接导入。两者可以同时安装使用,互不冲突。
Ollama 故障排查与性能优化
Ollama 虽然安装简单,但在使用过程中偶尔会遇到一些问题。以下是最常见的故障和解决方法:
❌ 错误:connection refused(连接被拒绝)
原因:Ollama 服务未启动。解决方法:Windows 检查系统托盘是否有 Ollama 图标,Mac/Linux 运行 ollama serve,或 Linux 运行 sudo systemctl restart ollama。
⚠️ 错误:no space left(磁盘空间不足)
大模型文件可能占用几十 GB。解决方法:设置 OLLAMA_MODELS=/path/to/large-disk 环境变量,将模型存储到空间充裕的磁盘分区,然后重启 Ollama。
⚠️ 推理速度很慢,只有 1-2 token/s
通常是因为模型没有在 GPU 上运行,而是纯 CPU 推理。运行 ollama ps 检查模型是否在 GPU 上加载。如果没有,需要安装对应驱动(NVIDIA 安装 CUDA,AMD 安装 ROCm)。
💡 性能优化:并行推理参数设置
如果有多个用户同时使用 Ollama,可以设置并行推理:OLLAMA_NUM_PARALLEL=4(同时处理 4 个请求)。但注意每个并行推理都会增加显存占用,需要根据实际显存调整。
2026年 Ollama 支持的所有主流模型一览
Ollama 模型库(ollama.com/library)已收录超过 200 个开源模型,以下是 2026 年 3 月最受欢迎的 20 个模型,基本涵盖了所有你可能用到的场景:
| 模型名称 | Ollama命令 | 最小尺寸 | 适用场景 |
|---|---|---|---|
| DeepSeek-R1 | ollama pull deepseek-r1 | 1.1GB(1.5B) | 数学推理、代码 |
| Qwen 3.5 | ollama pull qwen3 | 0.4GB(0.6B) | 中文对话、日常 |
| Llama 4 | ollama pull llama4 | ~20GB | 多模态、英文 |
| Gemma 3 | ollama pull gemma3 | 0.8GB(1B) | 图像理解、对话 |
| Phi-4 | ollama pull phi4 | 8.9GB(14B) | 数学、科学 |
| Mistral | ollama pull mistral | 4.1GB(7B) | 欧洲语言、代码 |
| GLM-4 | ollama pull glm4 | 5.5GB(9B) | 工具调用、中文 |
| Yi-34B | ollama pull yi:34b | 3.5GB(6B) | 中英双语 |
| MiniCPM | ollama pull minicpm | 2.7GB(3B) | 手机、低配设备 |
| CodeLlama | ollama pull codellama | 3.8GB(7B) | 纯代码专用 |
Ollama 生态:与主流工具集成
Ollama 的 OpenAI 兼容 API 让它可以无缝接入大量现有 AI 工具和开发框架,极大扩展了使用场景:
使用 Ollama 最需要解决的实际问题是国内下载速度。每次 ollama pull 从境外服务器拉取模型都受到网络限制,使用 VPN07 可以将下载速度提升到正常水平。VPN07 是运营十年的国际大牌,70+ 国家节点,1000Mbps 带宽,月费仅 ¥9,30 天无理由退款,已成为国内 AI 开发者社区的首选网络加速工具。