VPN07

Ollama安装使用完整教程2026:管理十大开源AI大模型指南

2026-03-05 阅读约20分钟 AI工具教程 Ollama 开源大模型
开源大语言模型下载中心
DeepSeek / Qwen / Llama 4 / Gemma 3 一站下载
立即下载模型 →

本文导读:Ollama 是目前最受欢迎的开源大语言模型本地运行管理工具,支持 macOS、Windows 和 Linux,一行命令即可下载并运行 DeepSeek-R1、Qwen 3.5、Llama 4、Gemma 3 等十余款主流开源大模型。本教程从零开始,覆盖 Ollama 安装、常用命令、Open WebUI 图形界面配置、API 调用、多模型切换和高级技巧,帮助你全面掌握这个强大的 AI 工具。

Ollama 是什么?为什么它是本地 AI 的首选?

Ollama 是一个开源的本地大语言模型运行框架,由前 Inflection AI 工程师团队开发,于 2023 年发布后迅速成为开源 AI 社区最流行的本地部署工具,GitHub 星标超过 10 万。其核心优势在于:

一行命令启动任意模型

只需 ollama run deepseek-r1 即可自动下载并启动,无需手动配置 Python 环境或处理依赖问题。

🔄

统一管理多个模型

可以在同一台电脑上安装 DeepSeek、Qwen、Llama 等多个模型,随时切换,互不干扰,统一通过 ollama list 查看所有已安装模型。

🔌

OpenAI 兼容 API

Ollama 自动提供兼容 OpenAI 格式的 REST API,现有使用 ChatGPT API 的代码无需修改即可切换到本地模型,开发成本为零。

🔒

完全离线运行

模型下载完成后,Ollama 完全离线运行,所有对话数据保存在本地,不上传任何内容,隐私保护有保障。

Windows 安装 Ollama 教程

Windows 10/11 64位系统均支持 Ollama,安装过程与安装普通软件完全相同,零门槛。

第一步:下载安装包

访问 ollama.com,点击"Download for Windows",下载 OllamaSetup.exe(约 100MB)。

第二步:双击安装

运行 OllamaSetup.exe,点击"Install",安装完成后 Ollama 会自动启动并在系统托盘显示图标。

第三步:运行第一个模型

打开 PowerShell 或 CMD,输入以下命令运行 DeepSeek-R1(7B 版本适合大多数电脑):

# 验证 Ollama 安装成功
ollama --version

# 下载并运行 DeepSeek-R1(7B版本)
ollama run deepseek-r1:7b

# 输入问题开始对话(输入 /bye 退出)

macOS 安装 Ollama 教程

macOS 用户有两种安装方式:官网下载 .dmg 安装包(适合普通用户)或通过 Homebrew 安装(适合开发者)。推荐使用 Homebrew,方便后续管理和更新。

# 方式一:Homebrew 安装(推荐)
brew install ollama

# 设置开机自启
brew services start ollama

# 方式二:官网下载 .dmg
# 访问 ollama.com → Download for Mac → 双击安装

# 验证安装并运行模型
ollama run qwen3

# M系列Mac推荐尝试较大模型(内存即显存)
ollama run deepseek-r1:32b # 适合 M2 Pro/Max

Linux 安装 Ollama 教程

Linux 是 Ollama 的最强运行环境,一行命令完成安装,自动配置 systemd 服务,支持 NVIDIA CUDA / AMD ROCm GPU 加速。

# 一键安装(Ubuntu/Debian/CentOS/Fedora 均适用)
curl -fsSL https://ollama.com/install.sh | sh

# 安装完成后自动启动服务,验证状态
systemctl status ollama

# 下载模型(首次使用)
ollama pull llama4

# 设置 Ollama 监听所有网络接口(允许局域网访问)
echo 'OLLAMA_HOST=0.0.0.0:11434' | sudo tee -a /etc/systemd/system/ollama.service.d/override.conf
sudo systemctl daemon-reload && sudo systemctl restart ollama

Ollama 常用命令速查表

命令 功能 示例
ollama run [模型] 下载(如未安装)并运行模型 ollama run qwen3
ollama pull [模型] 仅下载模型,不运行 ollama pull deepseek-r1:32b
ollama list 查看已安装的所有模型 ollama list
ollama rm [模型] 删除已安装的模型 ollama rm llama4
ollama serve 手动启动 Ollama API 服务 ollama serve
ollama ps 查看当前运行中的模型 ollama ps
ollama show [模型] 查看模型详细信息 ollama show qwen3

十大开源 AI 大模型 Ollama 安装命令

以下是 VPN07 开源大模型下载中心 精选的十大主流开源模型在 Ollama 中的安装命令,一览即可快速下载使用:

# 1. DeepSeek-R1(全球最强开源推理模型)
ollama pull deepseek-r1:7b # 普通电脑
ollama pull deepseek-r1:32b # RTX 4090

# 2. Qwen 3.5(中文第一,阿里巴巴)
ollama pull qwen3 # 最新旗舰
ollama pull qwen3:0.6b # 超轻量,手机可用

# 3. Llama 4(Meta 最新旗舰)
ollama pull llama4 # Scout 版本

# 4. Gemma 3(Google 开源)
ollama pull gemma3 # 27B 旗舰
ollama pull gemma3:2b # 轻量版

# 5. Phi-4(微软高效模型)
ollama pull phi4 # 14B 高效版

# 6. Mistral Large 2(欧洲顶尖模型)
ollama pull mistral-large # 完整版

# 7. MiniCPM(面壁智能,手机专用)
ollama pull minicpm # 适合手机部署

# 8. GLM-4(智谱AI,工具调用专家)
ollama pull glm4

# 9. Yi-34B(零壹AI,中英双语)
ollama pull yi:34b # 旗舰版
ollama pull yi:6b # 轻量版

# 10. MiniMax(百亿MoE,超长上下文)
ollama pull minimax-text # 7B蒸馏版

Open WebUI:给 Ollama 装上图形界面

命令行对话不够直观?Open WebUI 是 Ollama 最流行的图形界面前端,提供类 ChatGPT 的聊天界面,支持多用户账号、对话历史保存、文件上传分析和模型切换。

# 使用 Docker 一键安装 Open WebUI
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

# 安装完成后,浏览器打开:
# http://localhost:3000

💡 Windows 没有 Docker 怎么办?

可以下载 Docker Desktop for Windows(免费),安装后即可运行上述命令。或者使用 pip install open-webui 直接安装,然后用 open-webui serve 启动。

Ollama API 调用:替代 ChatGPT API

Ollama 默认在 http://localhost:11434 启动 REST API,完全兼容 OpenAI API 格式,可以让任何使用 ChatGPT API 的项目零成本切换到本地模型:

# Python 调用示例(使用 OpenAI SDK)
from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1',
    api_key='ollama'
)

# 使用 DeepSeek-R1 进行对话
response = client.chat.completions.create(
    model='deepseek-r1:7b',
    messages=[
        {"role": "user", "content": "请帮我写一个冒泡排序的Python代码"}
    ]
)
print(response.choices[0].message.content)
# curl 命令直接调用 API
curl http://localhost:11434/api/chat \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3",
    "messages": [{"role": "user", "content": "你好,请介绍一下你自己"}],
    "stream": false
  }'

多模型切换与 Modelfile 自定义

Ollama 支持通过 Modelfile 自定义模型的系统提示词、参数温度、上下文长度等,创建属于自己的专属 AI 助手:

# 创建 Modelfile
cat > Modelfile << 'EOF'
FROM deepseek-r1:7b

# 自定义系统提示
SYSTEM "你是一个专业的Python代码审查专家,每次回答都要指出代码中的潜在问题并给出优化建议。"

# 参数设置
PARAMETER temperature 0.3
PARAMETER num_ctx 32768
EOF

# 从 Modelfile 创建自定义模型
ollama create code-reviewer -f Modelfile

# 使用自定义模型
ollama run code-reviewer

常见问题解答

Q1:Ollama 下载模型速度很慢怎么办?

Ollama 的模型仓库托管在境外,国内下载受网络限制。推荐使用 VPN07 开启网络加速节点,1000Mbps 千兆带宽可将下载速度提升数十倍,几 GB 的模型几分钟即可完成,几十 GB 的大模型也不需要等一整天。VPN07 运营十年,月费仅 ¥9,还提供 30 天无理由退款保障。

Q2:Ollama 模型默认存储在哪里?

macOS/Linux:~/.ollama/models/;Windows:C:\Users\用户名\.ollama\models\。可以通过设置环境变量 OLLAMA_MODELS=/path/to/models 更改存储位置,建议存放在空间较大的磁盘分区。

Q3:如何让 Ollama 允许局域网内其他设备访问?

默认情况下 Ollama 只监听 localhost。设置环境变量 OLLAMA_HOST=0.0.0.0:11434 可以让局域网内其他设备(手机、平板等)访问。macOS 用户在 .zshrc 中添加该环境变量后重启 Ollama 即可。

Q4:Ollama 和 LM Studio 哪个更好用?

各有侧重:Ollama 是命令行工具,更适合开发者,支持 API 服务和自动化集成;LM Studio 是图形界面工具,更适合普通用户,界面友好,支持 GGUF 模型文件直接导入。两者可以同时安装使用,互不冲突。

Ollama 故障排查与性能优化

Ollama 虽然安装简单,但在使用过程中偶尔会遇到一些问题。以下是最常见的故障和解决方法:

❌ 错误:connection refused(连接被拒绝)

原因:Ollama 服务未启动。解决方法:Windows 检查系统托盘是否有 Ollama 图标,Mac/Linux 运行 ollama serve,或 Linux 运行 sudo systemctl restart ollama

⚠️ 错误:no space left(磁盘空间不足)

大模型文件可能占用几十 GB。解决方法:设置 OLLAMA_MODELS=/path/to/large-disk 环境变量,将模型存储到空间充裕的磁盘分区,然后重启 Ollama。

⚠️ 推理速度很慢,只有 1-2 token/s

通常是因为模型没有在 GPU 上运行,而是纯 CPU 推理。运行 ollama ps 检查模型是否在 GPU 上加载。如果没有,需要安装对应驱动(NVIDIA 安装 CUDA,AMD 安装 ROCm)。

💡 性能优化:并行推理参数设置

如果有多个用户同时使用 Ollama,可以设置并行推理:OLLAMA_NUM_PARALLEL=4(同时处理 4 个请求)。但注意每个并行推理都会增加显存占用,需要根据实际显存调整。

2026年 Ollama 支持的所有主流模型一览

Ollama 模型库(ollama.com/library)已收录超过 200 个开源模型,以下是 2026 年 3 月最受欢迎的 20 个模型,基本涵盖了所有你可能用到的场景:

模型名称 Ollama命令 最小尺寸 适用场景
DeepSeek-R1 ollama pull deepseek-r1 1.1GB(1.5B) 数学推理、代码
Qwen 3.5 ollama pull qwen3 0.4GB(0.6B) 中文对话、日常
Llama 4 ollama pull llama4 ~20GB 多模态、英文
Gemma 3 ollama pull gemma3 0.8GB(1B) 图像理解、对话
Phi-4 ollama pull phi4 8.9GB(14B) 数学、科学
Mistral ollama pull mistral 4.1GB(7B) 欧洲语言、代码
GLM-4 ollama pull glm4 5.5GB(9B) 工具调用、中文
Yi-34B ollama pull yi:34b 3.5GB(6B) 中英双语
MiniCPM ollama pull minicpm 2.7GB(3B) 手机、低配设备
CodeLlama ollama pull codellama 3.8GB(7B) 纯代码专用

Ollama 生态:与主流工具集成

Ollama 的 OpenAI 兼容 API 让它可以无缝接入大量现有 AI 工具和开发框架,极大扩展了使用场景:

🔗
LangChain
AI Agent 框架
🖥️
Continue
VSCode AI 插件
🔍
AnythingLLM
本地知识库
🐍
LlamaIndex
RAG 数据框架

使用 Ollama 最需要解决的实际问题是国内下载速度。每次 ollama pull 从境外服务器拉取模型都受到网络限制,使用 VPN07 可以将下载速度提升到正常水平。VPN07 是运营十年的国际大牌,70+ 国家节点,1000Mbps 带宽,月费仅 ¥9,30 天无理由退款,已成为国内 AI 开发者社区的首选网络加速工具。

还想体验更多开源大模型?
DeepSeek / Qwen / Llama 4 / Gemma 3 一站下载
查看全部模型 →

VPN07 让 Ollama 下载提速百倍

1000Mbps 千兆带宽 · 70+国家节点 · 十年稳定

使用 Ollama 下载大模型时,最大的痛点就是国内访问 Ollama 和 HuggingFace 境外服务器速度极慢。VPN07 是运营十年的国际大牌,提供 1000Mbps 千兆带宽节点,让你在国内也能享受境外全速下载。月费仅 ¥9,30 天无理由退款,是 AI 开发者的首选网络加速工具。

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天退款
无理由退款

相关文章推荐

月费¥9 · 运营十年
免费试用 VPN07