VPN07

Open WebUI安装教程2026:Ollama可视化界面,告别命令行管理大模型

2026-03-06 阅读约18分钟 AI工具教程 Open WebUI Ollama
开源大语言模型下载中心
DeepSeek-R1 / Qwen / Llama 4 / Gemma 一站下载
立即下载模型 →

本文导读:Open WebUI 是全球最受欢迎的 Ollama 图形前端,提供类似 ChatGPT 的对话界面,支持多用户账号管理、对话历史保存、文件上传、RAG 知识库和自定义系统提示词。本教程涵盖 Docker(推荐)、pip 和原生三种安装方式,以及 Windows、macOS 和 Linux 的完整配置步骤,让你不需要敲一行命令就能管理所有本地大模型。

Open WebUI 是什么?为何选择它?

Open WebUI(原名 Ollama WebUI)是一个完全开源的 Web 图形界面,专门为 Ollama 本地大模型打造。它将枯燥的命令行操作转化为直观的 Web 界面,任何人都能轻松管理和使用本地运行的 DeepSeek-R1、Qwen3.5、Llama4 等大模型。

💬

ChatGPT 级对话体验

支持 Markdown 渲染、代码高亮、公式显示,对话体验与 ChatGPT 完全一致,支持一键导出对话记录。

👥

多用户账号管理

支持创建多个用户账号,每个用户独立对话历史,适合团队共享同一台 AI 服务器,权限精细管理。

📚

RAG 知识库内置

上传 PDF、Word、网页链接,自动构建向量知识库,让大模型基于你的私有文档回答问题,完全离线。

MIT协议
完全免费开源
30k+ ⭐
GitHub 星标数
所有模型
兼容 Ollama 全部模型
移动友好
响应式,手机可用

安装前提:确保 Ollama 已正常运行

Open WebUI 需要配合 Ollama 使用,安装前请确保 Ollama 已安装并运行。如果尚未安装 Ollama,参考以下快速安装命令:

# macOS(Homebrew)
brew install ollama
brew services start ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows:访问 ollama.com 下载安装包

# 验证 Ollama 是否运行
curl http://localhost:11434/api/tags
# 返回 JSON 说明 Ollama 正常运行

💡 先下载至少一个模型

安装 Open WebUI 后需要有模型才能对话。推荐先下载 DeepSeek-R1 或 Qwen3.5:ollama pull deepseek-r1:14bollama pull qwen3

方法一:Docker 安装(所有平台推荐)

Docker 是安装 Open WebUI 最简单、最稳定的方式,一行命令完成,自动处理所有依赖,支持 Windows、macOS 和 Linux。首先确保已安装 Docker Desktop(访问 docker.com 下载)。

不使用 GPU(CPU 模式,通用)

# 一键启动 Open WebUI(连接本机 Ollama)
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

# 打开浏览器访问:
# http://localhost:3000

使用 NVIDIA GPU 加速(Linux 推荐)

# 需要先安装 NVIDIA Container Toolkit
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | \
  sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

# 启动带 GPU 的 Open WebUI
docker run -d -p 3000:8080 \
  --gpus all \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:cuda

Open WebUI 与 Ollama 打包部署(一步到位)

如果希望 Open WebUI 和 Ollama 一起部署在同一个 Docker 容器中(适合没有单独安装 Ollama 的情况):

# Ollama + Open WebUI 一体化部署
docker run -d -p 3000:8080 \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui-bundled \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

# 进入容器后下载模型
docker exec -it open-webui-bundled ollama pull deepseek-r1:14b

方法二:pip 安装(Python 用户首选)

如果你的系统已安装 Python 3.11+,可以直接用 pip 安装 Open WebUI,无需 Docker,更轻量,适合开发者使用。

# 确认 Python 版本(需要 3.11 或以上)
python3 --version

# 安装 Open WebUI
pip install open-webui

# 启动服务(默认端口 8080)
open-webui serve

# 或指定端口
open-webui serve --port 3000

# 打开浏览器:http://localhost:8080

⚠️ Windows pip 安装注意事项

Windows 上 pip 安装需要 Visual C++ Build Tools,建议用 Anaconda 或 Miniconda 创建独立的 Python 环境后再安装,避免依赖冲突。如果遇到问题,优先使用 Docker 方式。

Windows 完整配置指南

Windows 用户推荐使用 Docker Desktop + Open WebUI 的组合。以下是详细的图文步骤:

步骤一:安装并启动 Docker Desktop

访问 docker.com/products/docker-desktop 下载 Docker Desktop for Windows(约 500MB),安装时启用"WSL 2 based engine"选项。安装完成后启动 Docker Desktop,确保右下角任务栏图标显示为绿色(Running)。

步骤二:确保 Ollama 正在运行

打开 Ollama(安装后在系统托盘可见),或在 PowerShell 运行 ollama serve

步骤三:PowerShell 运行 Docker 命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

步骤四:首次访问,创建管理员账号

浏览器访问 http://localhost:3000,点击"Sign up"创建第一个账号(自动成为管理员),填写用户名、邮箱和密码后即可登录开始使用。

macOS 配置指南

macOS 用户有两种选择:Docker Desktop(图形化,简单)或 Homebrew + pip(命令行,轻量)。以下同时提供两种方式:

# 方案一:Homebrew + pip(推荐 Mac 用户)
# 确认 Python 版本
python3 --version # 需要 3.11+

# 如果版本不对,用 Homebrew 安装最新 Python
brew install [email protected]

# 安装 Open WebUI
pip3 install open-webui

# 后台启动(每次重启后需重新运行)
nohup open-webui serve --port 3000 > ~/open-webui.log 2>&1 &

# 访问:http://localhost:3000
# 方案二:设置开机自启(launchd)
# 创建 plist 文件
cat > ~/Library/LaunchAgents/com.openwebui.plist <<EOF
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN"...>
<plist version="1.0">
<dict>
  <key>Label</key>
  <string>com.openwebui</string>
  <key>ProgramArguments</key>
  <array>
    <string>open-webui</string>
    <string>serve</string>
  </array>
  <key>RunAtLoad</key>
  <true/>
</dict>
</plist>
EOF
launchctl load ~/Library/LaunchAgents/com.openwebui.plist

Linux 配置指南(企业级部署)

Linux 服务器部署 Open WebUI 后,局域网内所有设备都可以通过浏览器访问,实现真正的团队共享本地 AI 服务。以下是生产环境推荐的 Docker Compose 配置方式。

# 创建 docker-compose.yml
cat > docker-compose.yml <<EOF
version: '3'
services:
  ollama:
    image: ollama/ollama
    ports:
      - "11434:11434"
    volumes:
      - ollama:/root/.ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    volumes:
      - open-webui:/app/backend/data
    restart: always
volumes:
  ollama:
  open-webui:
EOF

# 启动所有服务
docker compose up -d

配置反向代理(Nginx),支持自定义域名

# Nginx 配置示例
server {
  listen 80;
  server_name ai.yourdomain.com;
  
  location / {
    proxy_pass http://localhost:3000;
    proxy_set_header Host $host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_http_version 1.1;
    proxy_set_header Upgrade $http_upgrade;
    proxy_set_header Connection "upgrade";
  }
}

Open WebUI 核心功能使用指南

安装完成后,Open WebUI 提供远超 Ollama 命令行的丰富功能。以下是最值得掌握的核心功能:

🔄

多模型快速切换

对话框左上角点击模型名称,即可从下拉菜单选择任意已安装模型,还可以同时开启多个模型对话窗口进行横向对比,无需重新启动。

📁

文件上传与 RAG

对话框中点击"+"图标,上传 PDF、Word、Excel 或网页 URL,Open WebUI 自动提取文本并构建向量索引,让模型基于你的私有文档回答问题,数据不出本地。

🤖

自定义 Prompt 模板

在设置中创建"角色",预设不同的系统提示词,如"代码审查专家"、"中英翻译官"、"法律顾问"等,一键切换专业场景,提升模型输出质量。

🌐

连接外部 API(OpenAI)

在管理面板添加 OpenAI API 密钥或其他兼容 API,将本地模型和云端模型在同一界面统一管理,同时支持 Claude、Gemini 等多种后端。

常见问题与故障排除

Q1:Open WebUI 显示"无法连接到 Ollama"怎么办?

最常见原因是 Ollama 没有运行,或 Docker 无法访问宿主机的 Ollama 服务。解决方案:1)确认 Ollama 正在运行(ollama ps);2)Docker 命令中确保包含 --add-host=host.docker.internal:host-gateway;3)检查防火墙是否阻止了 11434 端口。

Q2:Docker 镜像下载很慢怎么解决?

Open WebUI 的 Docker 镜像托管在 GitHub Container Registry(ghcr.io),国内访问速度较慢。使用 VPN07 后,1000Mbps 千兆带宽可以让 Docker 镜像拉取速度大幅提升,约 200MB 的镜像几分钟内完成,月费仅 ¥9,还有 30 天无理由退款。

Q3:如何在公网访问家里的 Open WebUI?

推荐使用 Cloudflare Tunnel(免费)或 frp 穿透工具,将本地 3000 端口映射到公网域名,无需公网 IP。另一种方案是使用 VPN07 的内网穿透功能,连接 VPN 后通过内网 IP 直接访问家里的 AI 服务。

Q4:如何更新 Open WebUI 到最新版本?

Docker 方式更新只需两条命令:docker pull ghcr.io/open-webui/open-webui:main 拉取最新镜像,然后 docker restart open-webui 重启容器,用户数据保存在 volume 中不会丢失。

Open WebUI vs 同类工具对比

工具 安装难度 多用户 RAG 支持 移动端 适用场景
Open WebUI ★ ⭐⭐⭐⭐ 团队 / 企业首选
LM Studio ⭐⭐⭐⭐⭐ 个人桌面使用
Jan.ai ⭐⭐⭐⭐⭐ 部分 个人桌面使用
AnythingLLM ⭐⭐⭐ 部分 知识库专注型

📋 Open WebUI 安装验收清单

还想体验更多开源大模型?
DeepSeek-R1 / Qwen / Llama 4 / Gemma 一站下载
查看全部模型 →

VPN07 加速 Docker 镜像下载

1000Mbps 千兆带宽 · 70+国家节点 · 稳定十年

Open WebUI 的 Docker 镜像和 Ollama 模型都托管在境外服务器,国内用户下载速度受限,严重影响安装体验。VPN07 运营十年,提供 1000Mbps 千兆带宽节点,覆盖全球 70+ 国家,让 Docker pull 和模型下载速度提升 10-100 倍,月费仅 ¥9,还提供 30 天无理由退款保障,是 AI 开发者和数字游民的首选网络工具。

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天退款
无理由退款

相关文章推荐

月费¥9 · 运营十年
免费试用 VPN07