VPN07

OpenClaw 配置 DeepSeek + Qwen 国产模型:完全免费跑私人AI助手

2026-03-11 阅读约20分钟 国产模型 DeepSeek Qwen3 零成本

教程说明:很多人因为 Claude API 费用较高或访问困难而放弃使用 OpenClaw。其实 OpenClaw 完全支持国产 AI 模型——DeepSeek-R2、Qwen3、MiniMax 等均可接入。国内直连无需 VPN,API 费用极低甚至免费。本教程详细讲解如何配置 OpenClaw 使用这些国产模型,并解答两种方案(云API vs 本地部署)的优劣对比。

为什么考虑用国产模型驱动 OpenClaw?

OpenClaw 默认推荐使用 Anthropic Claude 或 OpenAI GPT,这两者确实是目前最强的 AI 模型。但对于中国用户来说,存在以下几个实际问题:

境外API的痛点

  • • 需要稳定VPN才能访问
  • • Claude API 价格较高($3/百万Token)
  • • 注册需要境外手机号
  • • 付款需要境外信用卡

国产模型的优势

  • • 国内直连,延迟低,稳定
  • • 新用户大量免费额度
  • • 微信/支付宝充值
  • • 中文理解能力更强
免费
新用户额度
国内直连
无需VPN
3款
主流国产模型
兼容
OpenAI格式

方案一:配置 DeepSeek-R2(最强推理能力)

DeepSeek-R2 是 2026 年国产最强推理模型,在复杂逻辑任务上的表现甚至超越 Claude 3.5。由于 DeepSeek API 兼容 OpenAI 格式,配置到 OpenClaw 非常简单。

第一步:获取 DeepSeek API Key

  1. 1. 访问 platform.deepseek.com,注册账号(国内手机即可)
  2. 2. 进入"API Keys"页面,点击"创建 API Key"
  3. 3. 新用户会获得约 500万免费 Token(约合 ¥10 额度)
  4. 4. 复制 API Key(格式:sk-xxxxxx)

第二步:配置 OpenClaw 使用 DeepSeek

编辑 OpenClaw 配置文件 ~/.openclaw/config.yaml

# ~/.openclaw/config.yaml
model:
  provider: openai-compatible
  baseUrl: "https://api.deepseek.com/v1"
  apiKey: "sk-你的DeepSeek-API-Key"
  model: "deepseek-reasoner" # DeepSeek-R2
  # 或使用 deepseek-chat 节省成本

# 可选:设置国内直连(无需代理)
network:
  skipProxy: true

第三步:使用命令行快速切换模型

# 通过命令行设置模型(无需编辑配置文件)
openclaw config set model.provider openai-compatible
openclaw config set model.baseUrl https://api.deepseek.com/v1
openclaw config set model.apiKey sk-你的Key
openclaw config set model.model deepseek-reasoner

# 重启服务使配置生效
openclaw restart

DeepSeek 模型选择指南

模型 适合场景 价格 推荐指数
deepseek-reasoner 复杂推理、代码、分析 ¥4/百万Token ⭐⭐⭐⭐⭐
deepseek-chat 日常对话、任务执行 ¥1/百万Token ⭐⭐⭐⭐
deepseek-chat(缓存) 重复性任务、长记忆 ¥0.1/百万Token ⭐⭐⭐⭐

方案二:配置 Qwen3(阿里云通义千问)

阿里云通义千问 Qwen3 是 2026 年阿里最新发布的大模型,在中文场景下表现出色,新用户可获得大量免费额度。通过阿里云百炼平台(DashScope)接入,配置方式与 OpenAI 完全兼容。

获取 Qwen API Key

  1. 1. 访问 dashscope.aliyuncs.com(阿里云百炼)
  2. 2. 登录阿里云账号(支持淘宝/支付宝授权)
  3. 3. 开通 DashScope 服务,新用户赠送 100万免费Token
  4. 4. 在"API-KEY管理"中创建 Key(格式:sk-xxxxxx)

OpenClaw 配置 Qwen3

# ~/.openclaw/config.yaml
model:
  provider: openai-compatible
  baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1"
  apiKey: "sk-你的DashScope-API-Key"
  model: "qwen3-235b-a22b" # 最强版本
  # 经济版本:qwen3-30b-a3b
  # 快速版本:qwen-turbo-latest

方案三:Ollama 本地部署,完全零成本

如果你有一台性能较好的电脑(16GB内存以上),可以通过 Ollama 在本地运行 AI 模型,实现零 API 费用的 OpenClaw 私人助手。

安装 Ollama 并下载国产模型

# macOS/Linux 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# Windows 直接下载安装包:ollama.ai

# 下载 Qwen3 国产模型(14B版,需要8GB内存)
ollama pull qwen3:14b

# 下载 DeepSeek-R1 本地版(7B版,需要4GB内存)
ollama pull deepseek-r1:7b

# 启动 Ollama 服务
ollama serve

OpenClaw 配置使用 Ollama 本地模型

# ~/.openclaw/config.yaml
model:
  provider: openai-compatible
  baseUrl: "http://localhost:11434/v1"
  apiKey: "ollama" # Ollama 不需要真实Key,随便填
  model: "qwen3:14b" # 或 deepseek-r1:7b

三种方案性能与成本对比

🥇

DeepSeek API — 综合最优

9.2/10

推理能力最强,国内直连稳定,成本极低,新用户免费额度充足,最推荐。

超低延迟
<1秒响应
超强推理
媲美Claude
极低成本
¥1/百万Token
国内直连
无需VPN

2. Qwen3 API(阿里云)

8.5/10

中文理解出色,多模态能力强,生态完善,适合需要图文处理的场景。价格与DeepSeek相当。

3. Ollama 本地部署

7.8/10

完全零成本,数据不出本机,隐私最佳,但受硬件限制,响应速度较慢,适合硬件较好的用户。

进阶:动态切换模型策略

不同任务用不同模型可以在效果和成本之间取得最优平衡。OpenClaw 支持在技能(skill)级别指定使用的模型:

# 在 skill 配置中指定模型
# ~/.openclaw/skills/daily-report/config.yaml
name: daily-report
model:
  provider: openai-compatible
  baseUrl: "https://api.deepseek.com/v1"
  model: "deepseek-reasoner" # 复杂报告用推理模型

# 简单任务技能用经济模型
# ~/.openclaw/skills/quick-reply/config.yaml
name: quick-reply
model:
  provider: openai-compatible
  model: "deepseek-chat" # 日常对话用便宜模型

国产 vs 境外模型:用哪个更合适?

这个问题没有标准答案,取决于你的具体需求。下面从几个维度给出客观对比:

维度 DeepSeek/Qwen Claude/GPT
中文场景 ✅ 更优 良好
代码生成 DeepSeek 优秀 ✅ Claude 更强
网络访问 ✅ 国内直连 需要VPN
费用 ✅ 极低 较高
工具调用能力 良好 ✅ 更成熟

💡 推荐策略:双模型组合使用

最佳实践是将 DeepSeek/Qwen 作为日常主力模型(成本低、中文好、稳定),当遇到复杂的工具调用任务或需要最高质量输出时,临时切换到 Claude(配合 VPN07 稳定访问)。这样既控制了成本,又保留了最强能力的备选。

常见配置问题解答

❌ 报错:model not found 或 unsupported model

原因:模型名称填写错误,或该账号没有开通对应模型权限。解决:在 API 控制台查看可用模型列表,确认模型名称拼写完全正确(区分大小写)。

⚠️ OpenClaw 工具调用(Tool Use)失败

原因:部分国产模型的工具调用格式与 OpenAI 有细微差异。解决:使用 DeepSeek-chat 而非 deepseek-reasoner(推理模型对工具调用支持稍弱),或在 config 中启用 toolCallFormat: openai

💡 如何知道当前用的是哪个模型?

在 Telegram 或其他通道发送命令 !modelopenclaw status,OpenClaw 会返回当前配置的模型信息。

使用国产模型后,还需要 VPN 吗?

即使使用国产模型,在以下场景中 OpenClaw 仍然需要 VPN 支持:

网页浏览任务

OpenClaw 的浏览器控制功能需要访问境外网站时(如 Twitter、Google、GitHub),必须使用 VPN 才能正常工作。

Gmail / Google Calendar 集成

如果配置了 Gmail 邮件管理或 Google 日历同步,这些 Google 服务需要通过 VPN 访问。

GitHub 操作

GitHub 在国内访问速度极慢,让 OpenClaw 自动提交 PR、管理 Issues 时需要 VPN 加速。

因此,即使主力模型换成国产方案,一款稳定的 VPN 依然是 OpenClaw 完整功能的必要保障。VPN07 运营十年,1000Mbps 千兆带宽,¥9/月起,是 OpenClaw 用户的最佳选择。

使用国产模型的年度成本分析

很多人好奇:用 OpenClaw 配合国产模型运行一年,到底要花多少钱?以中等使用量(每天约 20 次交互,每次平均 2000 Token)计算:

方案 月均Token消耗 API月费 年度总费
Claude API 120万Token 约¥25 约¥300
DeepSeek-chat 120万Token 约¥1.2 约¥15
Qwen3 Turbo 120万Token 约¥0.6 约¥7
Ollama 本地 无限制 ¥0 ¥0

结论:国产模型让 AI 助手的门槛降至极低

配合 DeepSeek 或 Qwen API,一年的模型费用不超过 ¥20,加上 VPN07 的 ¥9/月(年费约 ¥108),全年总成本约 ¥120-130——相当于一顿普通外卖的价格,就能享有一个 24/7 在线的专属 AI 助手。这在两年前是不可想象的事情。

诚实告知:国产模型的当前局限性

作为一个客观的评测,我们也需要告知目前国产模型在 OpenClaw 场景下的已知局限性,让你做出最适合自己的选择:

工具调用能力稍弱

DeepSeek-reasoner(推理模式)在复杂的多工具调用链中偶有失误,Claude 在这方面依然领先。建议配合 DeepSeek-chat(对话模式)使用,工具调用更稳定。

英文专业场景表现稍逊

在处理英文法律文本、专业学术论文等高专业度英文内容时,Claude 的表现依然优于国产模型。中文场景则国产模型更有优势。

多模态能力仍在完善

图片理解、文档解析等多模态任务,部分国产 API 尚未完全支持,或接口格式与 OpenAI 有差异,需要额外适配。Qwen-VL 在这方面已有较好支持。

VPN07 — OpenClaw 境外功能的最强保障

十年稳定运营 · 千兆带宽 · 70+国家节点

即使使用国产模型,OpenClaw 的网页浏览、Gmail、GitHub 等境外功能仍需要稳定的 VPN。VPN07 运营十年,1000Mbps 千兆带宽,让 OpenClaw 处理境外任务如飞行一般流畅。70+ 国家节点任意切换,¥9/月超低月费,30 天无理由退款,是 AI 工作流用户的首选。

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天
退款保证

相关文章推荐

月费¥9 · 运营十年
免费试用 VPN07