OpenClaw 配置 DeepSeek + Qwen 国产模型:完全免费跑私人AI助手
教程说明:很多人因为 Claude API 费用较高或访问困难而放弃使用 OpenClaw。其实 OpenClaw 完全支持国产 AI 模型——DeepSeek-R2、Qwen3、MiniMax 等均可接入。国内直连无需 VPN,API 费用极低甚至免费。本教程详细讲解如何配置 OpenClaw 使用这些国产模型,并解答两种方案(云API vs 本地部署)的优劣对比。
为什么考虑用国产模型驱动 OpenClaw?
OpenClaw 默认推荐使用 Anthropic Claude 或 OpenAI GPT,这两者确实是目前最强的 AI 模型。但对于中国用户来说,存在以下几个实际问题:
境外API的痛点
- • 需要稳定VPN才能访问
- • Claude API 价格较高($3/百万Token)
- • 注册需要境外手机号
- • 付款需要境外信用卡
国产模型的优势
- • 国内直连,延迟低,稳定
- • 新用户大量免费额度
- • 微信/支付宝充值
- • 中文理解能力更强
方案一:配置 DeepSeek-R2(最强推理能力)
DeepSeek-R2 是 2026 年国产最强推理模型,在复杂逻辑任务上的表现甚至超越 Claude 3.5。由于 DeepSeek API 兼容 OpenAI 格式,配置到 OpenClaw 非常简单。
第一步:获取 DeepSeek API Key
- 1. 访问 platform.deepseek.com,注册账号(国内手机即可)
- 2. 进入"API Keys"页面,点击"创建 API Key"
- 3. 新用户会获得约 500万免费 Token(约合 ¥10 额度)
- 4. 复制 API Key(格式:sk-xxxxxx)
第二步:配置 OpenClaw 使用 DeepSeek
编辑 OpenClaw 配置文件 ~/.openclaw/config.yaml:
# ~/.openclaw/config.yaml
model:
provider: openai-compatible
baseUrl: "https://api.deepseek.com/v1"
apiKey: "sk-你的DeepSeek-API-Key"
model: "deepseek-reasoner" # DeepSeek-R2
# 或使用 deepseek-chat 节省成本
# 可选:设置国内直连(无需代理)
network:
skipProxy: true
第三步:使用命令行快速切换模型
# 通过命令行设置模型(无需编辑配置文件)
openclaw config set model.provider openai-compatible
openclaw config set model.baseUrl https://api.deepseek.com/v1
openclaw config set model.apiKey sk-你的Key
openclaw config set model.model deepseek-reasoner
# 重启服务使配置生效
openclaw restart
DeepSeek 模型选择指南
| 模型 | 适合场景 | 价格 | 推荐指数 |
|---|---|---|---|
| deepseek-reasoner | 复杂推理、代码、分析 | ¥4/百万Token | ⭐⭐⭐⭐⭐ |
| deepseek-chat | 日常对话、任务执行 | ¥1/百万Token | ⭐⭐⭐⭐ |
| deepseek-chat(缓存) | 重复性任务、长记忆 | ¥0.1/百万Token | ⭐⭐⭐⭐ |
方案二:配置 Qwen3(阿里云通义千问)
阿里云通义千问 Qwen3 是 2026 年阿里最新发布的大模型,在中文场景下表现出色,新用户可获得大量免费额度。通过阿里云百炼平台(DashScope)接入,配置方式与 OpenAI 完全兼容。
获取 Qwen API Key
- 1. 访问 dashscope.aliyuncs.com(阿里云百炼)
- 2. 登录阿里云账号(支持淘宝/支付宝授权)
- 3. 开通 DashScope 服务,新用户赠送 100万免费Token
- 4. 在"API-KEY管理"中创建 Key(格式:sk-xxxxxx)
OpenClaw 配置 Qwen3
# ~/.openclaw/config.yaml
model:
provider: openai-compatible
baseUrl: "https://dashscope.aliyuncs.com/compatible-mode/v1"
apiKey: "sk-你的DashScope-API-Key"
model: "qwen3-235b-a22b" # 最强版本
# 经济版本:qwen3-30b-a3b
# 快速版本:qwen-turbo-latest
方案三:Ollama 本地部署,完全零成本
如果你有一台性能较好的电脑(16GB内存以上),可以通过 Ollama 在本地运行 AI 模型,实现零 API 费用的 OpenClaw 私人助手。
安装 Ollama 并下载国产模型
# macOS/Linux 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# Windows 直接下载安装包:ollama.ai
# 下载 Qwen3 国产模型(14B版,需要8GB内存)
ollama pull qwen3:14b
# 下载 DeepSeek-R1 本地版(7B版,需要4GB内存)
ollama pull deepseek-r1:7b
# 启动 Ollama 服务
ollama serve
OpenClaw 配置使用 Ollama 本地模型
# ~/.openclaw/config.yaml
model:
provider: openai-compatible
baseUrl: "http://localhost:11434/v1"
apiKey: "ollama" # Ollama 不需要真实Key,随便填
model: "qwen3:14b" # 或 deepseek-r1:7b
三种方案性能与成本对比
DeepSeek API — 综合最优
推理能力最强,国内直连稳定,成本极低,新用户免费额度充足,最推荐。
2. Qwen3 API(阿里云)
8.5/10中文理解出色,多模态能力强,生态完善,适合需要图文处理的场景。价格与DeepSeek相当。
3. Ollama 本地部署
7.8/10完全零成本,数据不出本机,隐私最佳,但受硬件限制,响应速度较慢,适合硬件较好的用户。
进阶:动态切换模型策略
不同任务用不同模型可以在效果和成本之间取得最优平衡。OpenClaw 支持在技能(skill)级别指定使用的模型:
# 在 skill 配置中指定模型
# ~/.openclaw/skills/daily-report/config.yaml
name: daily-report
model:
provider: openai-compatible
baseUrl: "https://api.deepseek.com/v1"
model: "deepseek-reasoner" # 复杂报告用推理模型
# 简单任务技能用经济模型
# ~/.openclaw/skills/quick-reply/config.yaml
name: quick-reply
model:
provider: openai-compatible
model: "deepseek-chat" # 日常对话用便宜模型
国产 vs 境外模型:用哪个更合适?
这个问题没有标准答案,取决于你的具体需求。下面从几个维度给出客观对比:
| 维度 | DeepSeek/Qwen | Claude/GPT |
|---|---|---|
| 中文场景 | ✅ 更优 | 良好 |
| 代码生成 | DeepSeek 优秀 | ✅ Claude 更强 |
| 网络访问 | ✅ 国内直连 | 需要VPN |
| 费用 | ✅ 极低 | 较高 |
| 工具调用能力 | 良好 | ✅ 更成熟 |
💡 推荐策略:双模型组合使用
最佳实践是将 DeepSeek/Qwen 作为日常主力模型(成本低、中文好、稳定),当遇到复杂的工具调用任务或需要最高质量输出时,临时切换到 Claude(配合 VPN07 稳定访问)。这样既控制了成本,又保留了最强能力的备选。
常见配置问题解答
❌ 报错:model not found 或 unsupported model
原因:模型名称填写错误,或该账号没有开通对应模型权限。解决:在 API 控制台查看可用模型列表,确认模型名称拼写完全正确(区分大小写)。
⚠️ OpenClaw 工具调用(Tool Use)失败
原因:部分国产模型的工具调用格式与 OpenAI 有细微差异。解决:使用 DeepSeek-chat 而非 deepseek-reasoner(推理模型对工具调用支持稍弱),或在 config 中启用 toolCallFormat: openai。
💡 如何知道当前用的是哪个模型?
在 Telegram 或其他通道发送命令 !model 或 openclaw status,OpenClaw 会返回当前配置的模型信息。
使用国产模型后,还需要 VPN 吗?
即使使用国产模型,在以下场景中 OpenClaw 仍然需要 VPN 支持:
网页浏览任务
OpenClaw 的浏览器控制功能需要访问境外网站时(如 Twitter、Google、GitHub),必须使用 VPN 才能正常工作。
Gmail / Google Calendar 集成
如果配置了 Gmail 邮件管理或 Google 日历同步,这些 Google 服务需要通过 VPN 访问。
GitHub 操作
GitHub 在国内访问速度极慢,让 OpenClaw 自动提交 PR、管理 Issues 时需要 VPN 加速。
因此,即使主力模型换成国产方案,一款稳定的 VPN 依然是 OpenClaw 完整功能的必要保障。VPN07 运营十年,1000Mbps 千兆带宽,¥9/月起,是 OpenClaw 用户的最佳选择。
使用国产模型的年度成本分析
很多人好奇:用 OpenClaw 配合国产模型运行一年,到底要花多少钱?以中等使用量(每天约 20 次交互,每次平均 2000 Token)计算:
| 方案 | 月均Token消耗 | API月费 | 年度总费 |
|---|---|---|---|
| Claude API | 120万Token | 约¥25 | 约¥300 |
| DeepSeek-chat | 120万Token | 约¥1.2 | 约¥15 |
| Qwen3 Turbo | 120万Token | 约¥0.6 | 约¥7 |
| Ollama 本地 | 无限制 | ¥0 | ¥0 |
结论:国产模型让 AI 助手的门槛降至极低
配合 DeepSeek 或 Qwen API,一年的模型费用不超过 ¥20,加上 VPN07 的 ¥9/月(年费约 ¥108),全年总成本约 ¥120-130——相当于一顿普通外卖的价格,就能享有一个 24/7 在线的专属 AI 助手。这在两年前是不可想象的事情。
诚实告知:国产模型的当前局限性
作为一个客观的评测,我们也需要告知目前国产模型在 OpenClaw 场景下的已知局限性,让你做出最适合自己的选择:
工具调用能力稍弱
DeepSeek-reasoner(推理模式)在复杂的多工具调用链中偶有失误,Claude 在这方面依然领先。建议配合 DeepSeek-chat(对话模式)使用,工具调用更稳定。
英文专业场景表现稍逊
在处理英文法律文本、专业学术论文等高专业度英文内容时,Claude 的表现依然优于国产模型。中文场景则国产模型更有优势。
多模态能力仍在完善
图片理解、文档解析等多模态任务,部分国产 API 尚未完全支持,或接口格式与 OpenAI 有差异,需要额外适配。Qwen-VL 在这方面已有较好支持。