本文说明:OpenClaw 支持接入多种国产 AI 模型提供商——百度千帆(Qianfan)、智谱 AI(GLM)、MiniMax、月之暗面(Moonshot)、Z.AI 等。这些模型国内访问速度更快、费用更低,是中国用户的最优选择。本文逐条解答所有相关命令与配置问题。
一、OpenClaw支持的国产AI模型概览
💡 为什么中国用户应优先考虑国产模型?
Anthropic/OpenAI的API需要通过国际网络访问,延迟高、偶有断线。国产模型API服务器在国内,响应更快(延迟通常低50-80%)、价格更低(部分免费额度)、合规性更好。OpenClaw通过统一的 models 配置支持所有这些提供商,并支持自动切换(failover)。
二、openclaw models 命令完整解析
openclaw models [list|test|set|show]
模型管理
Q:openclaw models list 显示哪些信息?怎么判断模型是否可用?
显示所有已配置的模型提供商及其状态:✅ 表示API密钥有效且可连通;❌ 表示密钥错误或网络不通;⚠️ 表示配置不完整。每条记录包含:提供商名称、模型ID、Token限制、是否为默认模型。看到 ❌ 时先检查API密钥是否正确,再检查网络连通性。
Q:openclaw models test <provider> 是做什么的?
向指定提供商发送一个测试请求,验证API密钥有效性和网络连通性,并显示响应时间(ms)。例如 openclaw models test qianfan 验证千帆配置。响应时间可帮你选择延迟最低的模型。
Q:openclaw models set 如何切换默认模型?
运行 openclaw models set <provider>/<model-id>,例如 openclaw models set minimax/abab6.5s-chat。也可在 ~/.openclaw/openclaw.json 中设置 agent.model 字段,重启生效。聊天中发送 /model 也可临时切换。
Q:模型failover(自动切换)如何配置?
在配置文件中设置 agent.modelFailover 为模型列表数组,OpenClaw会在主模型失败时自动按顺序切换备用模型。建议配置:主模型用GLM-4,备用用MiniMax,再备用用千帆,最后fallback到国际模型。
三、百度千帆(Qianfan)接入配置问答
provider: qianfan | ERNIE-4.0-8K / ERNIE-Speed
百度千帆
Q:千帆API密钥在哪里获取?配置格式是什么?
在百度智能云控制台(qianfan.baidu.com)获取 API Key 和 Secret Key。在配置文件设置:
providers:
qianfan:
apiKey: "your-api-key"
secretKey: "your-secret-key"
model: "ERNIE-4.0-8K"
Q:千帆报错 "AccessToken获取失败" 怎么办?
这是最常见错误,原因是 API Key / Secret Key 顺序填反,或千帆账号欠费暂停。确认步骤:1) 重新复制密钥(注意不是同一个字段);2) 在千帆控制台检查账单状态;3) 运行 openclaw models test qianfan 查看详细错误信息。
Q:千帆哪个模型最适合 OpenClaw 日常使用?
ERNIE-4.0-8K:综合能力最强,推荐日常任务;ERNIE-Speed:响应最快、成本最低,适合简单问答和自动化任务;ERNIE-3.5:在速度和质量间平衡。OpenClaw 工具调用(Tool Use)推荐使用 ERNIE-4.0 系列。
四、智谱AI(GLM)接入配置问答
provider: glm | GLM-4 / GLM-4-Flash
智谱AI
Q:GLM配置时为什么提示 "model not found"?
智谱的模型 ID 区分大小写,常见错误:写成 glm4 而非 glm-4。正确的模型ID列表:glm-4、glm-4-flash(免费)、glm-4v(多模态)。在 open.bigmodel.cn 查看最新模型列表。
Q:GLM-4-Flash是免费的吗?OpenClaw能用它做什么?
是的,GLM-4-Flash 目前对个人用户提供大量免费Token(需注册智谱账号)。适合用于:自动化定时任务(cron)、消息摘要、简单问答等低复杂度场景。复杂的工具调用任务仍建议使用 GLM-4。
Q:GLM的工具调用(Function Calling)稳定吗?
GLM-4 已完整支持 Function Calling,OpenClaw 的所有工具(文件读写、shell命令、浏览器控制等)均可正常使用。GLM-4-Flash 对工具调用的支持相对有限,复杂多步任务建议用 GLM-4。
五、MiniMax、月之暗面、Z.AI 配置问答
provider: minimax | MiniMax M2 / abab6.5s
MiniMax
Q:MiniMax需要填GroupID吗?在哪里找?
是的,MiniMax API 需要同时提供 apiKey 和 groupId。在 minimaxi.com 控制台 → 账号信息中找到GroupID(一串数字)。缺少GroupID会报 401 Unauthorized 错误。
Q:MiniMax MiniMax M2.1有多快?适合哪种场景?
MiniMax M2.1是目前速度最快的国产大模型之一,社区用户实测在 OpenClaw 中运行 cron 定时任务响应时间约100-300ms。特别适合高频自动化任务和实时响应场景。工具调用支持完整,可驱动全部 OpenClaw 功能。
provider: moonshot | moonshot-v1-8k / 32k / 128k
月之暗面
Q:月之暗面128K上下文在OpenClaw中有什么优势?
超长上下文让 OpenClaw 能处理完整的大型代码库、长文档分析等任务。当 sessions show 显示 Token 接近上限报错时,换用 moonshot-v1-128k 可解决问题。适合需要「记住」大量文件内容的编程助手场景。
Q:月之暗面API报错 "rate limit exceeded" 怎么解决?
月之暗面对新账号有RPM(每分钟请求数)限制。解决方案:1) 升级月之暗面账号等级;2) 在 OpenClaw 配置中设置 agent.requestDelay: 2000(每次请求间隔2秒);3) 配置 failover 到其他提供商作为备用。
provider: zai | Z1 / Z1-mini
Z.AI
Q:Z.AI如何在openclaw.json中配置?
Z.AI 使用 OpenAI 兼容格式,配置示例:providers.zai.apiKey 填入从 z.ai 控制台获取的密钥,providers.zai.baseUrl 填入 https://api.z.ai/v1,model 填 z1 或 z1-mini。
六、openclaw configure 命令:模型配置交互向导
openclaw configure [providers|models|reset]
Q:configure 和直接编辑配置文件有什么区别?
openclaw configure 提供交互式向导界面,自动验证输入格式、测试API连通性,适合初次配置或不熟悉YAML/JSON语法的用户。直接编辑 ~/.openclaw/openclaw.json 更灵活,支持批量配置多个提供商。两者效果相同。
Q:configure providers 如何一次配置多个国产提供商?
运行 openclaw configure providers 进入提供商选择界面,用空格键多选(GLM + MiniMax + 千帆),向导会依次引导填写每个提供商的密钥。完成后自动写入配置文件并测试连通性。
⚠️ Q:configure reset 会删除所有已配置的国产模型吗?
是的,openclaw configure reset 会将配置文件重置为默认状态,所有自定义的提供商配置(包括国产模型密钥)都会丢失。操作前务必备份:cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.bak
七、国产模型API访问与网络加速
📊 国产模型 vs 国际模型网络对比
延迟低(50-150ms),无需VPN,但访问海外内容时仍需加速
VPN07 1000Mbps千兆带宽:延迟稳定在100-200ms,无断线
八、国产模型通用故障排查
🔧 五步排障法(适用所有国产提供商)
- 1运行
openclaw models list查看所有提供商状态(绿色 vs 红色) - 2运行
openclaw models test <provider>获取详细错误信息 - 3运行
openclaw doctor检查整体健康状态(含网络/密钥/配置) - 4运行
openclaw logs --tail 50查看最近50条日志寻找错误堆栈 - 5运行
openclaw dns check验证DNS是否能解析各提供商的API域名
❌ 报错:SSL certificate error
国产模型API偶发SSL证书问题。临时解决:在配置中加 provider.insecure: true(不推荐生产环境);长期方案:更新Node.js至最新版本。
❌ 报错:context_length_exceeded
会话过长超出模型上下文窗口。解决:运行 openclaw sessions delete <id> 清空当前会话,或切换到支持更长上下文的月之暗面128K模型。