OpenClaw /verbose 和 /reasoning 到底有什么区别?调试模式完全解析
本文说明:大量 OpenClaw 用户在 X.com 和社群里反映,搞不清楚 /verbose 和 /reasoning 这两个调试指令的区别——开启之后 token 消耗暴增,AI 回复变得极其冗长。本文从底层机制出发,逐一拆解这两个指令的工作原理、正确开启时机以及如何避免"调试炸弹"。
为什么这两个命令最容易被混淆?
如果你是 OpenClaw 的新用户,看到文档里同时提到 /verbose 和 /reasoning 这两个指令,大概率会认为它们都是"查看更多输出"的意思,然后随手两个都开了——结果是每次对话的回复长度翻了五倍,token 账单当月创下历史新高。
这是因为两者确实都能"展示更多内容",但展示的层级完全不同:/verbose 展示工具调用层的详情,而 /reasoning 展示模型思考层的推理过程。一个属于系统日志层面,一个属于 AI 认知层面。把这两个维度混为一谈,是绝大多数用户遇到 token 爆炸问题的根源。
/verbose
工具调用可见性
- 显示每次工具调用的输入/输出
- 显示 Skill 执行的原始结果
- 显示 API 调用的请求详情
- 不展示模型内部推理链
/reasoning
模型思考可见性
- 在正式回复前展示推理过程
- 带"Reasoning:"前缀的独立消息
- 帮助理解 AI 为何做出判断
- 不显示工具调用原始结果
/verbose 详解:看清工具调用的每一步
/verbose 是 OpenClaw 的工具调用可见性开关。当 AI 助理执行某个任务时,背后可能调用了十几个工具:查询天气 API、读取本地文件、搜索网页、发送 Telegram 消息……正常状态下这些操作都在后台静默进行,你只看到最终结果。开启 /verbose 后,每次工具调用的输入参数、执行结果、错误信息都会实时输出到聊天窗口。
/verbose 有三个参数级别:
静默模式。所有工具调用在后台执行,聊天界面只显示最终回复。适合日常使用,token 消耗最低。
标准调试模式。显示工具调用的名称、主要参数和结果摘要。可以看清 AI 用了哪些工具、结果是否正确,但不输出完整原始数据。
⚠️ 高危模式。输出所有工具调用的完整原始 JSON,包括每一个字段。排查复杂 Skill 问题时使用,会让聊天窗口变得极其冗长。用完立即关闭。
使用方式很简单,直接在聊天框发送以下指令即可:
# 开启标准调试模式
/verbose on
# 开启完整调试模式(谨慎!)
/verbose full
# 关闭调试模式(用完必须关)
/verbose off
# 内联用法:只对这条消息生效
/verbose on 帮我查一下今天的天气
/verbose 的典型使用场景
以下是最适合开启 /verbose 的几种情况:
Skill 执行异常
自定义 Skill 没有按预期工作,不知道是哪一步出错。开启 /verbose on 可以看到每次函数调用的参数和返回值,快速定位问题节点。
API 集成调试
配置了第三方 API(如 Gmail、Notion、Slack),但 AI 说执行成功而实际没有效果。/verbose on 能展示 API 请求的实际参数和响应内容。
性能分析
任务执行特别慢,想知道是哪个工具调用造成了瓶颈。通过工具调用的时间戳和顺序,可以发现耗时最长的步骤。
网络请求排查
AI 反复说"连接超时",但不确定是哪个端点失败。/verbose full 可以暴露完整的请求 URL 和错误信息。
/reasoning 详解:窥视模型的思考链
/reasoning 完全是另一回事。它控制的是模型内部推理过程的可见性。当 AI 收到你的问题后,在给出最终答案之前,它会经历一个"内心独白"式的思考过程——权衡各种可能性、分析利弊、规划行动步骤。默认情况下这个过程是不可见的。开启 /reasoning 后,这段思考过程会以带 "Reasoning:" 前缀的独立消息形式呈现在正式回复之前。
/reasoning 的三种参数:
模型推理过程完全隐藏,只输出最终答案。标准日常使用模式。
推理完成后,先发送一条"Reasoning: …"消息展示推理摘要,再发送正式回复。推理消息会在生成完成后一次性发出。
实时流式输出推理过程,推理内容一边生成一边显示。视觉效果像是在"实时看 AI 思考",但会显著增加等待感知时间,建议仅在开发/演示场景使用。
# 开启推理可见模式
/reasoning on
# 开启流式推理(实时查看思考过程)
/reasoning stream
# 关闭推理显示
/reasoning off
# 内联用法:仅对这条消息开启
/reasoning on 这个投资决策有哪些风险?
Token 消耗对比:同时开启有多可怕?
这是 X.com 上讨论最热烈的一个问题。实测数据显示,在同一个任务下,不同配置组合的 token 消耗差异巨大:
| 配置 | Token 倍数 | 适用场景 | 建议 |
|---|---|---|---|
| 默认(全关) | 1× | 日常使用 | ✅ 推荐 |
| /verbose on | 1.5× | 调试工具问题 | ⚡ 按需开 |
| /reasoning on | 2-3× | 分析复杂问题 | ⚡ 按需开 |
| /verbose full | 3-5× | 深度调试 | ⚠️ 用完关 |
| /verbose full + /reasoning stream | 8-15× | 几乎不需要 | ❌ 避免 |
最常见的三大误区
❌ 误区一:/reasoning 会让 AI 更聪明
很多用户误以为开启 /reasoning 会让 AI 回答更准确、更有深度。实际上,/reasoning 只是让你看到推理过程,并不改变模型的思考深度。真正影响推理质量的是 /think 指令(控制推理算力预算),而不是 /reasoning。
❌ 误区二:调试完忘记关闭
这是 token 账单暴增的最主要原因。很多用户开启调试模式查完问题后,忘记发送 /verbose off 或 /reasoning off。由于这两个指令是持久性的(会话内全程生效),后续所有对话都会带上额外输出,悄悄消耗大量 token。每次调试结束,必须立即关闭。
❌ 误区三:/verbose 能看到推理过程
/verbose 只暴露工具调用层的信息,无论开到 full 级别,都看不到模型的内部推理链。如果你想知道"AI 为什么做出这个决定",应该开 /reasoning;如果想知道"AI 调用了哪些工具、返回了什么数据",应该开 /verbose。
推荐的最佳使用策略
根据社群经验和实际使用反馈,以下是一套经过验证的调试策略,既能快速定位问题,又能把额外 token 消耗控制到最低:
先用内联模式,不要持久开启
调试时优先用内联写法 /verbose on 执行任务,这样只有这一条消息触发详细输出,不会影响后续会话。只有当需要连续多轮调试时,才考虑持久开启。
先开 verbose on,再考虑 full
大多数 Skill 问题用 /verbose on 就能定位,不需要 full。只有当 on 模式看不到足够信息时,才升级到 full,用完立即 off。
/reasoning 配合 /think high 使用才有价值
单独开 /reasoning on 而不配合高档位的 /think,看到的推理内容会很浅薄,性价比低。复杂决策场景建议组合:/think high /reasoning on 你的问题。
用 /usage tokens 监控当前消耗
调试期间配合 /usage tokens 指令,可以实时看到每条消息的 token 数量。如果某条消息 token 突然飙升,立即意识到调试模式可能还没关。
场景速查表:该用哪个?
AI 执行了任务但结果不对
/verbose on查看工具调用返回了什么数据,判断是 API 返回错了还是 AI 理解错了
AI 做了奇怪的决策,想知道为什么
/reasoning on查看模型的推理链,理解它为什么选择了这个行动路径
Skill 报错,不知道哪步出问题
/verbose full需要完整原始数据,定位具体的函数调用错误
做重要决策,想全程透明
/think high /reasoning on财务分析、合同审查等高风险决策,需要看到完整推理过程
日常聊天和自动化任务
全部关闭(默认)节省 token,保持聊天界面简洁
调试模式下对网络的要求更高
开启 /verbose full 或 /reasoning stream 后,单条消息的数据传输量会显著增加。原本一条回复可能只有 2KB,开启 full verbose 后可能变成 20-50KB,还带有实时流式输出。这对你的 AI API 连接质量提出了更高要求——轻微的网络抖动在普通模式下可能不会触发问题,但在调试模式下可能导致流式输出中断、消息截断甚至连接超时。
对于需要频繁调试 OpenClaw 的开发者和高级用户来说,网络稳定性几乎是必要条件。VPN07 覆盖全球 70+ 国家节点,1000Mbps 千兆带宽配合超低延迟,能够支撑高强度的调试会话。即便在流式输出 AI 推理链这种极端场景下,也不会出现数据包丢失或连接中断。运营十年的稳定性保障,月费仅 ¥9,真正做到调试无忧。