VPN07

OpenClaw /verbose 和 /reasoning 到底有什么区别?调试模式完全解析

2026-03-10 阅读约12分钟 指令教程 调试技巧

本文说明:大量 OpenClaw 用户在 X.com 和社群里反映,搞不清楚 /verbose/reasoning 这两个调试指令的区别——开启之后 token 消耗暴增,AI 回复变得极其冗长。本文从底层机制出发,逐一拆解这两个指令的工作原理、正确开启时机以及如何避免"调试炸弹"。

为什么这两个命令最容易被混淆?

如果你是 OpenClaw 的新用户,看到文档里同时提到 /verbose/reasoning 这两个指令,大概率会认为它们都是"查看更多输出"的意思,然后随手两个都开了——结果是每次对话的回复长度翻了五倍,token 账单当月创下历史新高。

这是因为两者确实都能"展示更多内容",但展示的层级完全不同:/verbose 展示工具调用层的详情,而 /reasoning 展示模型思考层的推理过程。一个属于系统日志层面,一个属于 AI 认知层面。把这两个维度混为一谈,是绝大多数用户遇到 token 爆炸问题的根源。

/v

/verbose

工具调用可见性

  • 显示每次工具调用的输入/输出
  • 显示 Skill 执行的原始结果
  • 显示 API 调用的请求详情
  • 不展示模型内部推理链
参数:on / full / off
/r

/reasoning

模型思考可见性

  • 在正式回复前展示推理过程
  • 带"Reasoning:"前缀的独立消息
  • 帮助理解 AI 为何做出判断
  • 不显示工具调用原始结果
参数:on / off / stream

/verbose 详解:看清工具调用的每一步

/verbose 是 OpenClaw 的工具调用可见性开关。当 AI 助理执行某个任务时,背后可能调用了十几个工具:查询天气 API、读取本地文件、搜索网页、发送 Telegram 消息……正常状态下这些操作都在后台静默进行,你只看到最终结果。开启 /verbose 后,每次工具调用的输入参数、执行结果、错误信息都会实时输出到聊天窗口。

/verbose 有三个参数级别:

off(默认)

静默模式。所有工具调用在后台执行,聊天界面只显示最终回复。适合日常使用,token 消耗最低。

on

标准调试模式。显示工具调用的名称、主要参数和结果摘要。可以看清 AI 用了哪些工具、结果是否正确,但不输出完整原始数据。

full

⚠️ 高危模式。输出所有工具调用的完整原始 JSON,包括每一个字段。排查复杂 Skill 问题时使用,会让聊天窗口变得极其冗长。用完立即关闭。

使用方式很简单,直接在聊天框发送以下指令即可:

Telegram / Discord / WhatsApp
# 开启标准调试模式
/verbose on

# 开启完整调试模式(谨慎!)
/verbose full

# 关闭调试模式(用完必须关)
/verbose off

# 内联用法:只对这条消息生效
/verbose on 帮我查一下今天的天气

/verbose 的典型使用场景

以下是最适合开启 /verbose 的几种情况:

Skill 执行异常

自定义 Skill 没有按预期工作,不知道是哪一步出错。开启 /verbose on 可以看到每次函数调用的参数和返回值,快速定位问题节点。

API 集成调试

配置了第三方 API(如 Gmail、Notion、Slack),但 AI 说执行成功而实际没有效果。/verbose on 能展示 API 请求的实际参数和响应内容。

性能分析

任务执行特别慢,想知道是哪个工具调用造成了瓶颈。通过工具调用的时间戳和顺序,可以发现耗时最长的步骤。

网络请求排查

AI 反复说"连接超时",但不确定是哪个端点失败。/verbose full 可以暴露完整的请求 URL 和错误信息。

/reasoning 详解:窥视模型的思考链

/reasoning 完全是另一回事。它控制的是模型内部推理过程的可见性。当 AI 收到你的问题后,在给出最终答案之前,它会经历一个"内心独白"式的思考过程——权衡各种可能性、分析利弊、规划行动步骤。默认情况下这个过程是不可见的。开启 /reasoning 后,这段思考过程会以带 "Reasoning:" 前缀的独立消息形式呈现在正式回复之前。

/reasoning 的三种参数:

off(默认)

模型推理过程完全隐藏,只输出最终答案。标准日常使用模式。

on

推理完成后,先发送一条"Reasoning: …"消息展示推理摘要,再发送正式回复。推理消息会在生成完成后一次性发出。

stream

实时流式输出推理过程,推理内容一边生成一边显示。视觉效果像是在"实时看 AI 思考",但会显著增加等待感知时间,建议仅在开发/演示场景使用。

聊天窗口
# 开启推理可见模式
/reasoning on

# 开启流式推理(实时查看思考过程)
/reasoning stream

# 关闭推理显示
/reasoning off

# 内联用法:仅对这条消息开启
/reasoning on 这个投资决策有哪些风险?

Token 消耗对比:同时开启有多可怕?

这是 X.com 上讨论最热烈的一个问题。实测数据显示,在同一个任务下,不同配置组合的 token 消耗差异巨大:

配置 Token 倍数 适用场景 建议
默认(全关) 日常使用 ✅ 推荐
/verbose on 1.5× 调试工具问题 ⚡ 按需开
/reasoning on 2-3× 分析复杂问题 ⚡ 按需开
/verbose full 3-5× 深度调试 ⚠️ 用完关
/verbose full + /reasoning stream 8-15× 几乎不需要 ❌ 避免

最常见的三大误区

❌ 误区一:/reasoning 会让 AI 更聪明

很多用户误以为开启 /reasoning 会让 AI 回答更准确、更有深度。实际上,/reasoning 只是让你看到推理过程,并不改变模型的思考深度。真正影响推理质量的是 /think 指令(控制推理算力预算),而不是 /reasoning

❌ 误区二:调试完忘记关闭

这是 token 账单暴增的最主要原因。很多用户开启调试模式查完问题后,忘记发送 /verbose off/reasoning off。由于这两个指令是持久性的(会话内全程生效),后续所有对话都会带上额外输出,悄悄消耗大量 token。每次调试结束,必须立即关闭。

❌ 误区三:/verbose 能看到推理过程

/verbose 只暴露工具调用层的信息,无论开到 full 级别,都看不到模型的内部推理链。如果你想知道"AI 为什么做出这个决定",应该开 /reasoning;如果想知道"AI 调用了哪些工具、返回了什么数据",应该开 /verbose

推荐的最佳使用策略

根据社群经验和实际使用反馈,以下是一套经过验证的调试策略,既能快速定位问题,又能把额外 token 消耗控制到最低:

1

先用内联模式,不要持久开启

调试时优先用内联写法 /verbose on 执行任务,这样只有这一条消息触发详细输出,不会影响后续会话。只有当需要连续多轮调试时,才考虑持久开启。

2

先开 verbose on,再考虑 full

大多数 Skill 问题用 /verbose on 就能定位,不需要 full。只有当 on 模式看不到足够信息时,才升级到 full,用完立即 off。

3

/reasoning 配合 /think high 使用才有价值

单独开 /reasoning on 而不配合高档位的 /think,看到的推理内容会很浅薄,性价比低。复杂决策场景建议组合:/think high /reasoning on 你的问题

4

用 /usage tokens 监控当前消耗

调试期间配合 /usage tokens 指令,可以实时看到每条消息的 token 数量。如果某条消息 token 突然飙升,立即意识到调试模式可能还没关。

场景速查表:该用哪个?

AI 执行了任务但结果不对

/verbose on

查看工具调用返回了什么数据,判断是 API 返回错了还是 AI 理解错了

AI 做了奇怪的决策,想知道为什么

/reasoning on

查看模型的推理链,理解它为什么选择了这个行动路径

Skill 报错,不知道哪步出问题

/verbose full

需要完整原始数据,定位具体的函数调用错误

做重要决策,想全程透明

/think high /reasoning on

财务分析、合同审查等高风险决策,需要看到完整推理过程

日常聊天和自动化任务

全部关闭(默认)

节省 token,保持聊天界面简洁

调试模式下对网络的要求更高

开启 /verbose full/reasoning stream 后,单条消息的数据传输量会显著增加。原本一条回复可能只有 2KB,开启 full verbose 后可能变成 20-50KB,还带有实时流式输出。这对你的 AI API 连接质量提出了更高要求——轻微的网络抖动在普通模式下可能不会触发问题,但在调试模式下可能导致流式输出中断、消息截断甚至连接超时。

对于需要频繁调试 OpenClaw 的开发者和高级用户来说,网络稳定性几乎是必要条件。VPN07 覆盖全球 70+ 国家节点,1000Mbps 千兆带宽配合超低延迟,能够支撑高强度的调试会话。即便在流式输出 AI 推理链这种极端场景下,也不会出现数据包丢失或连接中断。运营十年的稳定性保障,月费仅 ¥9,真正做到调试无忧。

调试模式下的网络需求

低延迟
流式输出不卡顿
稳定性
长连接不中断
1000Mbps
大数据量传输
70+国家
就近连接API

VPN07 — OpenClaw 调试必备网络

千兆带宽 · 70+国家节点 · 十年稳定运营

调试模式下的高密度数据传输,需要稳定的千兆网络保障。VPN07 提供 1000Mbps 带宽,流式输出不卡顿,API 连接零丢包,让你的每一次调试会话都顺畅无阻。

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天
无理由退款

相关文章推荐

月费¥9 · 运营十年
免费试用 VPN07