OpenClaw /usage 指令完全指南:实时追踪 token 消耗,彻底管控 AI 费用
本文说明:用 OpenClaw 搭建个人 AI 助理之后,最让用户头疼的问题之一就是"不知道烧了多少钱"。每次对话消耗了多少 token?这条自动化任务跑下来花了多少 API 费用?月底结账时为什么比预期高这么多?/usage 指令是 OpenClaw 内置的费用透明化工具,本文完整解析它的四个参数和最佳使用策略。
为什么 OpenClaw 的 token 费用难以预测?
普通 ChatGPT 对话的 token 消耗相对好预测——你发一条消息,AI 回复一条,费用大体成比例。但 OpenClaw 的工作方式完全不同,它是一个能自主执行多步骤任务的 AI 代理(Agent),每一次"对话"背后可能包含了几十次工具调用、数轮内部推理和多次 API 调用。
具体来说,以下因素都会大幅增加 token 消耗:soul.md 配置文件(每次调用都会包含)、所有激活的 Skills 定义(每次调用都要传入)、完整的对话历史(随时间线性增长)、/think 档位设置(high/xhigh 会产生大量内部推理 token)、工具调用的输入输出(每次 API 调用结果)。
一个看似简单的"帮我整理今天的邮件"请求,在后台可能触发了:读取邮件列表(工具调用)→ 对每封邮件进行分类(多次推理)→ 生成摘要(API 调用)→ 写入 memory(工具调用)……最终消耗的 token 是用户发送那条消息本身的几十倍。
/usage 的四个参数模式详解
/usage 是一个持久性指令,设置后在整个会话中持续生效,每条 AI 回复结尾都会附上对应的统计信息。共有四个参数:
关闭所有使用量统计显示。每条 AI 回复不包含任何 token 或费用数据。日常使用场景的默认配置,保持聊天界面整洁。
每条回复末尾显示本次调用的 token 数量,包括 input tokens(你发送的内容)和 output tokens(AI 生成的内容)。格式类似:
📊 tokens: input 4,521 | output 342 | total 4,863
适合想了解每次对话的 token 规模,但不需要精确计算费用的用户。
显示完整的 token 分解,包括 cache read tokens(从缓存读取)和 cache write tokens(写入缓存)。这对于理解为什么某次调用比预期贵或便宜很有帮助:
📊 tokens: input 4,521 | cache_read 3,200 | cache_write 0 | output 342
cache_read tokens 的计费比 input tokens 便宜很多(约1/10的价格),所以当 cache_read 占比高时,实际费用会远低于你按 input tokens 计算的预估。
显示本次 API 调用的估算费用(美元),以及当前会话的累计费用。这是预防月底账单暴增最直接有效的工具:
📊 cost: $0.0142 | session total: $0.87
注意:显示的是本地估算值,基于官方公开定价计算,实际账单以 Anthropic/provider 官方为准。但对于日常预算控制来说已经足够准确。
完整使用方式
# 开启 token 显示(推荐日常持久开启)
/usage tokens
# 开启费用显示(预算控制场景)
/usage cost
# 开启完整统计(含缓存分解)
/usage full
# 关闭所有统计
/usage off
# 内联用法:只对这条消息显示费用
/usage cost 帮我分析这个月的财务数据
如何正确理解 token 统计数据?
很多用户开启 /usage tokens 后看到 input token 数量比预期高很多,感到困惑。这是正常现象。以下是 input tokens 组成的完整拆解:
系统提示(soul.md + Skill 定义)
通常占总 input tokens 的 30-60%。soul.md 越详细、激活的 Skill 越多,这部分就越大。这是每次 API 调用的固定成本。
对话历史
随着对话深入而线性增长。一个进行了30轮对话的会话,每次新 API 调用都需要把前30轮的内容全部发送给模型。这是执行 /compact 能显著降低成本的原因。
工具调用结果
每次工具调用的返回结果也计入上下文。如果 AI 调用了搜索工具并返回了10篇文章的全文,这些内容都会进入下一次调用的 input tokens。
你当前发送的消息
通常只占总 input tokens 的 1-5%。所以优化消息长度对节省成本的帮助微乎其微,真正的成本在于系统提示和对话历史。
结合 /usage 的七个省钱实战策略
设置每日费用预警
持久开启 /usage cost,并告诉 AI:当累计费用超过 $1 时主动提醒你。这样 AI 可以在你的预算快耗尽时给出明确提示。
开启前后对比,量化 /compact 效果
在执行 /compact 前记录当前单次调用的 token 数,压缩后对比。通常 /compact 能把每次调用的 input tokens 降低 40-60%。数据最有说服力。
用 /usage full 分析缓存命中率
开启 full 模式后查看 cache_read vs input 的比例。如果 cache_read 占比低,说明缓存没有充分发挥作用,可能是每次会话重置了缓存状态。
对比不同 /think 档位的费用
开启 /usage cost 后,分别用 /think off、/think medium、/think high 执行同类任务,记录每次的费用差异,找到你这类任务的最优档位配置。
监控 batch 任务的单次费用
自动化任务执行时,用内联模式 /usage cost 执行任务 查看这个特定任务的费用。如果某个 batch 任务单次费用超出预期,调整任务颗粒度。
识别"费用大户" Skill
组合使用 /usage tokens 和 /verbose on,对比启用不同 Skills 时的 input token 数量。找出消耗最多空间的 Skill,决定是否需要在非必要时禁用它。
定期记录会话总费用做月度分析
每周结束时,用 /usage cost 记录当周会话总费用,建立个人的 token 消耗基线。当某周费用异常增加时,能快速发现并溯源。
常用模型费用参考(2026)
了解各模型的定价有助于你在开启 /usage cost 后正确判断数字是否合理:
| 模型 | Input ($/1K tokens) | Output ($/1K tokens) | 适合场景 |
|---|---|---|---|
| Claude Opus 4.6 | $0.015 | $0.075 | 复杂推理/重要决策 |
| Claude Sonnet 4.5 | $0.003 | $0.015 | 日常任务首选 |
| Claude Haiku 4.5 | $0.00025 | $0.00125 | 简单任务/高频调用 |
| DeepSeek Chat | $0.00014 | $0.00028 | 成本极低备用模型 |
| GitHub Copilot | 包含在订阅 | 包含在订阅 | 已有订阅者最优 |
从上表可以看出,Claude Haiku 和 DeepSeek 的费用只有 Sonnet 的 1/10 甚至更低。对于不需要复杂推理的任务(发送通知、简单问答、格式转换),切换到轻量模型可以显著降低成本。用 /usage cost 实测不同模型的费用差异,是找到个人最优配置的最科学方法。
/usage 使用中的三个常见误区
❌ 误区一:/usage cost 显示的是实际扣款金额
/usage cost 显示的是本地估算值,基于公开定价计算。由于 OpenClaw 无法实时访问你的账单数据,显示的数字可能与实际账单有 5-15% 的偏差。把它作为趋势参考和预算警报,而非精确账单。
❌ 误区二:GitHub Copilot 模式下 /usage cost 显示 $0
使用 GitHub Copilot 订阅作为模型 provider 时,/usage cost 会显示 $0,因为费用已包含在订阅月费中。但这不代表没有成本——你的 Copilot 订阅有请求配额,超出后仍会产生额外费用。
❌ 误区三:/usage tokens 和 token 配额消耗完全一致
缓存读取 tokens(cache_read)不会消耗同等的计费配额。/usage full 里显示的 cache_read tokens 按折扣价计费,在速率限制计算上也可能有特殊处理。使用 /usage full 能看到真实的分项数据。
网络质量如何影响你的 token 账单?
这是很多人忽视的隐性成本来源。当网络不稳定导致 API 请求超时,OpenClaw 会自动重试——每次重试都需要重新发送完整的上下文,这些重复的 input tokens 全部计入账单。网络越差,重试越多,同一个任务的实际费用就越高。
用 /usage tokens 持续监控时,如果你发现某些时段同类任务的 input tokens 数量异常偏高,可能不是任务本身变重了,而是网络不稳定触发了多次重试。这时切换到稳定的网络环境往往能立竿见影地降低账单。
VPN07 提供 1000Mbps 千兆带宽,覆盖全球 70+ 国家节点,让 API 请求第一次就成功,彻底消除网络重试带来的额外 token 消耗。十年稳定运营历史,月费仅 ¥9,是 OpenClaw 费用优化链条中最值得的一环。