VPN07

OpenClaw /usage 指令完全指南:实时追踪 token 消耗,彻底管控 AI 费用

2026-03-10 阅读约13分钟 费用控制 指令教程

本文说明:用 OpenClaw 搭建个人 AI 助理之后,最让用户头疼的问题之一就是"不知道烧了多少钱"。每次对话消耗了多少 token?这条自动化任务跑下来花了多少 API 费用?月底结账时为什么比预期高这么多?/usage 指令是 OpenClaw 内置的费用透明化工具,本文完整解析它的四个参数和最佳使用策略。

为什么 OpenClaw 的 token 费用难以预测?

普通 ChatGPT 对话的 token 消耗相对好预测——你发一条消息,AI 回复一条,费用大体成比例。但 OpenClaw 的工作方式完全不同,它是一个能自主执行多步骤任务的 AI 代理(Agent),每一次"对话"背后可能包含了几十次工具调用、数轮内部推理和多次 API 调用。

具体来说,以下因素都会大幅增加 token 消耗:soul.md 配置文件(每次调用都会包含)、所有激活的 Skills 定义(每次调用都要传入)、完整的对话历史(随时间线性增长)、/think 档位设置(high/xhigh 会产生大量内部推理 token)、工具调用的输入输出(每次 API 调用结果)。

一个看似简单的"帮我整理今天的邮件"请求,在后台可能触发了:读取邮件列表(工具调用)→ 对每封邮件进行分类(多次推理)→ 生成摘要(API 调用)→ 写入 memory(工具调用)……最终消耗的 token 是用户发送那条消息本身的几十倍。

4种
/usage 参数模式
实时
每条消息显示
$0.003
Claude Sonnet每千token
10-50×
Agent比对话消耗倍数

/usage 的四个参数模式详解

/usage 是一个持久性指令,设置后在整个会话中持续生效,每条 AI 回复结尾都会附上对应的统计信息。共有四个参数:

/usage off 默认状态
无额外输出

关闭所有使用量统计显示。每条 AI 回复不包含任何 token 或费用数据。日常使用场景的默认配置,保持聊天界面整洁。

/usage tokens 推荐日常开启
Token 数量

每条回复末尾显示本次调用的 token 数量,包括 input tokens(你发送的内容)和 output tokens(AI 生成的内容)。格式类似:

📊 tokens: input 4,521 | output 342 | total 4,863

适合想了解每次对话的 token 规模,但不需要精确计算费用的用户。

/usage full 完整统计
含缓存详情

显示完整的 token 分解,包括 cache read tokens(从缓存读取)和 cache write tokens(写入缓存)。这对于理解为什么某次调用比预期贵或便宜很有帮助:

📊 tokens: input 4,521 | cache_read 3,200 | cache_write 0 | output 342

cache_read tokens 的计费比 input tokens 便宜很多(约1/10的价格),所以当 cache_read 占比高时,实际费用会远低于你按 input tokens 计算的预估。

/usage cost 费用控制必备
实时费用

显示本次 API 调用的估算费用(美元),以及当前会话的累计费用。这是预防月底账单暴增最直接有效的工具:

📊 cost: $0.0142 | session total: $0.87

注意:显示的是本地估算值,基于官方公开定价计算,实际账单以 Anthropic/provider 官方为准。但对于日常预算控制来说已经足够准确。

完整使用方式

聊天窗口
# 开启 token 显示(推荐日常持久开启)
/usage tokens

# 开启费用显示(预算控制场景)
/usage cost

# 开启完整统计(含缓存分解)
/usage full

# 关闭所有统计
/usage off

# 内联用法:只对这条消息显示费用
/usage cost 帮我分析这个月的财务数据

如何正确理解 token 统计数据?

很多用户开启 /usage tokens 后看到 input token 数量比预期高很多,感到困惑。这是正常现象。以下是 input tokens 组成的完整拆解:

系统提示(soul.md + Skill 定义)

通常占总 input tokens 的 30-60%。soul.md 越详细、激活的 Skill 越多,这部分就越大。这是每次 API 调用的固定成本。

对话历史

随着对话深入而线性增长。一个进行了30轮对话的会话,每次新 API 调用都需要把前30轮的内容全部发送给模型。这是执行 /compact 能显著降低成本的原因。

工具调用结果

每次工具调用的返回结果也计入上下文。如果 AI 调用了搜索工具并返回了10篇文章的全文,这些内容都会进入下一次调用的 input tokens。

你当前发送的消息

通常只占总 input tokens 的 1-5%。所以优化消息长度对节省成本的帮助微乎其微,真正的成本在于系统提示和对话历史。

结合 /usage 的七个省钱实战策略

1

设置每日费用预警

持久开启 /usage cost,并告诉 AI:当累计费用超过 $1 时主动提醒你。这样 AI 可以在你的预算快耗尽时给出明确提示。

2

开启前后对比,量化 /compact 效果

在执行 /compact 前记录当前单次调用的 token 数,压缩后对比。通常 /compact 能把每次调用的 input tokens 降低 40-60%。数据最有说服力。

3

用 /usage full 分析缓存命中率

开启 full 模式后查看 cache_read vs input 的比例。如果 cache_read 占比低,说明缓存没有充分发挥作用,可能是每次会话重置了缓存状态。

4

对比不同 /think 档位的费用

开启 /usage cost 后,分别用 /think off/think medium/think high 执行同类任务,记录每次的费用差异,找到你这类任务的最优档位配置。

5

监控 batch 任务的单次费用

自动化任务执行时,用内联模式 /usage cost 执行任务 查看这个特定任务的费用。如果某个 batch 任务单次费用超出预期,调整任务颗粒度。

6

识别"费用大户" Skill

组合使用 /usage tokens/verbose on,对比启用不同 Skills 时的 input token 数量。找出消耗最多空间的 Skill,决定是否需要在非必要时禁用它。

7

定期记录会话总费用做月度分析

每周结束时,用 /usage cost 记录当周会话总费用,建立个人的 token 消耗基线。当某周费用异常增加时,能快速发现并溯源。

常用模型费用参考(2026)

了解各模型的定价有助于你在开启 /usage cost 后正确判断数字是否合理:

模型 Input ($/1K tokens) Output ($/1K tokens) 适合场景
Claude Opus 4.6 $0.015 $0.075 复杂推理/重要决策
Claude Sonnet 4.5 $0.003 $0.015 日常任务首选
Claude Haiku 4.5 $0.00025 $0.00125 简单任务/高频调用
DeepSeek Chat $0.00014 $0.00028 成本极低备用模型
GitHub Copilot 包含在订阅 包含在订阅 已有订阅者最优

从上表可以看出,Claude Haiku 和 DeepSeek 的费用只有 Sonnet 的 1/10 甚至更低。对于不需要复杂推理的任务(发送通知、简单问答、格式转换),切换到轻量模型可以显著降低成本。用 /usage cost 实测不同模型的费用差异,是找到个人最优配置的最科学方法。

/usage 使用中的三个常见误区

❌ 误区一:/usage cost 显示的是实际扣款金额

/usage cost 显示的是本地估算值,基于公开定价计算。由于 OpenClaw 无法实时访问你的账单数据,显示的数字可能与实际账单有 5-15% 的偏差。把它作为趋势参考和预算警报,而非精确账单。

❌ 误区二:GitHub Copilot 模式下 /usage cost 显示 $0

使用 GitHub Copilot 订阅作为模型 provider 时,/usage cost 会显示 $0,因为费用已包含在订阅月费中。但这不代表没有成本——你的 Copilot 订阅有请求配额,超出后仍会产生额外费用。

❌ 误区三:/usage tokens 和 token 配额消耗完全一致

缓存读取 tokens(cache_read)不会消耗同等的计费配额。/usage full 里显示的 cache_read tokens 按折扣价计费,在速率限制计算上也可能有特殊处理。使用 /usage full 能看到真实的分项数据。

网络质量如何影响你的 token 账单?

这是很多人忽视的隐性成本来源。当网络不稳定导致 API 请求超时,OpenClaw 会自动重试——每次重试都需要重新发送完整的上下文,这些重复的 input tokens 全部计入账单。网络越差,重试越多,同一个任务的实际费用就越高。

/usage tokens 持续监控时,如果你发现某些时段同类任务的 input tokens 数量异常偏高,可能不是任务本身变重了,而是网络不稳定触发了多次重试。这时切换到稳定的网络环境往往能立竿见影地降低账单。

VPN07 提供 1000Mbps 千兆带宽,覆盖全球 70+ 国家节点,让 API 请求第一次就成功,彻底消除网络重试带来的额外 token 消耗。十年稳定运营历史,月费仅 ¥9,是 OpenClaw 费用优化链条中最值得的一环。

VPN07 — 消除网络重试,降低token账单

1000Mbps千兆 · API零重试 · 70+国家节点

每次网络超时都会触发 OpenClaw 重试,额外消耗几千个 token。VPN07 千兆稳定网络让每次 API 调用一次成功,把因网络导致的冗余 token 消耗降为零。

¥9/月
超低月费
1000Mbps
千兆带宽
70+国家
全球节点
30天
无理由退款

相关文章推荐

月费¥9 · 运营十年
免费试用 VPN07