Token 使用与成本
OpenClaw 跟踪的是 token,而不是字符。Token 是模型特定的,但大多数 OpenAI 风格的模型对于英文文本平均约 4 个字符为一个 token。系统提示词如何构建
OpenClaw 在每次运行时组装自己的系统提示词。它包括:- 工具列表 + 简短描述
- Skills 列表(仅元数据;指令通过
read按需加载) - 自我更新指令
- 工作区 + 引导文件(
AGENTS.md、SOUL.md、TOOLS.md、IDENTITY.md、USER.md、HEARTBEAT.md、BOOTSTRAP.md(新建时))。大文件会被agents.defaults.bootstrapMaxChars(默认:20000)截断。 - 时间(UTC + 用户时区)
- 回复标签 + 心跳行为
- 运行时元数据(主机/操作系统/模型/思考)
什么算入上下文窗口
模型接收的所有内容都计入上下文限制:- 系统提示词(上面列出的所有部分)
- 对话历史(用户 + 助手消息)
- 工具调用和工具结果
- 附件/转录(图片、音频、文件)
- 压缩摘要和修剪产物
- 提供商包装或安全头(不可见,但仍计数)
/context list 或 /context detail。参见上下文。
如何查看当前 token 使用量
在聊天中使用:/status→ 带有会话模型、上下文使用量、 最后响应输入/输出 token 和预估成本(仅 API 密钥)的 emoji 丰富的状态卡片。/usage off|tokens|full→ 在每个回复后附加每响应使用量页脚。- 每会话持久化(存储为
responseUsage)。 - OAuth 认证隐藏成本(仅 token)。
- 每会话持久化(存储为
/usage cost→ 从 OpenClaw 会话日志显示本地成本摘要。
- TUI/Web TUI: 支持
/status+/usage。 - CLI:
openclaw status --usage和openclaw channels list显示 提供商配额窗口(不是每响应成本)。
成本估算(显示时)
成本从你的模型定价配置估算:input、output、cacheRead 和
cacheWrite 的每 1M token 美元。如果缺少定价,OpenClaw 仅显示 token。OAuth 令牌
永远不显示美元成本。
缓存 TTL 和修剪影响
提供商提示缓存仅在缓存 TTL 窗口内适用。OpenClaw 可以 选择性地运行缓存 TTL 修剪:它在缓存 TTL 过期后修剪会话,然后重置缓存窗口,以便后续请求可以重用 新缓存的上下文,而不是重新缓存完整历史。这在会话空闲超过 TTL 时 可以降低缓存写入成本。 在 Gateway 网关配置 中配置它,并在 会话修剪 中查看行为详情。 心跳可以在空闲间隙中保持缓存热。如果你的模型缓存 TTL 是1h,将心跳间隔设置为略低于此(例如 55m)可以避免
重新缓存完整提示,从而降低缓存写入成本。
有关 Anthropic API 定价,缓存读取比输入
token 便宜得多,而缓存写入以更高的倍率计费。参见 Anthropic 的
提示缓存定价了解最新费率和 TTL 倍率:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
示例:用心跳保持 1 小时缓存热
减少 token 压力的技巧
- 使用
/compact来总结长会话。 - 在你的工作流中修剪大的工具输出。
- 保持 skill 描述简短(skill 列表会注入到提示中)。
- 对于冗长的探索性工作,优先使用较小的模型。