跳转到主要内容

Token 使用与成本

OpenClaw 跟踪的是 token,而不是字符。Token 是模型特定的,但大多数 OpenAI 风格的模型对于英文文本平均约 4 个字符为一个 token。

系统提示词如何构建

OpenClaw 在每次运行时组装自己的系统提示词。它包括:
  • 工具列表 + 简短描述
  • Skills 列表(仅元数据;指令通过 read 按需加载)
  • 自我更新指令
  • 工作区 + 引导文件(AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md(新建时))。大文件会被 agents.defaults.bootstrapMaxChars(默认:20000)截断。
  • 时间(UTC + 用户时区)
  • 回复标签 + 心跳行为
  • 运行时元数据(主机/操作系统/模型/思考)
完整分解参见系统提示词

什么算入上下文窗口

模型接收的所有内容都计入上下文限制:
  • 系统提示词(上面列出的所有部分)
  • 对话历史(用户 + 助手消息)
  • 工具调用和工具结果
  • 附件/转录(图片、音频、文件)
  • 压缩摘要和修剪产物
  • 提供商包装或安全头(不可见,但仍计数)
有关实际分解(每个注入文件、工具、Skills 和系统提示词大小),使用 /context list/context detail。参见上下文

如何查看当前 token 使用量

在聊天中使用:
  • /status → 带有会话模型、上下文使用量、 最后响应输入/输出 token 和预估成本(仅 API 密钥)的 emoji 丰富的状态卡片
  • /usage off|tokens|full → 在每个回复后附加每响应使用量页脚
    • 每会话持久化(存储为 responseUsage)。
    • OAuth 认证隐藏成本(仅 token)。
  • /usage cost → 从 OpenClaw 会话日志显示本地成本摘要。
其他界面:
  • TUI/Web TUI: 支持 /status + /usage
  • CLI: openclaw status --usageopenclaw channels list 显示 提供商配额窗口(不是每响应成本)。

成本估算(显示时)

成本从你的模型定价配置估算:
models.providers.<provider>.models[].cost
这些是 inputoutputcacheReadcacheWrite每 1M token 美元。如果缺少定价,OpenClaw 仅显示 token。OAuth 令牌 永远不显示美元成本。

缓存 TTL 和修剪影响

提供商提示缓存仅在缓存 TTL 窗口内适用。OpenClaw 可以 选择性地运行缓存 TTL 修剪:它在缓存 TTL 过期后修剪会话,然后重置缓存窗口,以便后续请求可以重用 新缓存的上下文,而不是重新缓存完整历史。这在会话空闲超过 TTL 时 可以降低缓存写入成本。 Gateway 网关配置 中配置它,并在 会话修剪 中查看行为详情。 心跳可以在空闲间隙中保持缓存。如果你的模型缓存 TTL 是 1h,将心跳间隔设置为略低于此(例如 55m)可以避免 重新缓存完整提示,从而降低缓存写入成本。 有关 Anthropic API 定价,缓存读取比输入 token 便宜得多,而缓存写入以更高的倍率计费。参见 Anthropic 的 提示缓存定价了解最新费率和 TTL 倍率: https://docs.anthropic.com/docs/build-with-claude/prompt-caching

示例:用心跳保持 1 小时缓存热

agents:
  defaults:
    model:
      primary: "anthropic/claude-opus-4-5"
    models:
      "anthropic/claude-opus-4-5":
        params:
          cacheRetention: "long"
    heartbeat:
      every: "55m"

减少 token 压力的技巧

  • 使用 /compact 来总结长会话。
  • 在你的工作流中修剪大的工具输出。
  • 保持 skill 描述简短(skill 列表会注入到提示中)。
  • 对于冗长的探索性工作,优先使用较小的模型。
精确的 skill 列表开销公式参见 Skills