Skip to content

成本优化

理解费用来源

OpenClaw 的 AI 调用费用主要来自:

来源说明优化空间
输入 Token发送给模型的文本⭐⭐⭐ 大
输出 Token模型生成的文本⭐⭐ 中
工具调用每次工具调用额外计费⭐⭐ 中

模型分级策略

不同任务使用不同模型,在效果和成本间平衡:

json
{
  "ai": {
    "routing": {
      "simple": "claude-haiku-4-5",
      "standard": "claude-sonnet-4-6",
      "complex": "claude-opus-4-6"
    }
  }
}
任务类型推荐模型成本
简单问答、翻译Haiku
日常开发、分析Sonnet
复杂推理、架构设计Opus

Prompt Caching

对于经常重复使用的长文本(如系统提示、项目文档),开启缓存可节省 90% 的输入费用

json
{
  "ai": {
    "promptCaching": true,
    "cacheSystemPrompt": true
  }
}

Anthropic 的缓存规则:

  • 最小缓存块:1024 Token
  • 缓存有效期:5 分钟(通话中)
  • 适合:系统提示、固定文档、长上下文

上下文压缩(Compaction)

当对话变长时,及时压缩历史:

bash
# 手动触发
/compact

# 自动压缩阈值配置
json
{
  "context": {
    "autoCompact": true,
    "compactThreshold": 0.8,
    "compactStrategy": "summary"
  }
}

compactThreshold: 0.8 表示上下文使用到 80% 时自动压缩。

监控使用量

bash
# 查看今日 Token 使用统计
openclaw stats today

# 查看本月费用估算
openclaw stats month

# 查看每个会话的消耗
openclaw stats sessions

实用技巧

  1. 精简系统提示:删除不必要的说明,越短越好
  2. 及时 /new:不相关的新任务开新对话,避免携带无关上下文
  3. 避免重复粘贴:用文件路径代替粘贴文件内容
  4. Haiku 做预处理:用便宜模型过滤、分类,再送给贵的模型处理

基于 OpenClaw 官方文档整理,仅供学习研究