通过OpenClaw实现副业收入《OpenClaw赚钱实录从“养龙虾“到可持续变现的实践指南》会话修剪会在每次 LLM 调用之前从内存上下文中移除旧的工具结果。它不会重写磁盘上的会话历史记录*.jsonl。何时运行当启用mode: cache-ttl且会话的上一次 Anthropic 调用时间超过ttl时。仅影响发送给模型用于该请求的消息。仅对 Anthropic API 调用以及 OpenRouter 上的 Anthropic 模型生效。为获得最佳效果请将ttl与模型的cacheRetention策略匹配short 5 分钟long 1 小时。修剪后TTL 时间窗口会重置因此后续请求会保持缓存直到ttl再次过期。智能默认值AnthropicOAuth 或 setup-token配置文件启用cache-ttl修剪并将心跳设置为1h。API 密钥配置文件启用cache-ttl修剪将心跳设置为30m并对 Anthropic 模型默认使用cacheRetention: short。如果您显式设置了其中任意值OpenClaw不会覆盖它们。改进之处成本 缓存行为为何要修剪Anthropic 的提示缓存仅在 TTL 时间内有效。如果会话空闲时间超过 TTL下一次请求将重新缓存完整提示除非您先对其进行修剪。哪些方面变得更便宜修剪可减少 TTL 过期后首次请求的cacheWrite大小。为何 TTL 重置很重要一旦执行修剪缓存窗口就会重置因此后续请求可以复用新缓存的提示而无需再次缓存完整历史记录。它不会做什么修剪不会增加 token 或导致“双重”成本它只改变 TTL 过期后首次请求中被缓存的内容。可修剪的内容仅限toolResult消息。用户和助手消息永远不会被修改。最近的keepLastAssistants条助手消息受到保护在此截止点之后的工具结果不会被修剪。如果没有足够的助手消息来确定截止点则跳过修剪。包含图像块的工具结果会被跳过永远不会被修剪或清除。上下文窗口估算修剪使用估算的上下文窗口字符数 ≈ token 数 × 4。基础窗口按以下顺序确定models.providers.*.models[].contextWindow覆盖值。模型定义中的contextWindow来自模型注册表。默认值200000个 token。如果设置了agents.defaults.contextTokens则将其视为已解析窗口的上限最小值。模式cache-ttl仅当上一次 Anthropic 调用时间超过ttl默认5m时才运行修剪。运行时与之前相同采用软修剪 硬清除行为。软修剪与硬修剪软修剪仅针对超大的工具结果。保留开头和结尾插入...并附加包含原始大小的说明。跳过包含图像块的结果。硬清除用hardClear.placeholder替换整个工具结果。工具选择tools.allow/tools.deny支持*通配符。拒绝规则优先。匹配不区分大小写。允许列表为空 允许所有工具。与其他限制的交互内置工具已经会截断自己的输出会话修剪是额外的一层机制可防止长时间聊天在模型上下文中累积过多工具输出。压缩是独立的压缩会摘要并持久化而修剪是每次请求的临时操作。参见 https://blog.csdn.net/hy592070616/article/details/81707766。默认值启用时ttl:5mkeepLastAssistants:3softTrimRatio:0.3hardClearRatio:0.5minPrunableToolChars:50000softTrim:{ maxChars: 4000, headChars: 1500, tailChars: 1500 }hardClear:{ enabled: true, placeholder: [旧工具结果内容已清除] }示例默认关闭{ agents: { defaults: { contextPruning: { mode: off } } }, }启用 TTL 感知修剪{ agents: { defaults: { contextPruning: { mode: cache-ttl, ttl: 5m } } }, }限制修剪特定工具{ agents: { defaults: { contextPruning: { mode: cache-ttl, tools: { allow: [exec, read], deny: [*image*] }, }, }, }, }参见配置参考https://blog.csdn.net/hy592070616/article/details/81707766