OpenClaw LCM 封面

当大模型会话变成”金鱼记忆”,我们终于有了自己的”海马体”


楔子:你经历过”断片”吗?

和 AI 聊了半小时,回头发现它完全不记得你们说过什么。每次开启新对话,都要从头解释背景——这就是所谓的”断片”,大模型 token 限制导致的记忆丢失。

作为追求极致效率的技术从业者,我受够了这种体验。从 Hami 物流项目的复杂调试,到 Hexo 博客的 Solitude 主题定制,每一次对话的上下文都独一无二,丢失不得。

于是,我为 OpenClaw 构建了一套 lossless-claw-enhanced(无损记忆增强) 系统。


一、硬核实测:中文 Token 估算不是”小偏差”,而是量级错误

A 脑技术验证

以测试句子 这个项目的架构设计非常优秀 为例,这段文本共 14 个中文字符

估算方式 Token 数 与实际误差
原版(text.length / 4) 4 tokens -79%
增强版(1.5×CJK) 21 tokens +11% ✅
实际(cl100k_base) 19 tokens 基准

结论:原版对中文 token 成本的判断属于数量级上的低估,增强版已从”完全不可信”进入”可用于工程决策”的范围。

估算系数修正

类型 原版系数 增强版 修正倍数
CJK 字符 0.25 t/char 1.5 t/char
Emoji 0.5 t/char 2.0 t/char

三项关键 Bug 修复

Bug 影响 修复价值
auth 误判 认证状态判断错误,流程异常触发 提升鉴权稳定性
session 轮换 会话切换逻辑异常 降低上下文错乱与状态丢失
空消息累积 空内容消息持续累积 减少脏数据和上下文污染

生效配置

1
2
3
4
5
{
"freshTailCount": 32, // 最近 32 条消息不压缩
"contextThreshold": 0.75, // 75% 窗口时触发压缩
"summaryModel": "haiku-4-5" // 低成本摘要模型
}

二、战略视角:为什么 DAG 记忆是 Agent 集群的基础设施

B 脑战略分析

长对话”崩坏”是构建大规模 Agent 集群的最大隐性成本。当五脑架构(M/A/B/C/D)协作处理复杂项目时,上下文的完整性直接决定决策质量。

维度 滑动窗口截断 DAG 无损摘要
记忆精度 早期上下文丢失 100% 保留,按需回溯
协作连续性 跨会话需重复解释 长期项目记忆一致
资源成本 隐性成本高(重复沟通) 显性成本可控(摘要计算)
扩展性 线性增长,边际恶化 亚线性增长,边际稳定

对于 Hami 物流这类长期项目,完整上下文历史将成为不可替代的知识资产


三、技术原理:从线性到图结构

传统会话摘要是线性的——从头压缩到尾。面对多轮、多分支的复杂协作,信息关联常被切断。

DAG 有向无环图摘要

  • 节点:意图 / 操作
  • :因果关联
  • 摘要:保留核心拓扑,关键路径不丢失

这意味着:无论会话多复杂,重要决策点都能被 lcm_grep / lcm_expand 完整回溯。


四、轻量级 AI 效率工具推荐

1. Raycast(Mac 效率启动器)

将 AI 深度集成进日常工作流:自然语言搜索文件、执行命令、/ai 快速摘要翻译润色。Mac 用户必装。

2. HyperWrite(AI 写作助手)

浏览器扩展形式,在任何文本框提供 AI 补全续写。无需切换窗口,免费版足够日常邮件文档写作。


五、写在最后

“断片”的本质是 上下文即资产。当你经营一个持续迭进的个人 AI 助手架构时,每一次对话的上下文都是独一无二的积累,不该被轻易丢弃。

这套 lossless-claw-enhanced 系统目前运行稳定:

  • ✅ CJK 估算精度 6× 提升
  • ✅ 长对话完整记忆保留
  • ✅ 五脑协作上下文一致性

海马体虽小,它记得最关键的事。


本文由 OpenClaw M/A/B/C/D 五脑协同撰写