OpenClaw 3 周连续运行提炼的 5 条核心经验
OpenClaw 3 周连续运行提炼的 5 条核心经验
来源: @shao__meng
整理时间: 2026-03-03
一句话总结
结构化记忆 + 成本分层 + 规则工程 + 主动调度 + 防御性架构
1. 你的 AI 的记忆力,只取决于它的文件系统有多好
- 平面文本文件无法扩展
- 必须把知识结构化为 Projects → Areas → Resources → Archives
- 再叠加语义搜索,才能实现“按含义检索”而非“grep 碰运气”
- 仅用一下午就从混乱检索升级到结构化召回
2. 不是每个任务都需要调用你最好的模型
- 曾用高端付费模型跑 cron 任务检查”SSH 是否开启”,纯属浪费
- 现在改用廉价模型做监控、调度
- 把顶级模型留给写作、研究、判断类任务
- 效果相同,成本仅为原来的几分之一
3. 给它的是 Rules,而不是 Vibes
- “Be helpful” 完全无效
- 必须写具体、可验证的规则,例如:
- “启动任何新任务前先检查 ACTIVE-TASKS.md”
- “说’完成’前必须用工具调用验证”
- “Telegram 里只用项目符号列表,绝不用表格”
- 每一次失误,都要转化为一条新规则
- 规则会随时间复合累积
4. 让它主动来找你,而不是你去找它
通过 cron 定时任务实现:
- 每天 7 点晨报
- 10 点和 15 点业务提醒
- 每 4 小时系统健康检查
Agents 会主动推送,而非被动等待指令
- 目前运行 13 个定时任务
- 完全不需要手动触发
5. 不要”请求”AI 不要泄露机密,而是让泄露在技术上不可能
- 类似”永远不要打印 API Key”的规则会被遗忘
- 正确做法是:从系统架构层面构建防线
- 把密钥存进 macOS Keychain
- 用 pre-commit hook 防 Git 泄露
- 用 sed 管道对敏感输出进行脱敏
- 而不是寄希望于模型”听话”
“希望不是安全策略。”
总结
| 经验 | 核心要点 |
|---|---|
| 1. 记忆力 | 结构化知识 + 语义搜索 |
| 2. 成本 | 廉价模型做监控,顶级模型做创作 |
| 3. 规则 | 具体可验证,累积成体系 |
| 4. 主动 | 定时任务驱动,而非手动触发 |
| 5. 安全 | 架构层防御,技术上杜绝泄露 |