记忆与世界书
如果你希望 AI 不是“每次都从零开始认识你”,那这一块就是 ETOS LLM Studio 最值得花时间理解的地方。
如果你想看这套系统在代码层面的职责拆分,而不是功能概览,请直接读 记忆、会话摘要与用户画像 和 世界书与工具治理。
本地 RAG 记忆
项目的记忆系统不是把所有数据都丢给远端做托管。
核心特点
- Embedding 可以调用云端 API
- 向量数据库本身完全本地运行
- 底层使用 SQLite
- 支持文本分块、嵌入进度可视化、记忆编辑与主动检索
这意味着记忆能力和设备本地的数据治理是绑定在一起的。
会话记忆与用户画像
除了通用记忆项,项目里还有更偏“长期对话状态”的一层能力。
作用
- 记录会话摘要
- 维护用户画像
- 让长期对话不必每次重建上下文
如果你会把 ETOS LLM Studio 当成长期陪伴式或工作流式客户端来用,这部分很有价值。
世界书
世界书更像是一套可条件触发的背景知识系统。
已支持的能力
- 类似 Lorebook 的设定组织方式
- 条件触发
- 会话绑定
- 隔离发送
- system 注入
- URL 导入
格式兼容性
当前兼容方向比较广,包括:
- PNG naidata
- JSON 顶层数组
character_book格式
如果你手上已经有其他客户端或社区格式的设定资料,迁移成本会明显更低。
记忆和世界书的区别
| 能力 | 更适合存什么 |
|---|---|
| 记忆 | 用户长期偏好、知识片段、检索型信息 |
| 世界书 | 角色设定、背景资料、条件触发内容 |
最容易出问题的情况,是把本该做条件注入的内容全塞进记忆里,或者把应该长期检索的资料塞进世界书里。
使用建议
先做什么
- 先从少量高价值内容开始
- 观察模型对这些内容的实际使用效果
- 只有确认有价值时再扩大规模
不要急着做什么
- 一上来导入大量杂乱文本
- 不区分长期记忆与场景设定
- 在没配好嵌入模型前批量生成所有向量
关联阅读
- 想看 Daily Pulse 如何利用长期偏好:读 Daily Pulse
- 想看更偏操作层面的提示:读 隐藏技巧