聊天与模型
这一块是 ETOS LLM Studio 最容易被误判的部分。
它当然能聊天,但它的重点不是“能发消息”,而是把模型治理、多模态和阅读体验都做成可长期使用的原生系统。
如果你想看一条消息发出前的真实上下文拼装顺序,请直接读 提示词与上下文拼装。
会话管理
已经具备的能力
- 会话全文检索
- 消息序号定位
- 文件夹分类
- 批量移动
- 单会话跨端发送
这意味着它不是“新建一堆对话框”的轻量模型壳,而是真能把会话当作长期资产来管理。
多模型与多提供商
项目原生适配多种接口格式,包括:
- OpenAI
- Anthropic Claude
- Google Gemini
- 兼容 OpenAI 的各类服务
高级请求配置
如果你只是想正常使用,常规字段就够了。
但如果你属于喜欢折腾兼容接口、代理链路或特殊模型参数的人,这些能力会非常有用:
- 自定义请求头
- 参数表达式
- 原始 JSON 请求体
- 提供商级与全局代理
多模态
聊天不仅限于文本。
当前支持方向
- 图片输入
- 语音输入
- AI 图像生成
- 语音朗读
阅读体验
这部分是项目里一个很有存在感、但不一定会被 README 一眼看出来的地方。
主要表现
- Markdown 渲染增强
- 代码块高亮、复制反馈、折叠切换
- iOS 代码块预览
- Mermaid 渲染
- 引用块样式增强
- 思考内容自动预览
显示系统
你可以自定义的内容
- 字体文件,包括 WOFF / WOFF2
- 字体样式槽位优先级
- 气泡与文字颜色
- 无气泡 UI
- 字体回退策略
如果你对阅读体验敏感,这一部分的价值会非常明显,尤其在中英混排、符号较多或长篇回答场景下。
会话导入导出
项目不是封闭格式。
导入
支持导入多个第三方来源的会话,包括 Cherry Studio、RikkaHub、Kelivo、ChatGPT conversations 等。
导出
支持导出为:
- Markdown
- TXT
适合谁先读这一页
- 想知道这个项目和普通“模型客户端”有什么本质差别
- 你最在意的是模型兼容性、阅读体验和会话治理
- 你已经能正常聊天,下一步想把体验调到顺手