跳到主要内容
Chat Memory

多轮对话记忆

历史消息会不断占用上下文窗口,对话越长,系统越需要做摘要、裁剪或选择性保留。

Chat Memory
返回原理演示
查看产品

当前保留轮数: 3

系统提示词
用户:我要写周报
助手:好的,你负责哪个项目?
用户:AI 官网改版
助手:你这周完成了什么?
用户:完成了首页和案例页
助手:还有待办吗?

推荐下一步

推荐下一步

继续沿着相关主题看下去,会更容易把概念和工程实现串起来。

System + History + User + Output <= Context Window

LLM 上下文长度

通过滑动窗口展示模型一次真正能“看到”的 token 范围,以及为什么旧内容会被截断。

打开演示
Task -> Skill Match -> Tool Plan -> Structured Output

什么是 Skills

把 Skills 理解成给模型的能力模块,演示请求如何被技能路由并转成稳定执行过程。

打开演示
System Rules > User Injection > Guardrails

Prompt 注入 / 安全边界

说明为什么 system 指令、权限隔离和工具边界不能只靠模型“自觉遵守”。

打开演示