跳到主要内容
Temperature

Temperature 温度演示

温度越低,模型越倾向选择高概率词,输出更稳、更像标准答案;温度越高,词汇分布更分散,表达更跳跃。

Temperature
返回原理演示
查看产品

当前温度: 0.2

Prompt

给我一个新品发布会开场白。

低温稳定

欢迎各位来到今天的新品发布会,接下来我们将清晰展示本次升级带来的核心价值。

高温发散

今晚,我们不只是发布一款新品,而是把一次更大胆的体验推到所有人的面前。

Token 142%
Token 224%
Token 318%
Token 410%
Token 56%
欢迎各位来到今天的新品发布会,接下来我们将清晰展示本次升级带来的核心价值。

推荐下一步

推荐下一步

继续沿着相关主题看下去,会更容易把概念和工程实现串起来。

System + Few-shot + User -> Final Prompt

Prompt 结构演示

展示 system、user、assistant 示例如何被拼成最终输入,理解“提示词”不是单独一句话。

打开演示
Tokenize -> Embed -> Attend -> Decode -> Answer

LLM 问答过程动画

把提问、编码、推理、解码和输出的链路拆成可观察节点。

打开演示
Task -> Route Policy -> Best Model

模型路由

展示同一个请求为什么会按成本、速度和质量要求被分发给不同模型。

打开演示