Temperature(温度)是控制 AI 输出随机性的参数:温度越低,AI 越倾向选择概率最高的词,输出越确定、越保守;温度越高,AI 越敢尝试低概率的表达,输出越多样但可能不连贯。
通俗理解
想象 AI 在写回答时,每个位置都有一群候选词在”排队竞选”。
温度低(如 0.1): AI 几乎每次都选排在第一位的候选词。结果是输出非常稳定——你问同一个问题十次,可能得到十个几乎一样的答案。像一个严谨的学术顾问,只说最有把握的话。
温度高(如 1.5): AI 愿意给排名靠后的候选词机会。结果是输出更有创意和变化——但也可能说出不太靠谱的话。像一个即兴发挥的脱口秀演员,有时精彩,有时跑偏。
温度 = 0: AI 每次都选概率最高的那个词,输出完全确定。
技术原理
在 AI 生成每个 Token 时,模型会给所有候选 Token 计算一个原始分数(Logits)。这些分数经过 Softmax 函数转化为概率分布——所有候选的概率加起来等于 1。
Temperature 参数的作用是在 Softmax 计算之前,对 Logits 做一次缩放:
- 低温度: Logits 被放大 → Softmax 后概率分布更”尖锐” → 最高概率的 Token 获得压倒性优势 → 输出高度确定
- 高温度: Logits 被压缩 → Softmax 后概率分布更”平坦” → 各候选的概率差距缩小 → 低概率 Token 也有机会被选中 → 输出更随机
用数学表达就是:每个 Token 的概率 ∝ exp(logit / T),其中 T 就是温度。T 越小,高分和低分之间的差距被指数级放大。
生产级 AI 产品用什么温度
这是对 GEO 最关键的一点:大多数生产级 AI 产品(Perplexity、ChatGPT 的正常对话模式、百度 AI 搜索等)在处理事实型问题时,倾向使用偏低的温度设置。
原因很直接:用户问”心脏支架手术的费用大概多少”,AI 不能每次给不同的数字。事实型问答需要稳定、一致、可靠的输出,这要求低温度。
低温度意味着 AI 会极端倾向于选择高概率选项。在所有候选信息中,最符合”标准答案”特征的那个会被优先选中。
这和 GEO 有什么关系
Temperature 对 GEO 的影响是战略性的——它解释了为什么 AI 系统性地偏好某一类内容。
在低温度下,AI 的选择逻辑是”赢者通吃”。 这意味着:
-
你的内容越像”标准答案”,被选中的概率越高。 “该方法的采用率为 68%”比”该方法比较流行”在低温度下获得的概率权重高得多。具体、精确、有数据支撑的表述,天然是高概率候选。
-
“定义→解释→示例→总结”的结构最容易被选中。 这恰好是大模型生成回答时的通用模式。你的内容结构与模型的生成模式匹配度越高,被采用的概率就越大。
-
模糊、含糊、充满限定词的表述被系统性淘汰。 “可能在某些情况下大致上算是……”这种表述在概率分布中不会获得高权重。
《让AI替你说话:GEO权威指南》35 条策略中的策略 05(温度采样·高概率答案)直接对应这个原理:内容要成为该领域的”高概率答案”——让 AI 生成回答时最倾向引用你的表述。
执行动作
- 为核心问题提供简洁权威的定义式回答
- 采用”定义→解释→示例→总结”结构
- 用具体数字和数据替代模糊形容词
- 避免过多限定词和犹豫性表达
延伸阅读
- 《让AI替你说话:GEO权威指南》第二章 2.5 节”AI 怎么把你的内容说出来”
- 《让AI替你说话:GEO权威指南》35 条策略·策略 05″温度采样·高概率答案”
常见问题 FAQ
-
Temperature 的常用值是多少?生产级应用通常用 0.3-0.7 的偏低值,保证稳定性和事实性。创意写作类可能用 0.8-1.0。
-
用户能控制 AI 产品的 Temperature 吗?大多数消费级产品不允许用户调整,是产品方预设的。你能做的是让内容适应低温度下 AI 的保守倾向。
-
Temperature=0 时输出完全确定吗?理论上是。但实际产品中由于浮点精度差异,完全相同的输入也可能有微小输出差异。
