Temperature 是什么:一个参数决定 AI 回答的”性格”

Contents

    Temperature(温度)是控制 AI 输出随机性的参数:温度越低,AI 越倾向选择概率最高的词,输出越确定、越保守;温度越高,AI 越敢尝试低概率的表达,输出越多样但可能不连贯。

    通俗理解

    想象 AI 在写回答时,每个位置都有一群候选词在”排队竞选”。

    温度低(如 0.1): AI 几乎每次都选排在第一位的候选词。结果是输出非常稳定——你问同一个问题十次,可能得到十个几乎一样的答案。像一个严谨的学术顾问,只说最有把握的话。

    温度高(如 1.5): AI 愿意给排名靠后的候选词机会。结果是输出更有创意和变化——但也可能说出不太靠谱的话。像一个即兴发挥的脱口秀演员,有时精彩,有时跑偏。

    温度 = 0: AI 每次都选概率最高的那个词,输出完全确定。

    技术原理

    在 AI 生成每个 Token 时,模型会给所有候选 Token 计算一个原始分数(Logits)。这些分数经过 Softmax 函数转化为概率分布——所有候选的概率加起来等于 1。

    Temperature 参数的作用是在 Softmax 计算之前,对 Logits 做一次缩放:

    • 低温度: Logits 被放大 → Softmax 后概率分布更”尖锐” → 最高概率的 Token 获得压倒性优势 → 输出高度确定
    • 高温度: Logits 被压缩 → Softmax 后概率分布更”平坦” → 各候选的概率差距缩小 → 低概率 Token 也有机会被选中 → 输出更随机

    用数学表达就是:每个 Token 的概率 ∝ exp(logit / T),其中 T 就是温度。T 越小,高分和低分之间的差距被指数级放大。

    生产级 AI 产品用什么温度

    这是对 GEO 最关键的一点:大多数生产级 AI 产品(Perplexity、ChatGPT 的正常对话模式、百度 AI 搜索等)在处理事实型问题时,倾向使用偏低的温度设置。

    原因很直接:用户问”心脏支架手术的费用大概多少”,AI 不能每次给不同的数字。事实型问答需要稳定、一致、可靠的输出,这要求低温度。

    低温度意味着 AI 会极端倾向于选择高概率选项。在所有候选信息中,最符合”标准答案”特征的那个会被优先选中。

    这和 GEO 有什么关系

    Temperature 对 GEO 的影响是战略性的——它解释了为什么 AI 系统性地偏好某一类内容。

    在低温度下,AI 的选择逻辑是”赢者通吃”。 这意味着:

    1. 你的内容越像”标准答案”,被选中的概率越高。 “该方法的采用率为 68%”比”该方法比较流行”在低温度下获得的概率权重高得多。具体、精确、有数据支撑的表述,天然是高概率候选。

    2. “定义→解释→示例→总结”的结构最容易被选中。 这恰好是大模型生成回答时的通用模式。你的内容结构与模型的生成模式匹配度越高,被采用的概率就越大。

    3. 模糊、含糊、充满限定词的表述被系统性淘汰。 “可能在某些情况下大致上算是……”这种表述在概率分布中不会获得高权重。

    《让AI替你说话:GEO权威指南》35 条策略中的策略 05(温度采样·高概率答案)直接对应这个原理:内容要成为该领域的”高概率答案”——让 AI 生成回答时最倾向引用你的表述。

    执行动作

    • 为核心问题提供简洁权威的定义式回答
    • 采用”定义→解释→示例→总结”结构
    • 用具体数字和数据替代模糊形容词
    • 避免过多限定词和犹豫性表达

    延伸阅读

    • 《让AI替你说话:GEO权威指南》第二章 2.5 节”AI 怎么把你的内容说出来”
    • 《让AI替你说话:GEO权威指南》35 条策略·策略 05″温度采样·高概率答案”

    常见问题 FAQ

    • Temperature 的常用值是多少?
      生产级应用通常用 0.3-0.7 的偏低值,保证稳定性和事实性。创意写作类可能用 0.8-1.0。
    • 用户能控制 AI 产品的 Temperature 吗?
      大多数消费级产品不允许用户调整,是产品方预设的。你能做的是让内容适应低温度下 AI 的保守倾向。
    • Temperature=0 时输出完全确定吗?
      理论上是。但实际产品中由于浮点精度差异,完全相同的输入也可能有微小输出差异。
    最近更新:2026年4月12日👁 0  ·  👍 0  ·  👎 0
    这篇内容对你有帮助吗?