jixiaxue 知识库
← blog-write 提示词系列

让 AI 先想清楚再回答:一句话的魔法

2026-04-19 已发布

让 AI 先想清楚再回答:一句话的魔法

这篇文章要解决什么问题

你让 AI 算一道稍微复杂的题,或者做一个需要几步推理的决策,它经常会跳过中间过程,直接给一个结论。这个结论有时是错的,但更常见的问题是——你看不出它到底是怎么想的,没法判断这个结论可不可信。

比如你问:“一个水果摊有 23 个苹果,上午卖掉 8 个,下午进了 12 个,最后剩下的一半给了员工,剩多少?” 现代模型通常能答对,但它给你的可能只是一个”14”——你不知道它中间是怎么算的,有没有偷懒跳步骤,万一错了你也没法追查。

读完这篇你能带走什么

  • 什么是思维链(Chain of Thought, CoT),以及它是怎么被发现的
  • 一句话的魔法技巧:让 AI 在回答前先展示思考过程
  • 什么场景特别适合用,什么场景不需要(避免过度使用)

什么是思维链(CoT)

思维链(Chain of Thought,简称 CoT)就是让 AI 在回答问题之前,把思考过程一步一步写出来,而不是直接给结论。

这不是什么复杂的技术,就是一个 prompt 上的小技巧。但它的效果夸张到当时让整个研究圈震动——在 Kojima 2022 论文的 MultiArith 数学推理数据集上,text-davinci-002 模型的准确率从约 18% 提升到约 79%,就因为在问题后面加了一句话。

一个科学的笨办法

Zero-shot CoT(不需要给示例,一句话触发)的发现过程挺朴素的——不是灵光一闪,是科学的笨办法

2022 年,Takeshi Kojima 团队想找一个”让模型自发分步推理”的触发语,他们手工列了一堆候选挨个测:

  • “Let’s solve this problem by splitting it into steps.”
  • “Let’s think about this logically.”
  • “Let’s think step by step.”
  • 还有更多类似的尝试……

在大量实验之后,他们发现**“Let’s think step by step”效果最好**——就这一句英文,6 个词,准确率提升最明显。这个结论写进论文《Large Language Models are Zero-Shot Reasoners》,成了 prompt 工程史上最有名的发现之一。

翻译成中文就是——“请一步一步思考”

为什么”一句话”就能有效

上一篇讲过 AI 是”概率预测引擎”——它一个词一个词地生成回答。

这意味着:对大部分聊天模型来说,输出本身就是思考过程——它没有一个单独的”想”的阶段,也没有演算中间步骤的空间。所有的推理要么发生在输出里,要么就没发生。

所以对复杂问题,AI 的出错不是”不会”,而是”没有机会想”——在还没有把问题拆清楚之前,它就开始写结论了。

“请一步一步思考”这句话改变了 AI 的输出路径。原本 AI 可能跳过 5 步直接给结论,加了这句话后它会把每一步分别写出来。每写对一步,就为下一步提供了更准的上下文;同时你也能在任何一步发现问题并纠正它。

一个例外

有一类专门的推理模型(官方宣传时会强调”思考""reasoning”之类的字眼),它们内部已经在做 CoT 这件事了——会先进行大量看不见的推理再给你最终结论。对这类模型,“请一步步思考”的效果会弱一些,因为机制已经内置了。

但对你日常用的普通聊天模型(大多数场景下用的都是这类),这招依然非常有效。

什么时候特别需要用

这招在以下场景效果特别明显:

  • 数学/计算题:尤其是多步运算、含百分比、含单位换算的题
  • 逻辑推理:案件分析、关系推断、条件判断
  • 多步决策:从 A、B、C 三个方案里选一个,涉及多个评估维度
  • 代码调试:让 AI 先描述程序执行流程,再指出问题所在
  • 文档分析:从一份长材料中提取信息、做对比、得结论

这些任务的共同点是——答案依赖于中间步骤是否正确。让 AI 把中间步骤说出来,你也能在任何一步发现问题并纠正它。

什么时候不需要用

不是所有问题都需要这招。以下场景用了反而会让 AI 啰嗦:

  • 简单事实查询(“水的沸点是多少”)
  • 简单分类(“这句话是表扬还是批评”)
  • 开放式写作(“写一段 100 字的自我介绍”)

这些问题要么没什么”推理步骤”可言,要么推理过程对最终结果没影响。加”一步步思考”只会让 AI 多写一段冗余的解释。

判断原则很简单:如果你觉得这个问题换一个聪明点的人来答,需要动笔演算或者分步骤分析——那就加这句话。否则不用加。

进阶一点:给它一个”草稿本”

如果你想让 AI 的思考过程更清晰,或者想把”思考”和”结论”明确分开,可以用一个更结构化的写法:

请按下面的格式回答:

思考过程: [一步步分析问题]

最终结论: [一句话的答案]

这样 AI 的输出会被切成两块——结论清楚,推理过程也在。当结论有疑问时,你能直接回到具体某一步检查它的推理对不对,而不是整段回答重新理解一遍。

这一招在你需要把 AI 的答案转给别人看的场景特别有用——结论一眼看到,推理链也齐全可查。


如果 Zero-shot 不够用,还有更强的 Few-shot CoT(给几个示例让 AI 模仿推理风格),下一篇专门讲。