LLM 无需提示就能进行有效推理吗

  • 斌叔OKmath
  • 2024-11-24 14:12:28
LLM 无需提示就能进行有效推理吗?

@GoogleDeepMind
的精彩论文

通过在解码过程中考虑多条路径,LLM 无需特殊提示即可表现出更好的推理能力。它揭示了 LLM 的自然推理能力。

LLM 可以通过探索多条解码路径(而不是一条)来进行更好的推理。

论文发现,只需改变解码过程,就可以从预先训练的 LLM 中引出 CoT(思维链)推理路径。

原始问题 :

法学硕士 (LLM) 很难完成没有提示的推理任务,只能依靠人为设计的提示或微调。

-----

本文的解决方案 :

• 引入思想链 (CoT) 解码

• 在解码过程中探索替代的 top-k 个标记

• 利用模型对最终答案的信心来选择可靠的路径

• 将 CoT 解码与现有的提示技术相结合

-----

本文的关键见解 :

• 预先训练的 LLM 具有固有的推理能力

• CoT 路径存在,但在解码空间中排名通常较低

• CoT 的存在与更高的模型置信度相关

• CoT 解码部分弥补了预训练模型和指令调整模型之间的差距

• 任务难度影响正确 CoT 路径的存在

-----

结果 :

• CoT 解码显著提高了跨模型系列的推理性能

• PaLM-2 Large:GSM8K 准确率从 34.8% 提升至 63.2%

• Mistral-7B:GSM8K 准确率从 9.9% 上升至 25.1%

• 年份奇偶校验任务:在更大的模型规模上实现近乎完美的准确度

• 将 CoT 解码与零样本 CoT 提示相结合,进一步提升性能
LLM 无需提示就能进行有效推理吗