LLM 无需提示就能进行有效推理吗
- 斌叔OKmath
- 2024-11-24 14:12:28
LLM 无需提示就能进行有效推理吗?
@GoogleDeepMind
的精彩论文
通过在解码过程中考虑多条路径,LLM 无需特殊提示即可表现出更好的推理能力。它揭示了 LLM 的自然推理能力。
LLM 可以通过探索多条解码路径(而不是一条)来进行更好的推理。
论文发现,只需改变解码过程,就可以从预先训练的 LLM 中引出 CoT(思维链)推理路径。
原始问题 :
法学硕士 (LLM) 很难完成没有提示的推理任务,只能依靠人为设计的提示或微调。
-----
本文的解决方案 :
• 引入思想链 (CoT) 解码
• 在解码过程中探索替代的 top-k 个标记
• 利用模型对最终答案的信心来选择可靠的路径
• 将 CoT 解码与现有的提示技术相结合
-----
本文的关键见解 :
• 预先训练的 LLM 具有固有的推理能力
• CoT 路径存在,但在解码空间中排名通常较低
• CoT 的存在与更高的模型置信度相关
• CoT 解码部分弥补了预训练模型和指令调整模型之间的差距
• 任务难度影响正确 CoT 路径的存在
-----
结果 :
• CoT 解码显著提高了跨模型系列的推理性能
• PaLM-2 Large:GSM8K 准确率从 34.8% 提升至 63.2%
• Mistral-7B:GSM8K 准确率从 9.9% 上升至 25.1%
• 年份奇偶校验任务:在更大的模型规模上实现近乎完美的准确度
• 将 CoT 解码与零样本 CoT 提示相结合,进一步提升性能
@GoogleDeepMind
的精彩论文
通过在解码过程中考虑多条路径,LLM 无需特殊提示即可表现出更好的推理能力。它揭示了 LLM 的自然推理能力。
LLM 可以通过探索多条解码路径(而不是一条)来进行更好的推理。
论文发现,只需改变解码过程,就可以从预先训练的 LLM 中引出 CoT(思维链)推理路径。
原始问题 :
法学硕士 (LLM) 很难完成没有提示的推理任务,只能依靠人为设计的提示或微调。
-----
本文的解决方案 :
• 引入思想链 (CoT) 解码
• 在解码过程中探索替代的 top-k 个标记
• 利用模型对最终答案的信心来选择可靠的路径
• 将 CoT 解码与现有的提示技术相结合
-----
本文的关键见解 :
• 预先训练的 LLM 具有固有的推理能力
• CoT 路径存在,但在解码空间中排名通常较低
• CoT 的存在与更高的模型置信度相关
• CoT 解码部分弥补了预训练模型和指令调整模型之间的差距
• 任务难度影响正确 CoT 路径的存在
-----
结果 :
• CoT 解码显著提高了跨模型系列的推理性能
• PaLM-2 Large:GSM8K 准确率从 34.8% 提升至 63.2%
• Mistral-7B:GSM8K 准确率从 9.9% 上升至 25.1%
• 年份奇偶校验任务:在更大的模型规模上实现近乎完美的准确度
• 将 CoT 解码与零样本 CoT 提示相结合,进一步提升性能