这项工作探索了两个概念如何简单地解锁大型语言模型的推理能力。首先,算术推理技术可以从生成导致最终答案的自然语言解释中受益。先前的工作通过从头开始训练(Ling等人,2017年)或微调预训练模型(Cobbe等人,2021年)使模型能够生成自然语言的中间步骤,此外还有使用形式语言而非自然语言的神经-符号方法(Roy和Roth,2015年;Chiang和Chen,2019年;Amini等人,2019年;Chen等人,2019年)。其次,大型语言模型提供了通过提示进行上下文内少量样本学习的激动人心的前景。即,不需要为每个新任务微调一个单独的语言模型检查点,而只需用几个输入-输出样例“提示”模型。令人惊讶的是,这种方法在一系列简单的问答回答任务上已经成功(Brown等人,2020年)。