揭示大型语言模型中思维链提示的力量

2023年07月07日 由 daydream 发表 302150 0

引入思维链提示


大型语言模型(LLM)彻底改变了人工智能领域,在自然语言理解和生成方面展现了前所未有的能力。然而,它们在完成复杂推理任务方面的能力一直是一个研究热点。在这方面显示出潜力的技术是思维链(CoT)提示。本文探讨了CoT提示的复杂性及其对LLM未来的影响。



正如最近的一篇论文中介绍的那样,CoT提示是一种鼓励LLM解释其推理过程的方法。这是通过为模型提供一些示例来实现的,其中明确概述了推理过程。然后,LLM在回答提示时应遵循类似的推理过程。已经发现这种技术可以显着提高模型在需要复杂推理的任务上的性能。

CoT提示的主要优点之一是它能够提高LLM在需要算术,常识和符号推理的任务上的性能。该技术已被证明在大约1000亿参数的模型中产生了性能提升。然而,较小的模型往往会产生不合逻辑的思维链,导致准确性低于标准提示。

了解思维链提示


CoT提示的核心是引导LLM逐步思考。通过为模型提供一个展示了推理过程的范例,可以实现模型遵循类似的思维链回答提示。这种方法特别适用于需要多个推理步骤才能生成答案的复杂任务。

下面是一个CoT提示的示例(取自Machine Learning Mastery上的一篇文章),使用了一些策略:
问:Joe有20个鸡蛋。他买了2个鸡蛋盒。每个鸡蛋盒里有12个鸡蛋。现在Joe有多少个鸡蛋?

答:Joe起初有20个鸡蛋。2个鸡蛋盒共24个鸡蛋。20 + 24 = 44。因此,Joe有44个鸡蛋,答案是44。

问:农夫John有93只鸡。如果他把20只鸡卖给农夫Bill,然后再买回两倍的数量,现在John有多少只鸡?

ChatGPT的回答:
农夫John把20只鸡卖给农夫Bill,所以他还剩下93 - 20 = 73只鸡。然后他买回他卖掉数量的两倍,所以他买了2 * 20 = 40只鸡。把这些新买的鸡加到他剩下的鸡上,农夫John现在有73 + 40 = 113只鸡。

CoT提示也可用于零样本设置。这涉及在原始提示中添加一个短语,例如“让我们一步一步地思考”,也可以与少数提示一起使用。研究发现,这个简单的添加方法能够有效改善模型在提示中没有太多示例的任务上的性能。

自动化思维链提示


虽然CoT提示可能有效,但它通常涉及手工制作示例,这可能非常耗时,并可能导致不够优化的解决方案。为了解决这个问题,研究人员提出了一种称为自动连续思考(Auto-CoT)的方法。这种方法利用LLM自动生成演示的推理链,从而消除了手动工作的需要。

Auto-CoT包括两个主要阶段:问题聚类和演示抽样。在问题聚类阶段,来自给定数据集的问题被划分为几个聚类。在演示抽样阶段,从每个聚类中选择一个具有代表性的问题,并使用Zero-Shot-CoT和简单的启发式方法生成其推理链。此过程鼓励模型使用简单而准确的演示。

自动 CoT 流程:

1、问题聚类:将给定数据集的问题划分为几个聚类

2、演示抽样:从每个聚类中选择一个具有代表性的问题,并使用Zero-Shot-CoT和简单的启发式方法生成其推理链

局限性和未来方向


尽管CoT提示显示出潜力,但它也有其局限性。首先,它只在使用大约1000亿参数的模型时提供性能提升。较小的模型往往会产生不合逻辑的思维链,导致准确性低于标准提示。此外,CoT提示的性能提升通常与模型的大小成比例。

尽管存在这些限制,但CoT提示代表了在寻求增强LLM推理能力方面向前迈出的重要一步。 未来的研究可能集中在完善这项技术,并探索使其在更广泛的任务和模型规模中更有效的方法。

结论


思维链提示代表了人工智能领域的重大进步,特别是在增强大语言模型的推理能力方面。通过鼓励这些模型解释他们的推理过程,CoT提示在需要进行算术、常识和符号推理的复杂任务上表现出很大潜力。虽然这种技术有其局限性,但它为LLM的未来开辟了令人兴奋的可能性。

随着我们继续推动LLM可以实现的界限,CoT提示等技术将发挥关键作用。通过使这些模型能够逐步思考并解释其推理,我们不仅可以提高它们在复杂任务上的表现,还可以获得对其内部工作的宝贵见解。完全推理LLM的旅程仍然很长,但是通过CoT提示等技术,我们肯定走在正确的道路上。

 

来源:https://www.kdnuggets.com/2023/07/power-chain-thought-prompting-large-language-models.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消