研究发现使用大型语言模型可能导致学习能力下降

2025年06月20日 由 佚名 发表 200 0


麻省理工学院的科学家们发现,使用大型语言模型可能会导致学习能力的下降。


时间报道研究团队本周的发现。在一篇预印本论文中,科学家们详细说明了这些新数据是经过数月研究得出的成果。


麻省理工学院的团队要求来自波士顿地区的54名参与者在20分钟内写一篇短文。参与者被分为三组。第一组在没有任何外部帮助的情况下写作,第二组可以使用搜索引擎,第三组使用ChatGPT。


研究人员重复了四次练习。在第四次,使用ChatGPT的参与者与独立写作的参与者交换了角色。第四次测试是在第一次测试四个月后进行的。


“虽然最初的好处很明显,但在我们四个月的研究过程中,使用大型语言模型的参与者在所有层面上的表现都不如仅用大脑的参与者:神经、语言、评分,”研究人员在论文中写道。


麻省理工学院团队通过参与者佩戴的脑电图(EEG)头戴设备收集测试数据。这些设备使用电极来测量佩戴者的脑活动。研究人员还向参与者提出了一系列问题,以补充头戴设备收集的数据。


EEG设备使用一种称为动态定向传递函数(dDTF)连接的指标来测量佩戴者的认知负荷。该指标描述了不同大脑区域相互作用的强度。根据研究人员的说法,使用大型语言模型的参与者在写作时的dDTF连接度比没有使用ChatGPT的参与者低多达55%。


使用大型语言模型的组在写作练习中也表现出较低的额中线θ活动。额中线θ脑波与涉及集中注意力的认知活动相关。“在仅用大脑组中显著的θ连接在大型语言模型组中相对较弱或缺失,”研究人员发现。


在项目的后续阶段,麻省理工学院团队要求研究参与者引用他们的文章。使用大型语言模型的组在这项任务中的表现不如其他两组。此外,该组的参与者报告称他们对所写文章的“感知所有权”较低。


“我们展示了基于研究结果的学习能力可能下降的紧迫问题,”研究人员写道。“这些发现支持一种教育模式,即在学习者进行足够的自主认知努力之前推迟AI的整合。这种方法可能同时促进工具的即时效能和持久的认知自主性。”



文章来源:https://siliconangle.com/2025/06/19/study-finds-llm-use-leads-likely-decrease-learning-skills/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消