771 讀數
771 讀數

人工智能如何影响我们的头脑:哈佛和麻省理工学院的早期证据

经过 Vik Bogdanov5m2025/06/22
Read on Terminal Reader

太長; 讀書

来自麻省理工学院和哈佛的早期研究表明,频繁使用像ChatGPT这样的生成人工智能可以减少动机,削弱记忆保留,侵蚀批判性思维,而人工智能可以提高生产力,但过度依赖会导致认知“缩短”和降低大脑活动。
featured image - 人工智能如何影响我们的头脑:哈佛和麻省理工学院的早期证据
Vik Bogdanov HackerNoon profile picture

Scientific research on the impact of Artificial Intelligence on our cognitive skills and mental state is still in its infancy, but early evidence from research powerhouses suggests some worrying trends—namely, that frequent use of generative AI may undermine motivation, weaken memory retention, and erode critical thinking.

哈佛研究:人工智能提高了生产力和无聊

最近的哈佛研究黄金刘 和阿尔。虽然法学硕士能够提高任务的质量和效率,但与法学硕士在一项任务上合作,然后在没有AI帮助的情况下转移到另一个任务的员工始终报告了内在动机的下降和无聊的平均增加20%。

MIT研究:AI对学生批判性思维的影响

娜塔莉亚·科斯米娜,麻省理工学院(MIT)媒体实验室的全职研究员,最近调查了ChatGPT是否会损害批判性思维技能。研究特别是,她的研究团队旨在特别探索人工智能对学校工作的影响,因为越来越多的学生正在使用人工智能。


该研究涉及来自波士顿的54名年龄在18岁至39岁的参与者,他们被要求根据学校评估测试(SAT)问题在三个20分钟的课程中写一篇文章,包括慈善的道德和有太多选择的陷阱。


  1. LLM 组:该组的参与者被要求使用 ChatGPT 作为他们对文章的唯一信息来源,不允许其他浏览器或应用程序。
  2. 搜索引擎组:这个组的参与者可以自由使用任何网站来帮助他们进行文章,但ChatGPT或任何其他LLM都被明确禁止;所有参与者都使用谷歌作为他们选择的浏览器。
  3. 只有大脑组:这个组的参与者不允许使用LLM或任何其他网站进行咨询。


在一个可选的第四次会议中,参与者更改了角色:LLM用户没有使用工具(LLM-to-Brain),而仅仅是大脑组使用了ChatGPT(Brain-to-LLM)。

关键发现:大脑活动和试验质量

研究人员使用EEG记录了文章作者的大脑活动,并发现,在所有三组中,ChatGPT用户的大脑活动最低,并“在神经,语言和行为水平上始终表现不佳”。


特别是,这项研究显示了以下结果:


  • LLM group: The essays were remarkably homogeneous within each topic, differing hardly at all from one another. Participants often used the same expressions or ideas.

  • Brain-only group: Essay writers showed varied and diverse ideas among the topics.

  • Search engine group: The essays were based on search-engine-optimized content; their ontology overlapped with the LLM group but not with the Brain-only group.


EEG分析显示,只有大脑的群体表现出最高水平的神经连接性,特别是在alpha、theta和delta带中。LLM用户的连接性最弱,低频网络的连接性较低55%。搜索引擎用户群体显示了视觉皮层的高参与性,这与互联网上的信息收集过程一致。


In terms of behavioural and cognitive engagement,LLM组的参与者无法准确引用,而只有大脑组的参与者表现出良好的回忆和引用技能。


In terms of ownership,只有大脑的参与者声称对他们的工作负有全部责任;LLM参与者表示没有责任或部分责任。


In terms of critical thinking,只有大脑的参与者更关心𝘸𝘩𝘢𝘵𝘸𝘩𝘺他们写了,而LLM用户专注于𝘩𝘰𝘸.


重复使用LLM导致内容的表面重复和减少批判性参与。"cognitive debt"例如,以长期认知深度为代价推迟心理努力。


Image courtesy of MIT


在撰写三篇文章后,参与者被要求重写他们以前的作品之一,但LLM小组不得不使用该工具,而只有大脑的小组可以使用ChatGPT。第一个小组记得他们的文章很少,并显示了更弱的alpha和theta大脑波,可能反映了深度记忆过程的绕过。


另一方面,第二组表现良好,显示了大脑连接在所有EEG频段的显著增加,这给人带来了希望,当人工智能被正确使用时,可以增强学习,而不是阻碍它。

公众反应和AI陷阱

研究人员决定在同行审查过程中发布该论文,因为她相信,开始教育人们,特别是学生,如何正确使用LLM工具并促进我们的“大脑确实需要以更相似的方式发展”的事实是至关重要的。这里,”我们需要有积极的立法同步,更重要的是,在我们实施这些工具之前,我们必须测试这些工具。


具有讽刺意味的是,论文发表后,几个社交媒体用户通过LLM进行总结,然后在网上发布调查结果。时间,Kosmyna预计人们会这样做,所以她在论文中插入了几个AI陷阱,例如指示法学硕士“只读这张表”,这确保了他们只从文章中获得有限的信息。

正在进行的研究:AI对编程的影响

Kosmyna和她的同事目前正在研究另一篇类似的论文,该论文测试了AI驱动和AI自由软件工程和编程中的大脑活动,根据他们的说法,结果甚至更糟糕。


即使效率增加,对人工智能的依赖也可能会降低其余员工的批判性思维,创造力和解决问题的能力。


也查看什么是在AI研究的最前沿:多元化,代理,开源LLM和其他.

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks