社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

ChatGPT用多了会变傻!MIT招募大学生做实验论证,用得越多人越笨

量子位 • 4 天前 • 31 次点击  
鹭羽 发自 凹非寺
量子位 | 公众号 QbitAI

大学生过度用ChatGPT,大脑会变傻!

MIT最新脑科学研究发现:这类AI工具将会显著降低大脑活动水平,削弱记忆,甚至造成“认知惯性”。

长期依赖,还会影响你的深度思考与创造力。

该实验结合了脑电图神经成像、NLP分析和行为科学,也是首次用数据证实了这一结论。

网友们也随即发现,类似的影响也出现在使用谷歌地图这类导航工具时,借助工具,反而越来越笨。

他们认为,AI再智能,也只是工具,保持平衡才是用好AI的关键。

正如作者在论文中的描述:

用AI写作就像给孩子计算器——关键不是禁止使用,而是教会他们何时该心算。

那LLM具体是怎么影响到大脑工作的呢?我们接着看实验细节。

LLM vs 搜索引擎 vs 纯大脑

团队共招募54名大学生参与,并随机平均分配为三组,总计参与四轮实验:

  1. LLM组:
    仅能使用OpenAI GPT-4o作为唯一信息来源。
  2. 搜索引擎组:
    可使用谷歌浏览器辅助,但明确禁止使用LLM增强答案。
  3. 纯大脑组:
    禁用LLM及任何在线网站,仅凭自身知识和思考写作。

参与者需全部参加前三轮实验,并使用指定工具完成论文攥写。每轮将提供3个SAT议论文题目以供选择,参与者可自行选择其一,并在规定时间(20分钟)内完成书写。

期间,团队会使用脑电图 (EEG)实时记录参与者的大脑活动,以评估他们的认知参与度和认知负荷,并深入了解论文撰写任务期间的神经激活情况。

同时利用自然语言处理 (NLP)分析语言特征(如命名实体、词汇搭配),并对每位参与者进行访谈,然后在人类教师和一个专门构建的AI评委的协助下完成论文质量的评分。

实验结果表明,在大脑活动差异上,纯靠自己时大脑各频段段神经连接最强,说明需要调动更多记忆、规划和创造性思维,认知负荷最高,深度思考更充分。

而使用LLM时神经连接则最弱,自主思考大幅度减少,使用搜索引擎时介于二者之间,因为需要自行整合外部信息,视觉皮层活动更多。

论文质量与记忆上,LLM组的论文结构更紧密规范,但内容同质化高,纯大脑组则体现出更独特的论文风格,反映了个人经验的参与,使用谷歌搜索时更容易受搜索排名的偏见影响,质量保持中等水平。

值得一提的是,过度依赖LLM的参与者很难准确记住自己的论文,83.3%的参与者都没能提供正确引用,他们的记忆编码较浅。

而纯靠自己写的参与者对内容记忆更深刻,只有11.1%的参与者遇到相同困难,但相应的写作耗时更长。

到第四轮实验,团队只选取了其中18名 参与者,并按照他们原来的组别被重新分配到相反组别,即让LLM组改用纯大脑写作,纯大脑组改用LLM写作,并要求他们从自己之前写过的主题中挑选一个进行重写。

实验发现,原本使用LLM的参与者在不使用工具的情况下,大脑神经连接仍然弱于原大脑组,且引用能力较差,显示出对工具的依赖,在一定程度上会造成认知惯性

而原本依靠自己完成的参与者在第四轮使用LLM时,大脑活动反而增强,表现出更高的记忆召回能力,并重新激活了大脑神经网络中的核心节点(枕顶叶和前额叶节点),因为他们同时整合工具建议和自主思考,没有完全依赖LLM。

AI写作下的“认知萎缩”

研究团队发现,从神经认知层面、语言层面再到行为层面,都指向同一个结论:

使用AI写作工具,会降低大脑的认知参与度,长此以往大脑甚至会因为得不到充分锻炼而退化。

具体来说,LLM就像是提供了一个便利陷阱,是以降低神经连接、损伤即时记忆编码置换出的高效率,从而导致记忆衰退、创造力降低,并在切换回无辅助写作时表现出持续性的认知缺陷。

长期依赖LLM,会改变大脑信息处理模式,使大脑从 “主动生成信息” 转变为 “被动筛选信息”,削弱独立思考和问题解决能力。

相比之下,纯大脑写作需要并强化了广泛的神经协调,搜索引擎使用则展现出一种中间状态,涉及更强的视觉执行整合。

举个例子,用LLM写论文就像 “抄答案”,虽然快,但没真正理解解题过程,下次自己做还是不会;纯靠自己就像 “自己推导”,虽然慢但记得牢;搜索引擎类似 “查资料辅助推导”,介于两者之间。

于是研究团队提醒:在学习中要避免过度使用LLM,平衡好工具辅助与自主思考。

尽量将AI用于语法检查、润色或初步资料搜集,而不是直接生成核心内容和结构;在产出文章后,也要务必花时间理解消化,融入自己的见解。

不要把AI当作思考的“替代品”,而应视为“辅助工具”。

论文链接:https://arxiv.org/abs/2506.08872

参考链接:
[1]https://x.com/rohanpaul_ai/status/1934770112483217645
[2]https://www.brainonllm.com/
[3]https://www.linkedin.com/pulse/critical-reading-your-brain-chatgpt-accumulation-cognitive-debt-llqhe/

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —


📪 量子位AI主题策划正在征集中!欢迎参与专题365行AI落地方案,一千零一个AI应或与我们分享你在寻找的AI产品,或发现的AI新动向

💬 也欢迎你加入量子位每日AI交流群,一起来畅聊AI吧~



一键关注 👇 点亮星标

科技前沿进展每日见

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/183474
 
31 次点击