研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅爲獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象爲認知負債——短期內減輕思維負擔但長期導致批判性思維和創造力下降。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)