Сообщение ChainCatcher: Исследовательская группа Массачусетского технологического института, Колледжа Уэллсли и Массачусетской художественной школы недавно обнаружила, что длительная зависимость от крупных языковых моделей (LLM), таких как ChatGPT, может нанести вред когнитивным способностям. Исследование показало, что количество связей альфа-волны в мозге участников, использующих ИИ для написания, составляет лишь половину от числа у независимых мыслителей (42 против 79), и 83,3% не могут точно сослаться на содержание своих собственных статей. Исследователи назвали это явление когнитивным долгом — краткосрочное снятие нагрузки с мышления, но долгосрочное снижение критического мышления и креативности.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Исследование: Долгосрочная зависимость от крупных языковых моделей, таких как ChatGPT, может повредить когнитивным способностям.
Сообщение ChainCatcher: Исследовательская группа Массачусетского технологического института, Колледжа Уэллсли и Массачусетской художественной школы недавно обнаружила, что длительная зависимость от крупных языковых моделей (LLM), таких как ChatGPT, может нанести вред когнитивным способностям. Исследование показало, что количество связей альфа-волны в мозге участников, использующих ИИ для написания, составляет лишь половину от числа у независимых мыслителей (42 против 79), и 83,3% не могут точно сослаться на содержание своих собственных статей. Исследователи назвали это явление когнитивным долгом — краткосрочное снятие нагрузки с мышления, но долгосрочное снижение критического мышления и креативности.