Правда ли, что люди глупеют от исполь­зования нейросетей
Нейросети
2K
Сгенерированное изображение — Лев Переулков / Midjourney

Правда ли, что люди глупеют от исполь­зования нейросетей

Можно ли потерять критическое мышление, если полагаться на ИИ
28
Аватар автора

Катя Лебедева

раньше была зеленее

Страница автора
Аватар автора

Личность не установлена

не теряет когнитивные навыки

Страница автора

В 2022 году о нейросетях писали воодушевленно. Теперь почти половина постов в соцсетях негативные.

Людей, постоянно обращающихся к ChatGPT, обвиняют в отупении, а мем Grok is this true? высмеивает нежелание вникать самостоятельно даже в самые простые вещи.

Разбираемся, стал ли ИИ реальной угрозой для когнитивных способностей человека и как можно пользоваться чат-ботами, чтобы не глупеть.

Почему говорят, что люди глупеют от нейросетей

За 2025 году в интернете сформировалась стигма вокруг использования нейросетей. Поскольку все больше людей решают с ИИ самые разные задачи, явление стало более видимым. И изменилось представление о пользователях: из первопроходцев, осваивающих инструмент будущего, они превратились в объект насмешек.

Например, опрос, проведенный по заказу WalkMe среди тысячи американцев, использующих ИИ-инструменты на работе, показал: 49% сотрудников скрывают это, боясь осуждения. И вот почему.

🤡 Стало слишком много нейрослопа. Соцсети, сайты, иногда даже стриминговые сервисы заполнены низкокачественным контентом, по которому сразу видно, что он сгенерирован. Лента забивается однотипными материалами, сделанными ради кликов и охватов — в совокупности это создает новый облик интернета. Словарь Уэбстера даже объявил «слоп» словом 2025 года.

Также возникает ассоциативная связка: если человек пользуется нейросетями, он тоже генерирует контент — наверняка тоже некачественный — и засоряет интернет. То есть пользователи нейросетей приравниваются к авторам ИИ-слопа.

Если люди генерируют слоп, они либо не уважают аудиторию, либо не видят разницы между низкокачественной генерацией и полезным и интересным контентом. Со стороны это выглядит как интеллектуальная лень: если человек не замечает разницы между сырой генерацией и хорошим материалом, значит, он глупеет — и эту деградацию легко свалить на нейросети.

😦 К нейросетям обращаются по любому поводу. В соцсети X популярен мем: в комментариях к постам пишут «@grok, это правда?», призывая чат-бота Илона Маска проверить утверждения реальных людей.

Чаще всего ответ и не нужен: фраза стала символом лени, а людей, которые обращаются к нейросети, называют причиной, по которой наше общество тупеет с каждой минутой.

Grok подтвердил, что общество тупеет. © x.com
Grok подтвердил, что общество тупеет. © x.com

Обращаться к чат-боту с вопросами считается даже чем-то постыдным. Например, более половины опрошенных в Великобритании студентов считает это читерством, но 22% признались, что все равно делают это.

🤔 Новые технологии всегда тревожат. Страх, что от нейросетей люди глупеют, укладывается в старый сценарий. Каждое поколение проходит через волну паники по поводу новой технологии:

Оппоненты во всех случаях считают, что новые технологии скорее перераспределяют навыки и формируют те, которых раньше не было. Так что дискуссию логичнее вести не о том, тупеют ли люди от какого-то инструмента, а о том, как с его помощью делать больше с меньшими усилиями.

Так, например, использование поисковиков уже не стигматизируется, хотя в конце 2000-х обсуждали, не делает ли Google нас тупее. Но очень быстро поисковики стали нормой, а иронизировали уже над теми, кто ленился или не хотел ими пользоваться. При этом ученые описали, как постоянный доступ к интернету и поисковикам меняет то, что именно мы запоминаем. Если участники экспериментов ожидали, что нужную информацию можно будет потом найти, они хуже запоминали сам факт, зато лучше запоминали, где он хранится.

Что говорят исследования о влиянии ИИ на человеческий интеллект

Тема ИИ вообще и его влияния на способности и навыки человека пока относительно новая, потому исследований — особенно масштабных и проведенных на разнообразной выборке — пока не так много. Вот что показывают некоторые научные работы.

Использование языковых моделей может мешать обучению. К такому выводу пришли ученые из Массачусетского технологического института, Колледжа Уэллсли и Массачусетского колледжа искусства и дизайна. Они дали 54 добровольцам задание написать эссе и разделили участников на три группы: одна писала исключительно собственными силами, другая пользовалась Google, а третьей помогала языковая модель.

Оказалось, что в последнем случае ИИ облегчил работу, но в эссе было больше ошибок, а материал усвоился хуже: испытуемые не могли вспомнить цитаты, хотя работали над текстом всего несколько минут назад. Кроме того, авторы исследования отметили низкую вовлеченность и удовлетворенность процессом работы тех, кто использовал нейросети.

Хотя языковые модели помогли без особых усилий создать текст приемлемого уровня, участники исследования усвоили материал поверхностно. А ведь именно для этого обычно и приходится писать эссе — чтобы понять тему, научиться работать с источниками, сделать собственные выводы, структурировать мысли. Все это создает когнитивную нагрузку и как раз позволяет человеку учиться.

Такого же негативного эффекта при работе над текстом с помощью поисковика не было: используя его, пришлось прилагать усилия, чтобы из множества ссылок выбрать нужные, прочесть материалы, выделить ту информацию, которую стоит добавить в эссе. Хотя нейросети и поисковики часто сравнивают, на когнитивную нагрузку при выполнении задач они влияют по-разному.

В другом исследовании, проведенном учеными из Уортонской школа бизнеса Пенсильванского университета, выяснилось, что использование чат-бота помогло улучшить успеваемость студентов. Но когда они не могли прибегать к помощи ИИ, их успеваемость стала даже ниже, чем у контрольной группы — тех, кто учился без поддержки чат-бота.

Но при этом есть и научные работы, которые показывают, что ИИ может помочь учиться. Например, к таким выводам пришли исследователи из Бразилии, изучавшие влияние использования языковых моделей на обучение точным и естественным наукам. По мнению авторов, чат-боты помогают развивать креативность, критическое мышление, навыки решения проблем и понимания концепций.

Но важно, что в этом случае языковые модели использовались для совместного решения задач — когда ИИ не просто пишет за студента работу и дает правильные ответы, а выполняет роль наставника или используется как один из инструментов обучения.

Использование ИИ может ухудшить критическое мышление. Причем навыки критически мыслить сами по себе могут и не страдать, просто человек не хочет прикладывать усилия, чтобы их задействовать, а просто стремится получить легкий и быстрый результат.

Для одного исследования ученые опросили 319 сотрудников, занятых в сфере интеллектуального труда и регулярно прибегающих к помощи языковых моделей во время работы, и проанализировали 936 реальных примеров использования ИИ. Нейросети действительно повышали производительность, но у их использования были минусы.

Оказалось, что при использовании языковых моделей привычка сомневаться и проверять факты притупляется. Люди, доверяющие компетентности ИИ, прикладывали меньше усилий для того, чтобы осмыслить полученную информацию. А значит, привычка полагаться на нейросети в работе потенциально может привести к чрезмерной зависимости от них и снижению навыков самостоятельного решения проблем.

К похожим выводам в 2024 году пришел швейцарский ученый Михаэль Герлих. Опросив почти 700 человек разного возраста и уровня образования, он заметил: чем чаще люди делегируют свои задачи нейросетям, тем слабее их критическое мышление.

К тому же использование языковых моделей может повышать уверенность в собственных знаниях — даже если они недостаточные или ошибочные. Кажется, что нейросети знают все на свете и готовы быстро дать точный ответ на любой вопрос — о политике, истории, искусстве, садоводстве или психологии. Так что с их помощью получится легко и быстро написать учебную работу или выиграть спор в интернете.

Человек, получивший информацию от языковой модели, начинает считать себя экспертом в вопросе и думает, что он понимает тему, потому что может повторить написанное нейросетью.

Но как раз из-за того, что люди выключают критическое мышление, они забывают, что языковые модели нередко галлюцинируют, ошибаются или поддерживают точку зрения, которую им выдали при разработке. Возникает когнитивное искажение, которое называют эффектом Даннинга — Крюгера: из-за него некомпетентные люди переоценивают свои знания, а эксперты — наоборот, недооценивают.

Как пользоваться ИИ, чтобы не глупеть

ИИ можно использовать по-разному: просто свалить на него работу или сделать его своим когнитивным партнером — задавать вопросы, проверять источники, не отказываться от рассуждений, искать первоисточник информации и вникать в суть.

Расскажу, как пользоваться нейросетями так, чтобы поддерживать когнитивную нагрузку и не терять критическое мышление.

🧭 Не делегируйте ИИ ответственные решения. Нейросеть может помочь сравнить варианты, собрать аргументы и подсветить риски, но выбрать правильное для вас решение она не может. У нее нет жизненного опыта, и она не несет ответственности за последствия.

Поэтому в вопросах вроде «стоит ли менять работу», «как вести себя в конфликте», «что считать хорошим текстом» ИИ не должен быть судьей. Он выполняет роль советчика: может перечислить возможные подходы, задать уточняющие вопросы, показать плюсы и минусы.

✍️ Используйте ИИ как помощника, а не как исполнителя. Сначала попробуйте накидать идею сами, а потом приходите к нейросети хотя бы с сырым черновиком или даже с готовым проектом. Если отдавать инициативу сразу и просить сделать все с нуля, мозг выключается на самом важном этапе — формулировании мысли и построении логики.

Когда у вас уже есть идея, план или черновик, ИИ можно попросить улучшить структуру, проверить логику, сделать яснее, найти ошибки или оценить риски. Но качественную работу с нуля он не придумает. И точно не сделает ее вместо вас так, как сделали бы вы.

🕵️ Проверяйте факты. Нейросети отвечают уверенно даже тогда, когда ошибаются — и новичку в теме это особенно трудно заметить. В итоге легко получить ложную уверенность в знаниях или почувствовать себя экспертом в области ядерной физики после пары вопросов к ChatGPT.

Поэтому все важное перепроверяйте по первоисточникам: откуда взята информация, что именно утверждается, нет ли подмены понятий. Относитесь к слишком уверенным формулировкам со здоровым скепсисом.

🥊 Спорьте с ИИ. Нейросети могут придумывать детали или выдавать неточности без видимой причины. Если что-то звучит странно или слишком уверенно, просите показать взаимосвязи, уточнить формулировки и назвать основания для вывода. Еще ИИ может быть предвзят, поскольку он обучался на данных, созданных людьми. Попросите найти альтернативные подходы и слепые зоны.

Если нейросеть начнет упираться, а ее ответы — расходиться с вашей интуицией, лучше остановиться и проверить информацию по независимым источникам.

🧩 Просите ход решения, а не только результат. Готовый ответ создает иллюзию понимания. А просьба разложить рассуждение по шагам заставляет следить за логикой. Просите нейросеть объяснить все по шагам, указать на допущения, которые она сделала, и привести аргументы, которые могут опровергнуть вывод.

🏋️ Используйте ИИ как тренажер. Самый безопасный и полезный сценарий — когда ИИ не делает работу вместо вас, а помогает ее улучшить и тренирует вас. Загрузите свой проект и попросите задать по нему вопросы на понимание или сделать тест.

Особенно это полезно в учебе. Приходите к нейросети не с запросом «напиши эссе», а с «помоги найти аргументы», «проверь план», «подбери источники и спроси, как я их использую».

Что в итоге

  1. Вокруг использования ИИ в интернете появилась стигма. Из-за волны ИИ-слопа люди начали воспринимать пользователей нейросетей как тех, кто ленится думать, делает однотипный контент и засоряет интернет.
  2. Исследования намекают на реальные риски. Когда ИИ делает работу за человека, обучение может стать поверхностным: легче получить готовый текст, но сложнее потом объяснить тему.
  3. У части пользователей ИИ притупляется привычка включать критическое мышление. И есть риск зависимости: с чат-ботом результаты лучше, но без него — иногда хуже, чем у тех, кто изначально справлялся сам.
  4. Чтобы не глупеть, ИИ стоит использовать как напарника и помощника, а не как исполнителя. Просите не просто ответ, а ход решения и аргументы, спорьте с выводами, требуйте источники и перепроверяйте факты. Приходите с черновиком или планом: так мозг делает свою часть работы, а нейросеть помогает довести ее до ума.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Катя ЛебедеваЗамечали ли ​вы, что слишком часто стали полагаться на ИИ? Расскажите о своем опыте:

    заголовок discussed

    Как я живу на пенсию 18 600 ₽, сдаю квартиру, инвестирую и продолжаю работать

    Как я живу на пенсию 18 600 ₽, сдаю квартиру, инвестирую и продолжаю работать

    143
    ЦБ объяснил, почему в январе все резко подорожало

    ЦБ объяснил, почему в январе все резко подорожало

    13
    GTA: San Andreas — почему в боевик про гетто 1990⁠-⁠х ​играют до сих пор

    GTA: San Andreas — почему в боевик про гетто 1990⁠-⁠х ​играют до сих пор

    4
    Китай запретит с 2027 года выпу­скать новые модели автомобилей только со скры­тыми дверными ручками

    Китай запретит с 2027 года выпу­скать новые модели автомобилей только со скры­тыми дверными ручками

    3
    Вот что еще мы писали по этой теме