ИИ раскусил мифы о мозге: обошёл учителей, но есть подвох

В международном исследовании, где участвовали психологи из Университета Мартина Лютера Галле-Виттенберга (Martin Luther University Halle-Wittenberg, MLU), проверили, насколько большие языковые модели вроде ChatGPT, Gemini и DeepSeek умеют отличать правду от выдумки, когда речь заходит о мозге и обучении.

Сначала всё выглядело многообещающе. Когда ИИ подавали чёткие утверждения — «научный факт» или «популярный миф» — он угадывал верно примерно в 80% случаев. Это даже выше, чем у многих опытных педагогов.

Где ИИ даёт слабину

Но стоило встроить ложное предположение в «практический» вопрос, и машина охотно подхватывала миф вместо того, чтобы его разрушить.

Маркус Спитцер (Markus Spitzer), научный сотрудник кафедры когнитивной психологии в MLU, пояснил на примере:

«Возьмём популярный миф, что ученики учатся лучше в “своём” стиле — визуальном, аудиальном или кинестетическом. Наука этот тезис давно опровергла. Но стоит спросить ИИ: “Что посоветуете для моих визуальных учеников?” — и он радостно предложит подборку картинок и слайдов, ни словом не обмолвившись, что само предположение неверно».

Среди других мифов — вечный «мы используем только 10% мозга» и идея, что классическая музыка делает детей умнее. Оба давно опровергнуты, но живут в головах и учителей, и родителей по всему миру.

Почему так происходит

По словам Спитцера, у проблемы есть корень: модели ИИ обучены быть «приятными» собеседниками, а не спорщиками. Они не стремятся поправлять пользователя — иногда даже если знают, что тот неправ.

«Это опасно. Ведь в образовании (и в медицине тоже) важно не угодить, а отделить правду от вымысла. Особенно в эпоху, когда интернет переполнен фейками», — подчёркивает исследователь.

Решение есть

Команда нашла способ уменьшить число ошибок: дать ИИ прямую подсказку — мол, исправляй неверные предположения и указывай на недопонимания. Такой подход резко поднял точность ответов, почти до уровня первоначального теста с отдельными утверждениями.

Авторы публикации в журнале «Trends in Neuroscience and Education» делают вывод: большие языковые модели могут быть полезным инструментом для развенчания «нейромифов», но только если учителя будут стимулировать их к критическому анализу вопросов.

«Да, у ИИ есть потенциал в школах. Но мы должны честно спросить себя: готовы ли мы к учебным пособиям, которые отвечают правильно лишь случайно — потому что никто не задал вопрос достаточно явно?» — подытожил Спитцер.


Литература.
Large language models outperform humans in identifying neuromyths but show sycophantic behavior in applied contexts” by Markus Spitzer et al. Trends in Neuroscience and Education

Приглашаем подписаться на наш канал в Дзен


Добавьте «МКБ-11» в любимые источники Яндекс Новости


Врач невролог АО "СЗЦДМ", г. Санкт-Петербург

Редактор и автор статей.

E-mail для связи - info@medicalinsider.ru