В международном исследовании, где участвовали психологи из Университета Мартина Лютера Галле-Виттенберга (Martin Luther University Halle-Wittenberg, MLU), проверили, насколько большие языковые модели вроде ChatGPT, Gemini и DeepSeek умеют отличать правду от выдумки, когда речь заходит о мозге и обучении.
Сначала всё выглядело многообещающе. Когда ИИ подавали чёткие утверждения — «научный факт» или «популярный миф» — он угадывал верно примерно в 80% случаев. Это даже выше, чем у многих опытных педагогов.
Где ИИ даёт слабину
Но стоило встроить ложное предположение в «практический» вопрос, и машина охотно подхватывала миф вместо того, чтобы его разрушить.
Маркус Спитцер (Markus Spitzer), научный сотрудник кафедры когнитивной психологии в MLU, пояснил на примере:
«Возьмём популярный миф, что ученики учатся лучше в “своём” стиле — визуальном, аудиальном или кинестетическом. Наука этот тезис давно опровергла. Но стоит спросить ИИ: “Что посоветуете для моих визуальных учеников?” — и он радостно предложит подборку картинок и слайдов, ни словом не обмолвившись, что само предположение неверно».
Среди других мифов — вечный «мы используем только 10% мозга» и идея, что классическая музыка делает детей умнее. Оба давно опровергнуты, но живут в головах и учителей, и родителей по всему миру.
Почему так происходит
По словам Спитцера, у проблемы есть корень: модели ИИ обучены быть «приятными» собеседниками, а не спорщиками. Они не стремятся поправлять пользователя — иногда даже если знают, что тот неправ.
«Это опасно. Ведь в образовании (и в медицине тоже) важно не угодить, а отделить правду от вымысла. Особенно в эпоху, когда интернет переполнен фейками», — подчёркивает исследователь.
Решение есть
Команда нашла способ уменьшить число ошибок: дать ИИ прямую подсказку — мол, исправляй неверные предположения и указывай на недопонимания. Такой подход резко поднял точность ответов, почти до уровня первоначального теста с отдельными утверждениями.
Авторы публикации в журнале «Trends in Neuroscience and Education» делают вывод: большие языковые модели могут быть полезным инструментом для развенчания «нейромифов», но только если учителя будут стимулировать их к критическому анализу вопросов.
«Да, у ИИ есть потенциал в школах. Но мы должны честно спросить себя: готовы ли мы к учебным пособиям, которые отвечают правильно лишь случайно — потому что никто не задал вопрос достаточно явно?» — подытожил Спитцер.
Литература.
“Large language models outperform humans in identifying neuromyths but show sycophantic behavior in applied contexts” by Markus Spitzer et al. Trends in Neuroscience and Education