Новое исследование показало, что при взаимодействии с системами вроде ChatGPT все участники — независимо от уровня подготовки — склонны переоценивать собственные результаты. При этом привычный эффект Даннинга — Крюгера (Dunning–Kruger Effect) исчезает: люди, считающие себя «грамотными» в сфере ИИ, демонстрируют ещё большую уверенность в своих силах.
Учёные связывают это с феноменом «когнитивного разгружения» — когда пользователи перекладывают размышления на систему и без проверки принимают её ответы за истину. По мнению исследователей, одной лишь «ИИ-грамотности» недостаточно: нужны платформы, которые развивают критическое мышление и способность замечать собственные ошибки.
Ключевые факты
- Обратный эффект Даннинга — Крюгера: пользователи с более высокой «ИИ-грамотностью» сильнее переоценивают свои способности.
- Когнитивное разгружение: большинство участников полагались на один запрос и полностью доверяли ответу ИИ.
- Пробел в метакогниции: современные ИИ-инструменты не способствуют саморефлексии и оценке собственных рассуждений.
Детали исследования
Команда учёных из Аальтского университета (Aalto University) провела два эксперимента с участием около 500 человек. Часть участников решала логические задачи из американского теста LSAT (Law School Admission Test) с помощью ChatGPT, а другая — без него. После каждого задания испытуемые оценивали, насколько успешно они справились, причём точная самооценка вознаграждалась дополнительной оплатой.
Результаты показали: все участники, использовавшие ChatGPT, переоценивали свои способности. Более того, те, кто считал себя хорошо разбирающимися в ИИ, проявляли ещё большую уверенность, чем новички.
«Мы обнаружили, что при взаимодействии с ИИ привычный эффект Даннинга — Крюгера исчезает. Напротив, чем выше “ИИ-грамотность”, тем сильнее избыточная уверенность», — отметил профессор Робин Вельш (Robin Welsch).
Почему это происходит
Исследователи наблюдали, что большинство участников использовали ChatGPT всего один раз на задачу, не перепроверяя ответы и не уточняя формулировки. «Они просто копировали вопрос, вставляли его в систему и принимали ответ как окончательный», — говорит Вельш. Это явление учёные называют когнитивным разгружением — когда умственная работа «передаётся» машине.
Докторант Даниэла да Силва Фернандес (Daniela da Silva Fernandes) добавляет:
«Современные ИИ-инструменты не развивают метакогницию — осознанность собственных мыслительных процессов. Мы не учимся на ошибках. Необходимо создавать платформы, которые будут стимулировать рефлексию и критическое мышление».
Публикация и выводы
Работа опубликована 27 октября в журнале Computers in Human Behavior.
Исследователи считают, что повышенная уверенность может снижать способность пользователей замечать ошибки, переоценивать достоверность информации и ограничивать развитие навыков анализа.
Что это значит
Результаты показывают: даже высокая техническая грамотность не защищает от когнитивных искажений. Чтобы использование ИИ было по-настоящему продуктивным, нужно не только обучать работе с инструментами, но и развивать навыки самокритичного мышления — способность сомневаться, перепроверять и объяснять собственные рассуждения.
Источник.
“AI makes you smarter but none the wiser: The disconnect between performance and metacognition” by Robin Welsch et al. Computers in Human Behavior






