Исследование: опытные пользователи ИИ чаще переоценивают свои способности

Новое исследование показало, что при взаимодействии с системами вроде ChatGPT все участники — независимо от уровня подготовки — склонны переоценивать собственные результаты. При этом привычный эффект Даннинга — Крюгера (Dunning–Kruger Effect) исчезает: люди, считающие себя «грамотными» в сфере ИИ, демонстрируют ещё большую уверенность в своих силах.

Учёные связывают это с феноменом «когнитивного разгружения» — когда пользователи перекладывают размышления на систему и без проверки принимают её ответы за истину. По мнению исследователей, одной лишь «ИИ-грамотности» недостаточно: нужны платформы, которые развивают критическое мышление и способность замечать собственные ошибки.

Ключевые факты

  • Обратный эффект Даннинга — Крюгера: пользователи с более высокой «ИИ-грамотностью» сильнее переоценивают свои способности.
  • Когнитивное разгружение: большинство участников полагались на один запрос и полностью доверяли ответу ИИ.
  • Пробел в метакогниции: современные ИИ-инструменты не способствуют саморефлексии и оценке собственных рассуждений.

Детали исследования

Команда учёных из Аальтского университета (Aalto University) провела два эксперимента с участием около 500 человек. Часть участников решала логические задачи из американского теста LSAT (Law School Admission Test) с помощью ChatGPT, а другая — без него. После каждого задания испытуемые оценивали, насколько успешно они справились, причём точная самооценка вознаграждалась дополнительной оплатой.

Результаты показали: все участники, использовавшие ChatGPT, переоценивали свои способности. Более того, те, кто считал себя хорошо разбирающимися в ИИ, проявляли ещё большую уверенность, чем новички.

«Мы обнаружили, что при взаимодействии с ИИ привычный эффект Даннинга — Крюгера исчезает. Напротив, чем выше “ИИ-грамотность”, тем сильнее избыточная уверенность», — отметил профессор Робин Вельш (Robin Welsch).


Почему это происходит

Исследователи наблюдали, что большинство участников использовали ChatGPT всего один раз на задачу, не перепроверяя ответы и не уточняя формулировки. «Они просто копировали вопрос, вставляли его в систему и принимали ответ как окончательный», — говорит Вельш. Это явление учёные называют когнитивным разгружением — когда умственная работа «передаётся» машине.

Докторант Даниэла да Силва Фернандес (Daniela da Silva Fernandes) добавляет:

«Современные ИИ-инструменты не развивают метакогницию — осознанность собственных мыслительных процессов. Мы не учимся на ошибках. Необходимо создавать платформы, которые будут стимулировать рефлексию и критическое мышление».


Публикация и выводы

Работа опубликована 27 октября в журнале Computers in Human Behavior.

Исследователи считают, что повышенная уверенность может снижать способность пользователей замечать ошибки, переоценивать достоверность информации и ограничивать развитие навыков анализа.


Что это значит

Результаты показывают: даже высокая техническая грамотность не защищает от когнитивных искажений. Чтобы использование ИИ было по-настоящему продуктивным, нужно не только обучать работе с инструментами, но и развивать навыки самокритичного мышления — способность сомневаться, перепроверять и объяснять собственные рассуждения.

Источник.
AI makes you smarter but none the wiser: The disconnect between performance and metacognition” by Robin Welsch et al. Computers in Human Behavior

Приглашаем подписаться на наш канал в Дзен


Добавьте «МКБ-11» в любимые источники Новости


Врач невролог АО "СЗЦДМ", г. Санкт-Петербург

Редактор и автор статей.

E-mail для связи - info@medicalinsider.ru

МКБ-11