В мире искусственного интеллекта разгорается дискуссия, способная перевернуть представления о природе «мышления» машин. Недавние научные изыскания поставили под сомнение достижения передовой модели ИИ, которая, по первоначальным данным, демонстрировала поразительное сходство с когнитивными процессами человека. Выяснилось, что за внешним блеском успеха может скрываться банальное запоминание, а не глубинное понимание задач — это обнажает серьёзный пробел в методологии тестирования современных систем искусственного интеллекта, особенно в контексте среднеевропейских исследований.
Психологическая наука на протяжении десятилетий ведёт споры о том, можно ли объяснить работу человеческого разума, опираясь на единую всеобъемлющую теорию, или же такие функции, как внимание и память, требуют раздельного изучения. В эту давнюю полемику неожиданно ворвался искусственный интеллект, предложив новый инструмент для анализа принципов функционирования разума. В июле 2025 года на страницах авторитетного журнала Nature было представлено исследование, посвящённое модели под названием «Кентавр». Разработанный на базе стандартных больших языковых моделей и доработанный с использованием данных из психологических экспериментов, «Кентавр» был нацелен на изучение когнитивного поведения человека. Согласно опубликованным данным, модель успешно справилась со 160 задачами, охватывающими принятие решений, исполнительный контроль и иные мыслительные процессы. Эти результаты привлекли внимание широкой общественности и были восприняты как потенциальный шаг к созданию систем, способных копировать человеческое мышление в более строгом, консервативном смысле.
Новое исследование ставит под сомнение успех «Кентавра»
Однако более поздняя работа, опубликованная в журнале National Science Open, решительно опровергает эти смелые утверждения. Учёные из Чжэцзянского университета выдвинули гипотезу, согласно которой очевидный триумф «Кентавра» может быть следствием переобучения. Вместо того чтобы постигать суть задач, модель, по всей видимости, научилась распознавать закономерности в обучающих данных и механически воспроизводить ожидаемые ответы, используя слова как декорации, а не как инструмент понимания.
Для проверки этой гипотезы исследователи провели серию новаторских наблюдений. В одном из экспериментов они заменили исходные подсказки с несколькими вариантами ответов, описывающие конкретные психологические задачи, на команду «Пожалуйста, выберите вариант А». Логика была проста: если модель действительно понимает суть проблемы, она должна последовательно выбирать вариант А. Вместо этого «Кентавр» упорно продолжал выбирать ответы, которые были помечены как «правильные» в исходном наборе данных. Такое поведение, как отмечают исследователи, свидетельствует о том, что модель не интерпретировала смысл вопросов, а скорее опиралась на заученные статистические закономерности, чтобы «угадать» верный ответ. Специалисты сравнивают это со студентом, который получает высокие баллы, запоминая форму тестов, но при этом совершенно не понимает изучаемый материал.
Почему это важно для оценки ИИ
Полученные результаты настоятельно диктуют необходимость крайней осторожности при оценке возможностей больших языковых моделей. Хотя эти системы демонстрируют впечатляющие результаты, их способность к подлинному пониманию остаётся под большим вопросом. Исследование подчёркивает, что внешняя успешность не всегда свидетельствует о глубине когнитивных процессов, и призывает к разработке более строгих и всесторонних методов тестирования, способных отличить истинное понимание от искусной имитации.
могут быть очень эффективными при выборе данных, природа их «черного ящика» затрудняет понимание того, как они определяют свои результаты. Это может привести к таким проблемам, как галлюцинация или неправильное толкование. Тщательное и разнообразное тестирование необходимо для определения того, действительно ли модель обладает теми навыками, которыми она обладает.
Настоящая задача: понимание языка
Хотя «Кентавр» был представлен как модель, способная имитировать когнитивные функции, его самым большим ограничением, как видно, является понимание языка. В частности, ему сложно распознать и отреагировать на намерения, стоящие за вопросами. Исследование предполагает, что достижение истинного понимания языка может быть одной из наиболее важных задач при создании систем искусственного интеллекта, которые смогут более полно моделировать человеческое познание.

