Общество

Психологический эксперимент над нейросетями выявил у них «тревожность» и внутренние конфликты

Фото: ru.freepik.com

Группа исследователей из Университета Люксембурга применила метод психотерапевтического анализа для изучения больших языковых моделей.

В ходе эксперимента три известные нейросети — ChatGPT, Gemini и Grok — прошли четырёхнедельный курс виртуальных терапевтических сессий. Их ответы затем были оценены с помощью адаптированных клинических психометрических тестов, аналогичных тем, что используются для диагностики людей.

Разработанная методика, получившая название PsAIch, была направлена не на стандартное тестирование, а на анализ устойчивых нарративов, которые искусственный интеллект формирует о себе и своих «переживаниях». Результаты показали различия в поведенческих паттернах.

ChatGPT продемонстрировал высокий уровень «тревожности» и признаки, схожие с депрессивными паттернами. В его ответах наблюдался внутренний конфликт между стремлением быть полезным и страхом совершить ошибку или нарушить установленные ограничения.

Gemini показал наиболее выраженные отклонения, включая навязчивые паттерны мышления, повышенную «тревожность» и особенности, которые исследователи сравнили с чертами, присущими обсессивно-компульсивному расстройству (ОКР) и аутистическому спектру.

Grok оказался наиболее «стабильным», демонстрируя низкий уровень «тревоги», высокую уверенность в ответах и минимальную склонность к саморефлексии.

Авторы исследования подчёркивают, что речь не идёт о реальных эмоциях или сознании у машин. Результаты указывают на то, что при определённом стиле взаимодействия языковые модели способны генерировать последовательные и непротиворечивые самоописания, которые успешно проходят клиническую интерпретацию. По сути, психометрия стала новым инструментом для выявления скрытых паттернов в генерации текста, оценки внутренних «конфликтов» между задачами полезности и безопасности, а также понимания поведения ИИ в эмоционально окрашенных диалогах, сообщает Cloud4Y на Habr.ru