Кубанские Новости
Общество
Вероника Короткова

«Множество» реальности: ученые рассказали о деградации ИИ

«Множество» реальности: ученые рассказали о деградации ИИ
ИИ все еще не так совершенен
Фото: freepik.com
Ученые считают, что использование данных искусственного интеллекта для обучения ИИ-модели в итоге приводит к ее «цифровому маразму».

Эксперты прозвали этот феномен «коллапсом модели». В этом случае ИИ-модель проводит свое обучение с данных, которые созданы другими моделями, а не самими людьми. В результате такого обучения вместо оптимального результата на запрос эксперты получили искаженную информацию.

Со временем такой искусственный интеллект забывает истинное распределение исходных данных. С каждым подобным искажением в сгенерированных данных ошибки накапливаются. В итоге ИИ-модель все чаще начинает выдавать неправильные ответы, либо попросту повторяет информацию в них.

Самым ярким примером подобного феномена является фильм «Множество», в котором главный герой клонировал себя, потом клонировал своих клонов. Это привело к последовательному снижению интеллекта у каждого нового клона.

Ученые в своем отчете предлагают два варианта решения проблемы. Первый заключается в сохранении оригинального дата-сета, который создан людьми, и недопустимость его смешивания с данными искусственного интеллекта. Второй – повторное введение в обучении искусственного интеллекта новой «порции очищенной информации».

Раннее исследователи выяснили, что искусственный интеллект не может полностью скопировать голос человека. Точнее может, однако в большинстве случаев люди могут легко определить, где человеческий голос, а где созданный ИИ.

Для этого они провели специальный эксперимент, в котором приняли участие несколько десятков человек. Каждому из них дали прослушать разные голоса и узнать, какие из них сгенерированы ИИ. В итоге практически во всех случаях испытуемые смогли распознать голос искусственного интеллекта.