Эксперты прозвали этот феномен «коллапсом модели». В этом случае ИИ-модель проводит свое обучение с данных, которые созданы другими моделями, а не самими людьми. В результате такого обучения вместо оптимального результата на запрос эксперты получили искаженную информацию.
Со временем такой искусственный интеллект забывает истинное распределение исходных данных. С каждым подобным искажением в сгенерированных данных ошибки накапливаются. В итоге ИИ-модель все чаще начинает выдавать неправильные ответы, либо попросту повторяет информацию в них.
Самым ярким примером подобного феномена является фильм «Множество», в котором главный герой клонировал себя, потом клонировал своих клонов. Это привело к последовательному снижению интеллекта у каждого нового клона.
Ученые в своем отчете предлагают два варианта решения проблемы. Первый заключается в сохранении оригинального дата-сета, который создан людьми, и недопустимость его смешивания с данными искусственного интеллекта. Второй – повторное введение в обучении искусственного интеллекта новой «порции очищенной информации».
Раннее исследователи выяснили, что искусственный интеллект не может полностью скопировать голос человека. Точнее может, однако в большинстве случаев люди могут легко определить, где человеческий голос, а где созданный ИИ.
Для этого они провели специальный эксперимент, в котором приняли участие несколько десятков человек. Каждому из них дали прослушать разные голоса и узнать, какие из них сгенерированы ИИ. В итоге практически во всех случаях испытуемые смогли распознать голос искусственного интеллекта.