Более 70% россиян сталкивались с ИИ-контентом, но менее трети знают, как это называется. Почти половина не может распознать дипфейк — даже после того, как им дали его определение.
Каждый пятый житель России (21%) регулярно сталкивается с контентом, созданным с помощью искусственного интеллекта, а 43% респондентов признались, что не могут отличить дипфейк от оригинального материала. Такие данные приводит аналитический центр НАФИ, с результатами которого ознакомилось РБК.
В ходе исследования участникам сначала дали чёткое определение дипфейка — видео, аудио или изображений, в которых человек якобы говорит или делает то, чего на самом деле не было. Несмотря на это, только 31% опрошенных назвал термин «дипфейк» правильно. Остальные путают технологию с другими понятиями:
23% называют это «ботом»,
23% — «видеомонтажем»,
4% — «ретушью»,
2% — «карикатурой».
В целом 72% россиян сообщили, что хотя бы раз видели ИИ-генерируемый контент, однако уровень осведомлённости остаётся низким: 51% путают дипфейки с другими видами цифровой обработки.
Эксперты НАФИ подчеркивают: почти половина россиян (43%) не способна распознать дипфейк, и лишь 41% уверены в своих навыках идентификации подобного контента. Это, по мнению аналитиков, свидетельствует о низкой готовности общества противостоять манипуляциям с использованием генеративного ИИ.