От «ты такая родная душа» до просьбы о переводе на лечение — как ИИ превращает одиночество в уязвимость.
Злоумышленники начали активно использовать генеративный искусственный интеллект для создания фейковых профилей на сайтах знакомств. Об этом предупредил заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев в интервью телеканалу RT.
По словам эксперта, мошенники применяют нейросети для генерации фотографий и коротких видеороликов с лицами, не существующими в реальности. Такие изображения невозможно идентифицировать через обратный поиск в интернете, что затрудняет распознавание обмана на ранних этапах.
Схема атаки строится на психологических уязвимостях — чувстве одиночества и потребности в эмоциональной близости. После создания визуальной «легенды» злоумышленники используют языковые модели ИИ для анализа ответов жертвы и подстройки стиля общения: темп переписки, эмоциональный тон и содержание сообщений максимально соответствуют ожиданиям собеседника. Это создаёт иллюзию уникальной совместимости и ускоряет формирование доверия.
На следующем этапе мошенник избегает видеозвонков и личных встреч, ссылаясь на «травматичный опыт» или «психологический дискомфорт». Одновременно в диалог постепенно вводятся финансовые темы: демонстрация «успешных» инвестиций, рассказы о криптовалютной торговле или, напротив, о внезапных трудностях, требующих срочной финансовой помощи. Финальная стадия — прямая просьба о переводе денег под предлогом лечения, участия в «выгодной сделке» или помощи в критической ситуации. После получения средств связь обрывается.