Кубанские Новости
Общество
Екатерина Баскакова

«Фейки стоп»: Ученые создают алгоритм для поиска манипуляций в тексте

«Фейки стоп»: Ученые создают алгоритм для поиска манипуляций в тексте
Умный алгоритм будет распознавать лживую информацию.
Фото: stock.adobe.com
Искусственный интеллект сможет противодействовать информационным угрозам.

Российские ученые начали бороться с манипуляциями. Для этого они создают специальный алгоритм, который поможет выявить в публикуемом контенте информацию, воздействующую на эмоции пользователей социальных сетей. Сейчас специалисты РГГУ выявляют наиболее частые приемы манипуляции, которые используют как в текстах, так и в фото и видеоматериалах. Эксперты намерены обучить искусственный интеллект распознавать в сообщениях скрытый смысл. Разработка поможет избежать информационных угроз.

И метафоры бывают плохими

Как объясняют сами ученые, в интернете есть масса непроверенных текстов, которые преподносятся людям как истина. Их главная особенность – воздействие не только на сознания людей, но и на их эмоции. Именно поэтому «кибертеррористы» зачастую в своих фейковых сообщениях используются метафоры и другие литературные приемы, которые позволяют им описывать абстрактные понятия более красочно.

— Когнитивная модель существует в голове любого носителя языка. Это схемы, но они реализуются через конкретные слова, — пояснила профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина.

Потерянный смысл

Еще одним приемом является использование слов с несколькими значениями. Также особое влияние на восприятие информации читателем могут оказывать эвфемизмы – те слова, что были заменены на более нейтральные. Например, в американском «толерантном» обществе не принято говорить «слепой» или «глухой». Вместо них американцы употребляют слова «слабослышащий», «слабовидящий» и тем самым искажают смысл текста.

Планы ученых

Работа исследователей будет построена следующим образом:

  • Сначала они планируют определить наиболее распространенные приемы манипуляции, которые используют как СМИ, так и блогеры.

  • На основе анализа интернет-текстов будет создана база манипулятивных высказываний, к которым отнесут все сообщения, не соответствующие реальным фактам.

Важно отметить, что кроме текстов, группа ученых также будет изучать мемы, видеоклипы, картинки и посты в соцсетях. Ведь именно там находится большое количество той информации, которую принято считать манипулятивной.

— Мы начнем с анализа текстов, построим алгоритм идентификации манипулятивных высказываний. В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций, — добавила Вера Заботкина.