«Фейки стоп»: Ученые создают алгоритм для поиска манипуляций в тексте
Искусственный интеллект сможет противодействовать информационным угрозам.
Российские ученые начали бороться с манипуляциями. Для этого они создают специальный алгоритм, который поможет выявить в публикуемом контенте информацию, воздействующую на эмоции пользователей социальных сетей. Сейчас специалисты РГГУ выявляют наиболее частые приемы манипуляции, которые используют как в текстах, так и в фото и видеоматериалах. Эксперты намерены обучить искусственный интеллект распознавать в сообщениях скрытый смысл. Разработка поможет избежать информационных угроз.
И метафоры бывают плохими
Как объясняют сами ученые, в интернете есть масса непроверенных текстов, которые преподносятся людям как истина. Их главная особенность – воздействие не только на сознания людей, но и на их эмоции. Именно поэтому «кибертеррористы» зачастую в своих фейковых сообщениях используются метафоры и другие литературные приемы, которые позволяют им описывать абстрактные понятия более красочно.
— Когнитивная модель существует в голове любого носителя языка. Это схемы, но они реализуются через конкретные слова, — пояснила профессор РГГУ, директор Научно-образовательного центра когнитивных программ и технологий Вера Заботкина.
Потерянный смысл
Еще одним приемом является использование слов с несколькими значениями. Также особое влияние на восприятие информации читателем могут оказывать эвфемизмы – те слова, что были заменены на более нейтральные. Например, в американском «толерантном» обществе не принято говорить «слепой» или «глухой». Вместо них американцы употребляют слова «слабослышащий», «слабовидящий» и тем самым искажают смысл текста.
Планы ученых
Работа исследователей будет построена следующим образом:
-
Сначала они планируют определить наиболее распространенные приемы манипуляции, которые используют как СМИ, так и блогеры.
-
На основе анализа интернет-текстов будет создана база манипулятивных высказываний, к которым отнесут все сообщения, не соответствующие реальным фактам.
Важно отметить, что кроме текстов, группа ученых также будет изучать мемы, видеоклипы, картинки и посты в соцсетях. Ведь именно там находится большое количество той информации, которую принято считать манипулятивной.
— Мы начнем с анализа текстов, построим алгоритм идентификации манипулятивных высказываний. В будущем этот алгоритм может лечь в основу программного обеспечения, которое позволит автоматически обрабатывать тексты для выделения в них манипулятивных конструкций, — добавила Вера Заботкина.