Кубанские Новости

Нейросеть научилась читать эмоции по мозговой активности

Нейросеть научилась читать эмоции по мозговой активности
Фото: freepik.com

Ученые Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) разработали нейросеть, способную автоматически распознавать эмоциональное состояние человека по данным электроэнцефалограммы (ЭЭГ).

Как сообщили ТАСС в пресс-службе учреждения, технология позволит создавать цифровых помощников для мониторинга психологического здоровья в реальном времени.

Исследователи обучили нейросеть классифицировать эмоции по трем категориям: позитивные, негативные и нейтральные. В будущем разработку планируют интегрировать в компактные неинвазивные устройства для непрерывного контроля состояния операторов критически важных объектов — транспортной, промышленной или оборонной инфраструктуры, где от психофизиологического состояния сотрудника напрямую зависит безопасность.

Сегодня для таких целей уже используются цифровые помощники, анализирующие видеоизображение: мимику, речь, жесты. Однако их точность снижается при плохом освещении, посторонних шумах или из-за культурных различий в проявлении эмоций. Метод на основе ЭЭГ лишен этих недостатков, так как опирается непосредственно на мозговую активность.

Нейросеть обучили на двух открытых базах данных ЭЭГ, содержащих обезличенную информацию о мозговой активности более 130 человек разного пола и возраста. Для валидации ученые провели собственный эксперимент с участием 16 добровольцев: одновременно записывали их ЭЭГ с помощью портативного устройства и снимали на видео, чтобы сравнить эффективность двух подходов.

Главной сложностью, по словам старшего научного сотрудника лаборатории автоматизированных систем СПб ФИЦ РАН Алексея Кашевника, стала индивидуальность мозговых паттернов — у каждого человека даже одинаковые эмоции проявляются по-разному. Тем не менее точность классификации эмоций составила от 70 до 80 процентов в зависимости от испытуемого. Исследование выполнено в рамках госзадания Минобрнауки России

Сейчас читают

Мы используем cookies для улучшения работы нашего сайта и большего удобства его использования. Продолжая использовать сайт, Вы выражаете своё согласие на обработку файлов cookies