Общество

Российские учёные научили нейросети понимать русскую науку — результат на 73% эффективнее

Фото: magnific.com

Исследователи из НИУ ВШЭ разработали подход, который позволяет большим языковым моделям лучше понимать русскоязычную научную терминологию и при этом делает их значительно эффективнее.

Адаптированная таким образом система ИИ работает в 2,7 раза быстрее и требует на 73% меньше памяти по сравнению с исходной открытой мультиязычной моделью.

Объём научных публикаций, патентов и других данных постоянно растёт, и учёные всё чаще прибегают к помощи нейросетей для их анализа. Но существующие модели в основном обучены на английском языке и не учитывают специфику русскоязычной науки.

Специалисты Института статистических исследований и экономики знаний ВШЭ дообучили языковые модели на специальном корпусе данных iFORA-QA. Этот массив вручную собрали более 150 экспертов из аналитических материалов и отчётов в области науки, технологий и инноваций.

«Универсальные языковые модели знают много, но поверхностно. Нам же нужна модель, которая понимает, о чём пишут российские учёные и инженеры», — пояснила ведущий эксперт центра стратегической аналитики и больших данных Анастасия Малашина. После адаптации точность ответов ИИ на узкопрофессиональные вопросы выросла, скорость генерации увеличилась в 2,7 раза, а потребление памяти сократилось почти на три четверти, сообщает ТАСС.

Исследователи планируют встроить в систему дополнительные инструменты для снижения риска «галлюцинаций» (когда ИИ выдумывает факты), а также для работы с неполной или неоднозначной информацией. «Мы создаём целостную систему интеллектуальных агентов, адаптированную под реалии российской науки. Это шаг к автоматизации научной аналитики, где ИИ становится партнёром исследователя», — подытожила Малашина.