RUS  ENG
Полная версия
ЖУРНАЛЫ // Доклады Российской академии наук. Математика, информатика, процессы управления // Архив

Докл. РАН. Матем., информ., проц. упр., 2022, том 508, страницы 104–105 (Mi danma345)

Эта публикация цитируется в 3 статьях

ПЕРЕДОВЫЕ ИССЛЕДОВАНИЯ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ

ruSciBERT:: языковая модель на базе архитектуры трансформер для получения семантических векторных представлений научных текстов на русском языке

Н. А. Герасименко, А. С. Чернявский, М. А. Никифорова

ПАО "Сбербанк", г. Москва

Аннотация: Значительный рост числа научных публикаций и количества научных отчетов делает задачу их обработки и анализа сложной и трудозатратной. Языковые модели, основанные на архитектуре Трансформер и предобученные на больших текстовых коллекциях, позволяют качественно решать множество задач анализа текстовых данных. Для работы с научными текстами на английском языке существуют модели SciBERT [1] и ее модификация SPECTER [2], однако они не поддерживают русский язык в связи с малым количеством текстов в обучающей выборке. Кроме того, способ оценки качества языковых моделей для научных текстов, бенчмарк SciDocs, также поддерживает только английский язык. Предлагаемая модель ruSciBERT позволит решать широкий спектр задач, связанных с анализом научных текстов на русском языке, а прилагаемый к ней бенчмарк ruSciDocs позволит оценивать качество языковых моделей применительно к этим задачам.

Ключевые слова: языковая модель, семантические представления, SciBERT, SciDocs.

УДК: 004.8

Статья представлена к публикации: А. Л. Семёнов
Поступило: 28.10.2022
После доработки: 28.10.2022
Принято к публикации: 01.11.2022

DOI: 10.31857/S2686954322070074


 Англоязычная версия: Doklady Mathematics, 2022, 508:suppl. 1, S95–S96

Реферативные базы данных:


© МИАН, 2024