RUS  ENG
Полная версия
ЖУРНАЛЫ // Доклады Российской академии наук. Математика, информатика, процессы управления // Архив

Докл. РАН. Матем., информ., проц. упр., 2023, том 514, номер 2, страницы 60–71 (Mi danma451)

Эта публикация цитируется в 1 статье

СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ

Нейросетевое обучение метрик: сравнение функций потерь

Р. Л. Васильевa, А. Г. Дьяконовb

a ООО "Яндекс", Москва, Россия
b Центральный университет, Москва, Россия

Аннотация: Представлен обзор методов обучения метрик с помощью глубоких нейронных сетей. Эти методы появились в последние годы, но сравнивались лишь с предшественниками, используя для обучения представлений (на которых вычисляется метрика) нейронные сети устаревших на данный момент архитектур. Проведено сравнение описанных методов на разных датасетах из нескольких доменов, используя предобученные нейронные сети, сопоставимые по качеству с SotA (state of the art): ConvNeXt для изображений, DistilBERT для текстов. Использовались размеченные наборы данных, разбитые на две части (обучение и контроль) таким образом, чтобы классы не пересекались (т.е. в контроле нет объектов тех классов, которые были в обучении). Подобное масштабное честное сравнение сделано впервые и привело к неожиданным выводам: некоторые “старые” методы, например Tuplet Margin Loss, превосходят по качеству свои современные модификации и методы, предложенные в совсем свежих работах.

Ключевые слова: машинное обучение, глубокое обучение, метрика, схожесть.

УДК: 519.7

Статья представлена к публикации: А. А. Шананин
Поступило: 30.06.2023
После доработки: 19.09.2023
Принято к публикации: 15.10.2023

DOI: 10.31857/S268695432360060X


 Англоязычная версия: Doklady Mathematics, 2023, 108:suppl. 2, S215–S225

Реферативные базы данных:


© МИАН, 2024