RUS  ENG
Полная версия
ЖУРНАЛЫ // Автоматика и телемеханика // Архив

Автомат. и телемех., 2021, выпуск 11, страницы 16–29 (Mi at15826)

Эта публикация цитируется в 2 статьях

Тематический выпуск (окончание)

Байесовская дистилляция моделей глубокого обучения

А. В. Грабовойa, В. В. Стрижовb

a Московский физико-технический институт
b Вычислительный центр им. А.А. Дородницына ФИЦ ИУ РАН, Москва

Аннотация: Исследуется проблема понижения сложности аппроксимирующих моделей. Рассматриваются методы, основанные на дистилляции моделей глубокого обучения. Вводятся понятия учителя и ученика. Предполагается, что модель ученика имеет меньшее число параметров, чем модель учителя. Предлагается байесовский подход к выбору модели ученика. Предложен метод назначения априорного распределения параметров ученика на основе апостериорного распределения параметров модели учителя. Так как пространства параметров учителя и ученика не совпадают, предлагается механизм приведения пространства параметров модели учителя к пространству параметров модели ученика путем изменения структуры модели учителя. Проводится теоретический анализ предложенного механизма приведения. Вычислительный эксперимент проводился на синтетических и реальных данных. В качестве реальных данных рассматривается выборка FashionMNIST.

Ключевые слова: выбор модели, байесовский вывод, дистилляция модели, локальные преобразования, преобразования вероятностных пространств.

Статья представлена к публикации членом редколлегии: А. А. Лазарев

Поступила в редакцию: 20.01.2021
После доработки: 25.06.2021
Принята к публикации: 30.06.2021

DOI: 10.31857/S0005231021110027


 Англоязычная версия: Automation and Remote Control, 2021, 82:11, 1846–1856

Реферативные базы данных:


© МИАН, 2024