RUS  ENG
Полная версия
ЖУРНАЛЫ // Информационные технологии и вычислительные системы // Архив

ИТиВС, 2023, выпуск 3, страницы 46–54 (Mi itvs820)

ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ И ТЕХНОЛОГИИ

Послойная дистилляция знаний для обучения упрощенных биполярных морфологических нейронных сетей

М. В. Зингеренкоab, Е. Е. Лимоноваbc

a Московский физико-технический институт (национальный исследовательский университет), Долгопрудный, Московская область, Россия
b ООО "Смарт Энджинс Сервис", Москва, Россия
c Федеральный исследовательский центр "Информатика и Управление" РАН, Москва, Россия

Аннотация: В работе представлено улучшение структуры биполярного морфологического нейрона, повышающее его вычислительную эффективность и новый подход к обучению на основе непрерывных аппроксимаций максимума и дистилляции знаний. Были проведены эксперименты на выборке MNIST с нейронной сетью LeNet-подобной архитектуры, а также на выборке CIFAR10 с моделью архитектуры ResNet-22. На LeNet-подобной модели с помощью предложенного метода обучения получилось добиться 99.45% точности классификации при такой же точности у классической сети, а на ResNet-22 точность составила 86.69% при точности 86.43% у классической модели. Полученные результаты показывают, что предложенный метод, использующий log-sum-exp (LSE) аппроксимацию максимума и послойную дистилляцию знания, позволяет получить упрощенную биполярную морфологическую сеть, не уступающую классическим сетям.

Ключевые слова: биполярные морфологические сети, аппроксимации, искусственные нейронные сети, вычислительная эффективность.

DOI: 10.14357/20718632230305



Реферативные базы данных:


© МИАН, 2024