RUS  ENG
Полная версия
ЖУРНАЛЫ // Журнал Белорусского государственного университета. Математика. Информатика // Архив

Журн. Белорус. гос. ун-та. Матем. Инф., 2020, том 3, страницы 60–72 (Mi bgumi81)

Теоретические основы информатики

Устойчивость нейронных сетей к состязательным атакам при распознавании биомедицинских изображений

Д. М. Войновa, В. А. Ковалевb

a Белорусский государственный университет, пр. Независимости, 4, 220030, г. Минск, Беларусь
b Объединенный институт проблем информатики НАН Беларуси, ул. Сурганова, 6, 220012, г. Минск, Беларусь

Аннотация: В настоящий момент большинство исследований и разработок в области глубокого обучения концентрируются на повышении точности распознавания, в то время как проблема состязательных атак на глубокие нейронные сети и их последствий пока не получила должного внимания. Данная статья посвящена экспериментальной оценке влияния различных факторов на устойчивость нейронных сетей к состязательным атакам при решении задач распознавания биомедицинских изображений. На обширном материале, включающем более чем 1,45 млн радиологических и гистологических изображений, исследуется эффективность атак, подготовленных с помощью алгоритма спроецированного градиентного спуска ($PGD$), алгоритма «глубокого обмана» ($DeepFool$) и алгоритма Карлини – Вагнера ($CW$). Анализируются результаты атак обоих типов (по методам белого и черного ящика) на нейронные сети с архитектурами $InceptionV3, Densenet121, ResNet50, MobileNet$ и $Xception$. Основной вывод работы заключается в том, что проблема состязательных атак актуальна для задач распознавания биомедицинских изображений, поскольку протестированные алгоритмы успешно атакуют обученные нейронные сети так, что их точность падает ниже $15\%$. Установлено, что при тех же величинах злонамеренных возмущений изображения алгоритм $PGD$ менее эффективен, чем алгоритмы $DeepFool$ и $CW$. При использовании в качестве метрики сравнения изображений $L_{2}$-нормы алгоритмы$DeepFool$ и $CW$ генерируют атакующие изображения близкого качества. В трех из четырех задач распознавания радиологических и гистологических изображений атаки по методу черного ящика с использованием алгоритма $PGD$ показали низкую эффективность

Ключевые слова: глубокое обучение; состязательные атаки; биомедицинские изображения.

УДК: 004.9

DOI: 10.33581/2520-6508-2020-3-60-72



© МИАН, 2024