RUS  ENG
Полная версия
ЖУРНАЛЫ // Доклады Российской академии наук. Математика, информатика, процессы управления // Архив

Докл. РАН. Матем., информ., проц. упр., 2024, том 520, номер 2, страницы 325–336 (Mi danma610)

СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ

Внедрение бэкдоров в последовательности событий при помощи атак отравления

А. Ермиловаa, Е. Ковтунa, Д. Берестневb, А. А. Зайцевac

a Сколковский институт науки и технологий, Москва, Россия
b Группа "Иннотех", г. Москва
c БИМСА, Пекин, Китай

Аннотация: Растущая роль глубокого обучения для принятия решений в финансовом секторе открывает возможности для состязательных атак. Одна из угроз – атака отравления, при которой обучающая выборка модифицируется так, чтобы создать бэкдор (тайный вход), сохраняющийся при использовании модели. Однако очистка данных и регулярные проверки модели – легко реализуемые действия, которые предотвращают атаки отравления. Задача еще более сложная для моделей последовательностей событий, для которых тяжело спроектировать атаки из-за дискретной природы данных. Мы начинаем с общего исследования возможностей отравления моделей для последовательностей событий. После этого мы предлагаем скрытую атаку отравления, которая может обойти общепринятые средства защиты банка. Эмпирическое исследование показывает, что разработанная отравленная модель, обученная на зараженных данных, проходит проверки, похожа на чистую модель и при этом содержит легко реализуемый бэкдор.

Ключевые слова: атаки отравлением, скрытые атаки, состязательные атаки, глубокое обучение, последовательность событий.

УДК: 517.54

Поступило: 27.09.2024
Принято к публикации: 02.10.2024

DOI: 10.31857/S2686954324700693


 Англоязычная версия: Doklady Mathematics, 2024, 110:suppl. 1, S288–S298

Реферативные базы данных:


© МИАН, 2025