Аннотация:
Растущая роль глубокого обучения для принятия решений в финансовом секторе открывает возможности для состязательных атак. Одна из угроз – атака отравления, при которой обучающая выборка модифицируется так, чтобы создать бэкдор (тайный вход), сохраняющийся при использовании модели. Однако очистка данных и регулярные проверки модели – легко реализуемые действия, которые предотвращают атаки отравления. Задача еще более сложная для моделей последовательностей событий, для которых тяжело спроектировать атаки из-за дискретной природы данных. Мы начинаем с общего исследования возможностей отравления моделей для последовательностей событий. После этого мы предлагаем скрытую атаку отравления, которая может обойти общепринятые средства защиты банка. Эмпирическое исследование показывает, что разработанная отравленная модель, обученная на зараженных данных, проходит проверки, похожа на чистую модель и при этом содержит легко реализуемый бэкдор.