|
СЕМИНАРЫ |
|
Методы оптимизации для глубинных нейросетей Д. А. Кропотов Московский государственный университет имени М. В. Ломоносова, факультет вычислительной математики и кибернетики |
|||
Аннотация: Задача оптимизации, возникающая при обучении глубинных нейросетей, является на сегодняшний день одной из наиболее сложных и вместе с тем сверх актуальных задач в области оптимизации для машинного обучения. Несмотря на существенный прогресс методов стохастической оптимизации за последнее время, многие практики по-прежнему отдают предпочтение здесь стохастическому градиентному спуску (SGD). В докладе планируется обсудить некоторые недавние разработки в этой области, которые могут стать альтернативой простому SGD. Среди них такие подходы как метод натурального градиента с кронекеровским приближением матрицы Фишера (K-FAC) и Normalization Propagation. Литература: http://arxiv.org/abs/1503.05671 http://arxiv.org/abs/1602.01407 http://arxiv.org/pdf/1603.01431v6.pdf |