RUS  ENG
Полная версия
СЕМИНАРЫ

Актуальные проблемы прикладной математики
11 июня 2021 г., г. Новосибирск, online


Стохастический градиентный спуск и анализ данных

А. В. Гасников

Московский физико-технический институт (национальный исследовательский университет), Московская облаcть, г. Долгопрудный


https://www.youtube.com/watch?v=5xC4rpbNKBU&ab_channel=%D0%9C%D0%9C%D0%A4%D0%9D%D0%93%D0%A3

Аннотация: Один из самых популярных сюжетов на стыке анализа данных и оптимизации в последнее время - это как обучать глубокие нейронные сети. Математически задача сводится к задаче стохастической оптимизации, которая, в свою очередь, с помощью метода Монте Карло сводится к задаче минимизации суммы большого числа функций. Важно отметить, что похожий сюжет присущ в целом почти всем задачам, приходящим из анализа данных. Почти все задачи анализа данных (машинного обучения) сводятся к задачам оптимизации, а точнее стохастической оптимизации. В математической статистике с известным вероятностным законом (но неизвестными параметрами), а в машинном обучении - с неизвестным вероятностным законом. Одним из наиболее популярных способов решения таких оптимизационных задач и их вариантов, полученных с помощью метода Монте-Карло, является метод стохастического градиентного спуска и его вариации. Методы был известен еще в 50-е годы прошлого века. Однако по-настоящему значимость этого метода была оценена в последние двадцать лет в связи с отмеченными приложениями. В данном докладе планируется сделать небольшой обзор развития указанного направления в последнее время (адаптивный выбор шага, размера батча, федеративное обучение и т.д.).


© МИАН, 2025