RUS
ENG
Полная версия
ПЕРСОНАЛИИ
Горбунов Эдуард Александрович
Доклады и лекции в базе данных Math-Net.Ru
Обзор современных результатов о сходимости стохастических методов первого порядка для задач гладкой выпуклой оптимизации
Э. А. Горбунов
Общероссийский семинар по оптимизации им. Б.Т. Поляка
14 марта 2023 г.
15:00
Методы, использующие градиентный клиппинг, для решения задач стохастической оптимизации и вариационных неравенств с тяжёлым шумом
Э. А. Горбунов
Общероссийский семинар по оптимизации им. Б.Т. Поляка
9 сентября 2022 г.
18:30
Extragradient Method: O(1/K) Last-Iterate Convergence for Monotone Variational Inequalities and Connections With Cocoercivity
Э. А. Горбунов
Общероссийский семинар по оптимизации им. Б.Т. Поляка
17 ноября 2021 г.
17:30
MARINA: Faster Non-Convex Distributed Learning with Compression
Э. А. Горбунов
Moscow Conference on Combinatorics and Applications - week 1
2 июня 2021 г.
11:10
MARINA: Faster Non-Convex Distributed Learning with Compression (совместно Federated Learning One-World (FLOW), ссылка для регистрации в описании)
Э. А. Горбунов
Общероссийский семинар по оптимизации им. Б.Т. Поляка
10 марта 2021 г.
16:00
Linearly Converging Error Compensated SGD
(совместно Federated Learning One-World (FLOW), ссылка для регистрации в описании)
Э. А. Горбунов
Общероссийский семинар по оптимизации им. Б.Т. Поляка
7 октября 2020 г.
16:00
О сходимости методов типа стохастического градиентного спуска для выпуклых и невыпуклых задач оптимизации
Э. А. Горбунов
Общероссийский семинар по оптимизации им. Б.Т. Поляка
8 июля 2020 г.
19:00
An Accelerated Directional Derivative Method for Smooth Stochastic Convex Optimization
Э. А. Горбунов
Optimization at Work
14 апреля 2018 г.
15:30
Accelerated Directional Search with non-euclidian prox-structure
Э. А. Горбунов
Optimization at Work
27 октября 2017 г.
10:30
©
МИАН
, 2024