Аннотация:
Фёдор Стонякин расскажет о недавно предложенном классе гладких оптимизационных задач, в котором для описания свойства гладкости оптимизируемых функций использованы два параметра вместо одной константы Липшица градиента. Такой подход мотивирован целевыми функциями, возникающими в задачах обучения нейросетей и отражает корреляцию между возрастанием норм матрицы Гессе и локальной константы гладкости. На лекции спикер обсудит то, как новый класс гладкости позволил продвинуть теорию оптимизационных методов первого порядка и какие возможны исследования в этой области.
|