Аннотация:
Проведено сравнение нейронных сетей прямого распространения и рекуррентных модификаций для решения задачи построения прогнозов непрерывных значений для математического ожидания, дисперсии, коэффициентов асимметрии и эксцесса конечных нормальных смесей. Рассмотрены $14$ различных архитектур нейронных сетей, включая и LSTM (Long-Short Term Memory). Для повышения скорости обучения использованы высокопроизводительные вычислительные средства. Продемонстрировано, что на рассматриваемых данных наилучшие результаты для всех моментных характеристик в смысле качества прогнозирования в стандартных метриках (среднеквадратичная ошибка, функция потерь, средняя абсолютная ошибка) достигаются с использованием двух рекуррентных архитектур — с одним скрытым слоем из $100$ нейронов и тремя слоями по $50$ нейронов.