Аннотация:
Рассматривается задача регрессионного предсказания одной переменной по значениям связанных с ней других переменных. Традиционные решения имеют два существенных недостатка: неустойчивость метода наименьших квадратов к отклонениям распределения от модельного и априорная ложность проверяемой гипотезы об адекватности модели объекту (согласно общепринятому гносеологическому положению, реальный объект всегда сложнее любой его модели). Предлагается использовать устойчивые оценки минимального контраста, получаемые вариационной оптимизацией, и выбирать модель, минимизируя ожидаемую среднеквадратичную погрешность предсказания зависимой переменной в новом наблюдении. Эта погрешность выписывается для простейших регрессий: полиномиальной и множественной линейной на равномерно распределенные и нормально распределенные предикторы. Для последнего случая предлагается редуцировать решение многомерной задачи к последовательности двумерных задач.