Эта публикация цитируется в
3 статьях
Методы обработки сигналов
Концентрации рисков выпуклых комбинаций линейных оценок
Г. К. Голубевab a Институт проблем передачи информации им. А. А. Харкевича РАН
b Национальный центр научных исследований (CNRS), Университет Экс-Марсель, Франция
Аннотация:
Рассматривается задача оценивания неизвестного вектора
$\beta\in\mathbb R^p$ в линейной модели
$Y=X\beta+\sigma\xi$, где
$\xi\in\mathbb R^n$ – стандартный дискретный белый гауссовский шум, а
$X$ – известная (
$n\times p$)-матрица с
$n\ge p$. Предполагается, что размерность
$p$ велика и
$X$ является плохо обусловленной матрицей. Для оценивания
$\beta$ в этой ситуации используется семейство спектральных регуляризаций метода максимального правдоподобия $\widetilde\beta^\alpha(Y)= H^\alpha(X^\top X)\widehat\beta^\circ(Y)$,
$\alpha\in\mathbb R^+$, где
$\widehat\beta^\circ(Y)$ – оценка максимального правдоподобия
$\beta$, а $\{H^\alpha(\cdot)\colon\mathbb R^+\to[0,1],\ \alpha\in\mathbb R^+\}$ – заданное упорядоченное семейство функций, индексированных параметром регуляризации
$\alpha$. Финальная оценка вектора
$\beta$ строится как выпуклая комбинация по
$\alpha$ оценок
$\widetilde\beta^\alpha(Y)$ с весами, которые выбираются на основе наблюдений
$Y$. Приводятся неравенства для больших уклонений нормы ошибки предсказания этого метода.
УДК:
621.391.1
Поступила в редакцию: 25.11.2015
После переработки: 05.04.2016