Аннотация:
Рассматриваются вопросы обучаемой классификации с учетом результатов анализа главных компонент (PCA — Principal Component Analysis). Построение байесовского классификатора становится возможным после представления ковариаций через параметры вероятностной модели PCA. Выделен случай сингулярных распределений данных, для него оценивание параметров модели предлагается проводить при ограничениях на собственные значения ковариационных матриц. Исследуется качество классификации с учетом реальной размерности данных. Продемонстрировано, что при ее правильном задании классификатор обладает наименьшими вероятностями ошибки. Превышение наилучшего значения размерности обычно ухудшает качество классификации в меньшей степени, чем его занижение. Смесь вероятностных анализаторов главных компонент позволяет моделировать объемные данные с помощью относительно небольшого числа свободных параметров. Число свободных параметров можно контролировать с помощью выбора латентной размерности данных.
Ключевые слова:анализ главных компонент; смеси нормальных распределений; EM-алгоритм; обучаемая классификация.