RUS  ENG
Полная версия
ЖУРНАЛЫ // Проблемы передачи информации // Архив

Пробл. передачи информ., 2016, том 52, выпуск 4, страницы 3–13 (Mi ppi2218)

Эта публикация цитируется в 3 статьях

Теория информации

О некоторых экстремальных задачах для взаимной информации и энтропии

В. В. Прелов

Институт проблем передачи информации им. А. А. Харкевича РАН

Аннотация: Рассматривается задача о нахождении максимума информации $I(X;Y)$ и минимума энтропии $H(X,Y)$ пары дискретных случайных величин $X$ и $Y$ при условии, что распределение вероятностей случайной величины $X$ фиксировано, а вероятность ошибки $\mathrm{Pr}\{Y\ne X\}$ принимает заданное значение $\varepsilon$, $0\le\varepsilon\le1$. Найдены точные значения для указанных величин, что позволяет в ряде случаев получить явные формулы как для максимума информации, так и для минимума энтропии в терминах распределения $X$ и параметра $\varepsilon$.

УДК: 621.391.1+519.72

Поступила в редакцию: 01.12.2015
После переработки: 14.10.2016


 Англоязычная версия: Problems of Information Transmission, 2016, 52:4, 319–328

Реферативные базы данных:


© МИАН, 2024