Эта публикация цитируется в
3 статьях
Теория информации
Об одной экстремальной задаче для энтропии и вероятности ошибки
В. В. Прелов Институт проблем передачи информации им. А. А. Харкевича РАН
Аннотация:
Рассматривается задача о нахождении максимума и минимума энтропии дискретной случайной величины
$Y$, а также максимума модуля разности энтропий
$Y$ и другой дискретной случайной величины
$X$ при условии, что распределение вероятностей случайной величины
$X$ фиксировано, а вероятность ошибки (т.е. вероятность несовпадения значений
$X$ и
$Y$) принимает заданное значение. Найдено точное значение для минимума энтропии
$Y$. Указаны условия, при которых энтропия
$Y$ принимает максимально возможное значение, а в других случаях получены верхние и нижние границы как для максимума энтропии
$Y$, так и для максимума модуля разности энтропий
$Y$ и
$X$.
УДК:
621.391.1+
519.72 Поступила в редакцию: 21.01.2014
После переработки: 19.06.2014