Аннотация:
Рассматривается задача о нахождении максимума информации $I(X;Y)$ и минимума энтропии $H(X,Y)$ пары дискретных случайных величин $X$ и $Y$ при условии, что распределение вероятностей случайной величины $X$ фиксировано, а вероятность ошибки $\mathrm{Pr}\{Y\ne X\}$ принимает заданное значение $\varepsilon$, $0\le\varepsilon\le1$. Найдены точные значения для указанных величин, что позволяет в ряде случаев получить явные формулы как для максимума информации, так и для минимума энтропии в терминах распределения $X$ и параметра $\varepsilon$.
УДК:
621.391.1+519.72
Поступила в редакцию: 01.12.2015 После переработки: 14.10.2016