RUS  ENG
Полная версия
ЖУРНАЛЫ // Теория вероятностей и ее применения // Архив

Теория вероятн. и ее примен., 2021, том 66, выпуск 3, страницы 601–609 (Mi tvp5442)

Эта публикация цитируется в 1 статье

Краткие сообщения

On the maximum entropy of a sum of independent discrete random variables

M. Kovačević

Faculty of Technical Sciences, University of Novi Sad, Novi Sad, Serbia

Аннотация: Пусть $X_1,\dots, X_n $ — независимые случайные величины, принимающие значения в алфавите $\{0,1,\dots,r\} $, и $S_n=\sum_{i=1}^nX_i$. Теорема Шеппа–Олкина утверждает, что в бинарном случае ($r=1$) энтропия Шеннона случайной величины $S_n$ максимальна, когда все $X_i$ равномерно распределены, т.е. являются бернуллиевскими с параметром $1/2$. Стремясь обобщить эту теорему на случай конечных алфавитов, мы получаем нижнюю границу для максимума энтропии случайной величины $S_n$ и доказываем, что она точна в некоторых частных случаях. В дополнение к этим частным случаям приводится еще один довод в поддержку гипотезы о том, что полученная граница представляет собой оптимальное значение для всех $n$$r$, т.е. что $H(S_n)$ максимальна, когда $X_1,\dots,X_{n-1}$ равномерно распределены на $\{0,r\}$, в то время как функция распределения масс случайной величины $X_n$ является смесью (с явным образом определенными ненулевыми весами) равномерных распределений на $\{0,r\}$ и $\{1,\dots,r-1\}$.

Ключевые слова: максимальная энтропия, бернуллиевская сумма, биномиальное распределение, теорема Шеппа–Олкина, ультра-лог-вогнутость.

Поступила в редакцию: 15.08.2020
Исправленный вариант: 04.02.2021
Принята в печать: 04.02.2021

DOI: 10.4213/tvp5442


 Англоязычная версия: Theory of Probability and its Applications, 2021, 66:3, 482–487

Реферативные базы данных:


© МИАН, 2024