Эта публикация цитируется в	
			1 статье
				
			
				
			Краткие сообщения
			
				
				On the maximum entropy of a sum of independent discrete random variables
			
			M. Kovačević		 Faculty of Technical Sciences, University of Novi Sad, Novi Sad, Serbia
					
			Аннотация:
			Пусть 
$X_1,\dots, X_n $ — независимые случайные величины, принимающие значения в алфавите 
$\{0,1,\dots,r\} $, и 
$S_n=\sum_{i=1}^nX_i$. Теорема Шеппа–Олкина утверждает, что в бинарном случае (
$r=1$) энтропия Шеннона случайной величины 
$S_n$ максимальна, когда все 
$X_i$ равномерно распределены, т.е. являются бернуллиевскими с параметром 
$1/2$. Стремясь обобщить эту теорему на случай конечных алфавитов, мы получаем нижнюю границу для максимума энтропии случайной величины 
$S_n$ и доказываем, что она точна в некоторых частных случаях. В дополнение к этим частным случаям приводится еще один довод в поддержку гипотезы о том, что полученная граница представляет собой оптимальное значение для всех 
$n$, 
$r$, т.е. что 
$H(S_n)$ максимальна, когда 
$X_1,\dots,X_{n-1}$ равномерно распределены на 
$\{0,r\}$, в то время как функция распределения масс случайной величины 
$X_n$ является смесью (с явным образом определенными ненулевыми весами) равномерных распределений на 
$\{0,r\}$ и 
$\{1,\dots,r-1\}$.
				
			
Ключевые слова:
			максимальная энтропия, бернуллиевская сумма, биномиальное распределение, теорема Шеппа–Олкина, ультра-лог-вогнутость.	
Поступила в редакцию: 15.08.2020
Исправленный вариант: 04.02.2021
Принята в печать: 04.02.2021	
			
DOI:
			10.4213/tvp5442