Аннотация:
В теории связи используются два определения Шеннона понятия "информация". Одно из них совпадает с энтропией Больцмана и является фактически мерой неопределенности при статистическом описании. Второе выражается через разность значений безусловной и условной энтропий. Конкретизация второго определения позволяет ввести меру информации открытых систем в зависимости от значений управляющих параметров. Выделен класс систем, для которых возможно равновесное состояние и имеет место закон сохранения информации и энтропии. Для равновесного состояния таких систем информация равна нулю, а энтропия максимальна. В процессах самоорганизации по мере удаления от равновесного состояния информация возрастает. Выделен и другой класс систем, для которых равновесное состояние невозможно. Для них вводится понятие "норма хаотичности" и рассматриваются два рода процессов самоорганизации. Дается соответствующее определение информации. Общие определения информации используются для классических и квантовых физических систем, а также при анализе результатов медико-биологического исследования.