RUS  ENG
Полная версия
ВИДЕОТЕКА



Энтропия в естествознании, теории информации и математике

В. М. Тихомиров



Аннотация: Энтропия – мера неопределённости, мера хаоса. В естественных науках это мера беспорядка системы, состоящей из многих элементов; в теории информации – мера неопределённости какого-либо опыта, процесса или испытания, которые могут иметь разные исходы (а значит, мера количества информации); в математике – мера сложности объекта или процесса.
Понятие энтропии было впервые введено в 1865 году Р. Клаузиусом в термодинамике, К. Шенноном в теории информации в 1949 г., в теории стохастичпеских процессов Колмогоровым, Гельфандом и Яглом в 1956 г., в функциональном анализе и теории динамических систем Колмогоровым в 1956–1958 гг.
Между мирами полной детерминированности, изучаемой классическим анализом и миром хаоса, изучаемым теорией вероятностей, ныне перекидывается мост, который связан с понятием энтропии.

Website: https://www.mccme.ru/dubna/2013/courses/tikh.htm


© МИАН, 2024