Энтропия Шеннона H является фундаментальной мерой неопределённости или информации, содержащейся в случайной величине. Для дискретной случайной величины X, принимающей значения xi с вероятностями pi, энтропия определяется формулой:
H(X) = −∑ipilog pi,
где логарифм может быть взят по основанию 2 (бит), по основанию e (натуральная единица информации, нэт) или по основанию 10 (декадический логарифм).
Ключевой момент: энтропия максимальна, когда все исходы равновероятны, и минимальна, когда исход предопределён с вероятностью 1.
Энтропия Шеннона не просто математическая абстракция: она обладает глубокой физической интерпретацией и тесно связана с термодинамической энтропией Больцмана и с информационными процессами в физических системах.
В статистической механике термодинамическая энтропия S определяется через число микросостояний Ω:
S = kBln Ω,
где kB — постоянная Больцмана. Рассмотрим распределение вероятностей pi для микросостояний системы. В этом случае можно обобщить энтропию Больцмана:
S = −kB∑ipiln pi.
Сравнение с формулой Шеннона показывает прямую аналогию: энтропия Шеннона измеряет среднюю “неопределённость” системы, выраженную через вероятности её микросостояний.
Физический смысл: энтропия Шеннона количественно описывает, сколько информации необходимо для описания состояния системы с заданной вероятностной структурой. Чем выше неопределённость (энтропия), тем больше информации требуется для точного описания состояния.
Энтропия Шеннона часто интерпретируется как мера “информационного содержания” системы. Если принять, что информация — это снижение неопределённости, то изменение энтропии при получении нового сообщения X можно трактовать как количество информации:
I(X) = Hдо − Hпосле.
Пример: в квантовой физике измерение квантовой системы уменьшает её энтропию по Шеннону, поскольку часть неопределённости устраняется, что эквивалентно получению информации о системе.
Энтропия играет фундаментальную роль в теории вероятности и статистической физике, особенно при изучении больших отклонений. Вероятность редких событий экспоненциально уменьшается с ростом числа частиц N:
P(редкое событие) ∼ e−NI(x),
где I(x) — функционал, связанный с энтропией. Этот подход позволяет связать макроскопические наблюдаемые величины с микроуровневыми распределениями и их информационной структурой.
Ключевой момент: энтропия является мерой «редкости» состояний системы и определяет масштаб вероятности крупных флуктуаций.
В контексте физики информации энтропия Шеннона служит основой для понимания:
Тепловых процессов: энтропийные соотношения связывают работу, тепло и информационные меры. Пример — принцип Ландауэра: удаление одного бита информации требует затрат энергии не менее kBTln 2.
Обмена информацией между системами: взаимная информация I(X; Y) измеряет снижение энтропии одной системы при знании состояния другой:
I(X; Y) = H(X) − H(X|Y).
Энтропия может быть представлена через информационную геометрию: пространство вероятностных распределений образует многообразие с метрикой Фишера. Элементарная мера расстояния между распределениями p(x|θ) и p(x|θ + dθ) задаётся матрицей Фишера:
Физическая интерпретация: изменение энтропии связано с «геометрическим» расстоянием в пространстве вероятностных распределений, что позволяет трактовать информационные потоки и термодинамические преобразования как движения по информационному многообразию.
В физике процессов передачи информации энтропия Шеннона выступает фундаментальной величиной:
C = maxp(x)[H(Y) − H(Y|X)].
Ключевой момент: физическая энтропия неразрывно связана с понятием ограничений на передачу, хранение и обработку информации.