Статистический смысл энтропии и формула Больцмана

В классической термодинамике энтропия определяется как функция состояния, характеризующая направление протекания процессов и достижение термодинамического равновесия. Однако более глубокое понимание природы энтропии возникает в молекулярной физике и статистической механике, где энтропия приобретает статистическую интерпретацию, связанную с числом микросостояний, соответствующих данному макросостоянию системы.

Макросостояние системы определяется набором макроскопических параметров — энергией, объемом, числом частиц и т.д. Одному и тому же макросостоянию может соответствовать множество различных микросостояний — конкретных распределений координат и импульсов всех частиц в системе. Именно это множество определяет вероятность реализации данного макросостояния.

Если число всех возможных микросостояний, соответствующих макросостоянию, обозначить через Ω, то логично связать энтропию S с Ω как меру неопределенности или беспорядка.


Формула Больцмана

Людвиг Больцман предложил простое, но фундаментальное соотношение между энтропией и числом микросостояний:

S = kln Ω

где:

  • S — энтропия,
  • k — постоянная Больцмана (k ≈ 1, 38 × 10−23 Дж/К),
  • Ω — термодинамическая вероятность, т.е. число микросостояний, соответствующих данному макросостоянию.

Это выражение устанавливает количественную связь между макроскопической термодинамической величиной (энтропией) и микроскопическим описанием системы.


Примеры интерпретации формулы Больцмана

  1. Изолированная система с максимальной энтропией Изолированная система в равновесии характеризуется тем, что число доступных микросостояний Ω максимально. Следовательно, согласно формуле Больцмана, энтропия в этом случае также максимальна. Это соответствует второму началу термодинамики: система стремится к состоянию с максимальной энтропией.

  2. Возрастание энтропии при смешивании При соединении двух различных газов в одном объеме происходит увеличение доступного объема для каждой молекулы, что увеличивает число микросостояний Ω и, соответственно, энтропию.


Макросостояния и микросостояния: комбинаторный подход

Для понимания того, как вычисляется Ω, рассмотрим простую модель: система из N неразличимых частиц, распределенных по M ячейкам. Пусть ni — число частиц в i-й ячейке. Макросостояние системы задается множеством {n1, n2, …, nM}, удовлетворяющим условию:

$$ \sum_{i=1}^M n_i = N $$

Число микросостояний, соответствующее этому макросостоянию, определяется как число перестановок частиц между ячейками:

$$ \Omega = \frac{N!}{n_1! \, n_2! \, \dots \, n_M!} $$

Используя формулу Больцмана и приближение Стирлинга ln N! ≈ Nln N − N, можно получить выражения для энтропии как функции распределения частиц по ячейкам. Такой подход лежит в основе статистического вывода распределения Больцмана и других фундаментальных распределений статистической физики.


Энтропия как мера беспорядка

Понятие энтропии в статистической физике часто интерпретируется как мера беспорядка или неупорядоченности. Чем больше способов реализовать макросостояние (т.е. чем больше Ω), тем выше беспорядок, и тем выше энтропия. В этом контексте:

  • кристалл при низкой температуре имеет низкую энтропию, т.к. его микросостояния сильно ограничены,
  • газ при высокой температуре имеет высокую энтропию, т.к. возможны многочисленные варианты распределения частиц.

Однако следует понимать, что “беспорядок” здесь не следует воспринимать буквально: это строгое статистическое понятие, связанное с количеством микроскопических реализаций макроскопической ситуации.


Связь с термодинамическими законами

Второе начало термодинамики в статистической интерпретации утверждает, что в замкнутой системе процессы самопроизвольно идут в сторону увеличения числа доступных микросостояний, а значит — в сторону увеличения энтропии. Это можно переформулировать как:

ΔS ≥ 0  для изолированной системы

Таким образом, статистический смысл энтропии придаёт глубокую и универсальную интерпретацию второму началу термодинамики: оно отражает переход к более вероятным состояниям.


Энтропия и равновесие

В состоянии равновесия макросостояние системы максимально вероятно, а Ω достигает максимального значения. Любые отклонения от равновесия соответствуют меньшему Ω и, следовательно, меньшей энтропии. Это приводит к фундаментальному выводу: равновесие — это состояние с максимальной энтропией при заданных внешних ограничениях (энергия, объем, число частиц и т.п.).


Энтропия и информация

Энтропия в статистической физике тесно связана с понятием информации. В теории информации Шеннона, информационная энтропия измеряет неопределенность относительно состояния системы. Аналогично, в молекулярной физике энтропия характеризует неопределенность в отношении микроскопического состояния при заданных макропараметрах.

Если известно точное микросостояние системы, Ω = 1, и S = 0. Если же множество микросостояний велико, а информация о точном состоянии отсутствует, энтропия высока. Эта связь особенно важна в контексте информационного подхода к термодинамике и изучению процессов неравновесной статистической механики.


Применение формулы Больцмана в различных системах

Формула Больцмана применяется ко многим физическим системам:

  • к идеальному газу: позволяет вывести энтропию как функцию объема, температуры и числа частиц;
  • к спиновым системам: описывает конфигурационную энтропию при различных ориентациях магнитных моментов;
  • в космологии и астрофизике: энтропия чёрных дыр, связанная с числом микросостояний горизонта событий;
  • в химической термодинамике: определяет вероятность химических реакций с учётом числа микросостояний реагентов и продуктов.

Эта универсальность делает статистическую формулу Больцмана одним из фундаментальных выражений во всей физике.