Статистическая интерпретация энтропии

Микросостояния и макросостояния

В термодинамике принято различать макросостояния и микросостояния системы. Макросостояние характеризуется набором макроскопических параметров: энергией, объёмом, давлением, температурой, числом частиц и др. Микросостояние же — это конкретное распределение всех частиц по координатам и импульсам (в классической механике) или по квантовым состояниям (в квантовой механике), которое соответствует данному макросостоянию.

Важно отметить, что одному и тому же макросостоянию может соответствовать множество различных микросостояний. Именно это множество определяет фундаментальное понятие статистической физики — вероятность состояния.

Пусть $\Omega$ — число микросостояний, соответствующих заданному макросостоянию. Тогда энтропия определяется как логарифм этого числа:

$$ S = k_B \ln \Omega $$

где $S$ — энтропия, $k_B$ — постоянная Больцмана ($k_B \approx 1{,}38 \times 10^{-23} \, \text{Дж/К}$), $\ln$ — натуральный логарифм, а $\Omega$ — статистическая весовая функция.


Постулат равновероятности

Основополагающим допущением в статистической физике является постулат равновероятности, согласно которому в замкнутой системе в равновесии все доступные микросостояния одинаково вероятны. Это означает, что при отсутствии дополнительной информации наиболее правдоподобным является равномерное распределение вероятностей по всем микросостояниям.

Это положение лежит в основе энтропийной формулы Больцмана. Чем больше доступных микросостояний, тем выше энтропия. Таким образом, система «стремится» к состоянию с наибольшим числом микросостояний, т.е. к равновесию.


Энтропия и вероятность

Связь между энтропией и вероятностью состоит в том, что более вероятные макросостояния соответствуют большему числу микросостояний. Следовательно, они обладают большей энтропией. Изменение энтропии связано с изменением вероятности реализации того или иного состояния:

$$ \Delta S = k_B \ln \frac{\Omega_2}{\Omega_1} $$

где $\Omega_1$ и $\Omega_2$ — число микросостояний до и после изменения состояния системы соответственно. Это выражение интерпретирует энтропию как меру логарифмической вероятности. Оно позволяет объяснить необратимость макроскопических процессов: переход к состояниям с большей энтропией соответствует переходу к более вероятным состояниям.


Связь с термодинамической энтропией

Ранее энтропия вводилась как термодинамическая функция состояния, определённая через интеграл:

$$ \Delta S = \int \frac{\delta Q_\text{rev}}{T} $$

где $\delta Q_\text{rev}$ — бесконечно малое количество теплоты, полученное системой при обратимом процессе, а $T$ — абсолютная температура. Однако эта формула не раскрывает физического смысла энтропии.

Статистическое определение показывает, что термодинамическая энтропия — это мера беспорядка, или хаотичности системы. При этом «беспорядок» понимается не как визуальный хаос, а как количество допустимых конфигураций на микроскопическом уровне.


Пример: распределение энергии между двумя телами

Рассмотрим изолированную систему из двух тел, способных обмениваться энергией, но не частицами. Пусть полная энергия $E$ остаётся постоянной, и тела достигают теплового равновесия при температуре $T$. Число микросостояний всей системы:

$$ \Omega_\text{общ} = \Omega_1(E_1) \cdot \Omega_2(E - E_1) $$

Где $E_1$ — энергия первого тела, а $E - E_1$ — энергия второго. Энтропия всей системы:

$$ S = kB \ln \Omega\text{общ} = k_B \ln \left[ \Omega_1(E_1) \cdot \Omega_2(E - E_1) \right] = S_1(E_1) + S_2(E - E_1) $$

Состояние равновесия соответствует максимуму общей энтропии. Из условия экстремума:

$$ \left( \frac{\partial S_1}{\partial E_1} \right) = \left( \frac{\partial S_2}{\partial E_2} \right) $$

Поскольку $\frac{1}{T} = \frac{\partial S}{\partial E}$, это эквивалентно уравниванию температур: $T_1 = T_2$. Таким образом, статистическая энтропия согласуется с классическим понятием температурного равновесия.


Статистическая природа второго начала термодинамики

Второй закон термодинамики утверждает, что энтропия замкнутой системы не убывает со временем. В статистическом смысле это означает, что система спонтанно эволюционирует в сторону более вероятных макросостояний.

Однако строгое возрастание энтропии не является абсолютным: возможны флуктуации, при которых система переходит в менее вероятное состояние. Тем не менее, вероятность этого чрезвычайно мала при макроскопическом числе частиц (порядка $10^{23}$). Поэтому в макроскопической физике энтропия практически всегда возрастает или остаётся неизменной.


Энтропия в каноническом распределении

В рамках канонического ансамбля вероятность нахождения системы в микросостоянии с энергией $E_i$ задаётся распределением Больцмана:

$$ P_i = \frac{e^{-E_i / k_B T}}{Z} $$

где $Z$ — статистическая сумма:

$$ Z = \sum_i e^{-E_i / k_B T} $$

Энтропия вычисляется по формуле Гиббса–Шеннона:

$$ S = -k_B \sum_i P_i \ln P_i $$

Это выражение эквивалентно формуле Больцмана в пределе равновероятных состояний. Оно обобщает понятие энтропии на произвольные распределения вероятностей и применяется как в классической, так и в квантовой статистике.


Квантовая статистическая энтропия

В квантовой механике микросостояния соответствуют собственным состояниям гамильтониана системы. Для системы с квантовыми состояниями ${ | \psi_i \rangle }$, описываемой плотностной матрицей $\hat{\rho}$, энтропия определяется по формуле фон Неймана:

$$ S = -k_B \, \text{Tr}(\hat{\rho} \ln \hat{\rho}) $$

Где $\text{Tr}$ — след оператора. Эта формула позволяет описывать смешанные квантовые состояния, в отличие от чистых, и применяется в квантовой информации, термодинамике и теории открытых систем.


Энтропия как мера информации

Энтропия тесно связана с понятием информации. В информационной теории (Шеннон) энтропия интерпретируется как мера неопределённости, или нехватки информации о состоянии системы. Чем больше энтропия — тем меньше мы знаем о том, в каком конкретно микросостоянии находится система. Это даёт мощный философский и практический аспект понятию энтропии, связывая термодинамику с теорией информации.


Энтропия и необратимость

Хотя законы микроскопической физики (механика Ньютона, уравнения Шрёдингера) обращаемы во времени, на макроскопическом уровне наблюдается направленность течения процессов: тепло передаётся от горячего к холодному, газы смешиваются, системы стремятся к равновесию.

Статистическая интерпретация энтропии объясняет это как результат подавляющего преобладания числа микросостояний, соответствующих состояниям равновесия. Вероятность самопроизвольного возврата к упорядоченному состоянию исчезающе мала, что делает такие процессы практически необратимыми.


Выводы из статистической энтропии

  • Энтропия — мера числа микросостояний, соответствующих макросостоянию.
  • Термодинамическая энтропия возникает как логарифм статистического веса.
  • Энтропия максимальна в равновесии, что соответствует наиболее вероятному состоянию.
  • Необратимость процессов — следствие статистической тенденции к состояниям с большей энтропией.
  • Флуктуации возможны, но маловероятны в макроскопических системах.
  • Энтропия соединяет термодинамику, статистику, квантовую механику и теорию информации.