В термодинамике принято различать макросостояния и микросостояния системы. Макросостояние характеризуется набором макроскопических параметров: энергией, объёмом, давлением, температурой, числом частиц и др. Микросостояние же — это конкретное распределение всех частиц по координатам и импульсам (в классической механике) или по квантовым состояниям (в квантовой механике), которое соответствует данному макросостоянию.
Важно отметить, что одному и тому же макросостоянию может соответствовать множество различных микросостояний. Именно это множество определяет фундаментальное понятие статистической физики — вероятность состояния.
Пусть $\Omega$ — число микросостояний, соответствующих заданному макросостоянию. Тогда энтропия определяется как логарифм этого числа:
$$ S = k_B \ln \Omega $$
где $S$ — энтропия, $k_B$ — постоянная Больцмана ($k_B \approx 1{,}38 \times 10^{-23} \, \text{Дж/К}$), $\ln$ — натуральный логарифм, а $\Omega$ — статистическая весовая функция.
Основополагающим допущением в статистической физике является постулат равновероятности, согласно которому в замкнутой системе в равновесии все доступные микросостояния одинаково вероятны. Это означает, что при отсутствии дополнительной информации наиболее правдоподобным является равномерное распределение вероятностей по всем микросостояниям.
Это положение лежит в основе энтропийной формулы Больцмана. Чем больше доступных микросостояний, тем выше энтропия. Таким образом, система «стремится» к состоянию с наибольшим числом микросостояний, т.е. к равновесию.
Связь между энтропией и вероятностью состоит в том, что более вероятные макросостояния соответствуют большему числу микросостояний. Следовательно, они обладают большей энтропией. Изменение энтропии связано с изменением вероятности реализации того или иного состояния:
$$ \Delta S = k_B \ln \frac{\Omega_2}{\Omega_1} $$
где $\Omega_1$ и $\Omega_2$ — число микросостояний до и после изменения состояния системы соответственно. Это выражение интерпретирует энтропию как меру логарифмической вероятности. Оно позволяет объяснить необратимость макроскопических процессов: переход к состояниям с большей энтропией соответствует переходу к более вероятным состояниям.
Ранее энтропия вводилась как термодинамическая функция состояния, определённая через интеграл:
$$ \Delta S = \int \frac{\delta Q_\text{rev}}{T} $$
где $\delta Q_\text{rev}$ — бесконечно малое количество теплоты, полученное системой при обратимом процессе, а $T$ — абсолютная температура. Однако эта формула не раскрывает физического смысла энтропии.
Статистическое определение показывает, что термодинамическая энтропия — это мера беспорядка, или хаотичности системы. При этом «беспорядок» понимается не как визуальный хаос, а как количество допустимых конфигураций на микроскопическом уровне.
Рассмотрим изолированную систему из двух тел, способных обмениваться энергией, но не частицами. Пусть полная энергия $E$ остаётся постоянной, и тела достигают теплового равновесия при температуре $T$. Число микросостояний всей системы:
$$ \Omega_\text{общ} = \Omega_1(E_1) \cdot \Omega_2(E - E_1) $$
Где $E_1$ — энергия первого тела, а $E - E_1$ — энергия второго. Энтропия всей системы:
$$ S = kB \ln \Omega\text{общ} = k_B \ln \left[ \Omega_1(E_1) \cdot \Omega_2(E - E_1) \right] = S_1(E_1) + S_2(E - E_1) $$
Состояние равновесия соответствует максимуму общей энтропии. Из условия экстремума:
$$ \left( \frac{\partial S_1}{\partial E_1} \right) = \left( \frac{\partial S_2}{\partial E_2} \right) $$
Поскольку $\frac{1}{T} = \frac{\partial S}{\partial E}$, это эквивалентно уравниванию температур: $T_1 = T_2$. Таким образом, статистическая энтропия согласуется с классическим понятием температурного равновесия.
Второй закон термодинамики утверждает, что энтропия замкнутой системы не убывает со временем. В статистическом смысле это означает, что система спонтанно эволюционирует в сторону более вероятных макросостояний.
Однако строгое возрастание энтропии не является абсолютным: возможны флуктуации, при которых система переходит в менее вероятное состояние. Тем не менее, вероятность этого чрезвычайно мала при макроскопическом числе частиц (порядка $10^{23}$). Поэтому в макроскопической физике энтропия практически всегда возрастает или остаётся неизменной.
В рамках канонического ансамбля вероятность нахождения системы в микросостоянии с энергией $E_i$ задаётся распределением Больцмана:
$$ P_i = \frac{e^{-E_i / k_B T}}{Z} $$
где $Z$ — статистическая сумма:
$$ Z = \sum_i e^{-E_i / k_B T} $$
Энтропия вычисляется по формуле Гиббса–Шеннона:
$$ S = -k_B \sum_i P_i \ln P_i $$
Это выражение эквивалентно формуле Больцмана в пределе равновероятных состояний. Оно обобщает понятие энтропии на произвольные распределения вероятностей и применяется как в классической, так и в квантовой статистике.
В квантовой механике микросостояния соответствуют собственным состояниям гамильтониана системы. Для системы с квантовыми состояниями ${ | \psi_i \rangle }$, описываемой плотностной матрицей $\hat{\rho}$, энтропия определяется по формуле фон Неймана:
$$ S = -k_B \, \text{Tr}(\hat{\rho} \ln \hat{\rho}) $$
Где $\text{Tr}$ — след оператора. Эта формула позволяет описывать смешанные квантовые состояния, в отличие от чистых, и применяется в квантовой информации, термодинамике и теории открытых систем.
Энтропия тесно связана с понятием информации. В информационной теории (Шеннон) энтропия интерпретируется как мера неопределённости, или нехватки информации о состоянии системы. Чем больше энтропия — тем меньше мы знаем о том, в каком конкретно микросостоянии находится система. Это даёт мощный философский и практический аспект понятию энтропии, связывая термодинамику с теорией информации.
Хотя законы микроскопической физики (механика Ньютона, уравнения Шрёдингера) обращаемы во времени, на макроскопическом уровне наблюдается направленность течения процессов: тепло передаётся от горячего к холодному, газы смешиваются, системы стремятся к равновесию.
Статистическая интерпретация энтропии объясняет это как результат подавляющего преобладания числа микросостояний, соответствующих состояниям равновесия. Вероятность самопроизвольного возврата к упорядоченному состоянию исчезающе мала, что делает такие процессы практически необратимыми.