В классической термодинамике энтропия определяется как функция состояния, характеризующая направление протекания процессов и достижение термодинамического равновесия. Однако более глубокое понимание природы энтропии возникает в молекулярной физике и статистической механике, где энтропия приобретает статистическую интерпретацию, связанную с числом микросостояний, соответствующих данному макросостоянию системы.
Макросостояние системы определяется набором макроскопических параметров — энергией, объемом, числом частиц и т.д. Одному и тому же макросостоянию может соответствовать множество различных микросостояний — конкретных распределений координат и импульсов всех частиц в системе. Именно это множество определяет вероятность реализации данного макросостояния.
Если число всех возможных микросостояний, соответствующих макросостоянию, обозначить через Ω, то логично связать энтропию S с Ω как меру неопределенности или беспорядка.
Людвиг Больцман предложил простое, но фундаментальное соотношение между энтропией и числом микросостояний:
S = kln Ω
где:
Это выражение устанавливает количественную связь между макроскопической термодинамической величиной (энтропией) и микроскопическим описанием системы.
Изолированная система с максимальной энтропией Изолированная система в равновесии характеризуется тем, что число доступных микросостояний Ω максимально. Следовательно, согласно формуле Больцмана, энтропия в этом случае также максимальна. Это соответствует второму началу термодинамики: система стремится к состоянию с максимальной энтропией.
Возрастание энтропии при смешивании При соединении двух различных газов в одном объеме происходит увеличение доступного объема для каждой молекулы, что увеличивает число микросостояний Ω и, соответственно, энтропию.
Для понимания того, как вычисляется Ω, рассмотрим простую модель: система из N неразличимых частиц, распределенных по M ячейкам. Пусть ni — число частиц в i-й ячейке. Макросостояние системы задается множеством {n1, n2, …, nM}, удовлетворяющим условию:
$$ \sum_{i=1}^M n_i = N $$
Число микросостояний, соответствующее этому макросостоянию, определяется как число перестановок частиц между ячейками:
$$ \Omega = \frac{N!}{n_1! \, n_2! \, \dots \, n_M!} $$
Используя формулу Больцмана и приближение Стирлинга ln N! ≈ Nln N − N, можно получить выражения для энтропии как функции распределения частиц по ячейкам. Такой подход лежит в основе статистического вывода распределения Больцмана и других фундаментальных распределений статистической физики.
Понятие энтропии в статистической физике часто интерпретируется как мера беспорядка или неупорядоченности. Чем больше способов реализовать макросостояние (т.е. чем больше Ω), тем выше беспорядок, и тем выше энтропия. В этом контексте:
Однако следует понимать, что “беспорядок” здесь не следует воспринимать буквально: это строгое статистическое понятие, связанное с количеством микроскопических реализаций макроскопической ситуации.
Второе начало термодинамики в статистической интерпретации утверждает, что в замкнутой системе процессы самопроизвольно идут в сторону увеличения числа доступных микросостояний, а значит — в сторону увеличения энтропии. Это можно переформулировать как:
ΔS ≥ 0 для изолированной системы
Таким образом, статистический смысл энтропии придаёт глубокую и универсальную интерпретацию второму началу термодинамики: оно отражает переход к более вероятным состояниям.
В состоянии равновесия макросостояние системы максимально вероятно, а Ω достигает максимального значения. Любые отклонения от равновесия соответствуют меньшему Ω и, следовательно, меньшей энтропии. Это приводит к фундаментальному выводу: равновесие — это состояние с максимальной энтропией при заданных внешних ограничениях (энергия, объем, число частиц и т.п.).
Энтропия в статистической физике тесно связана с понятием информации. В теории информации Шеннона, информационная энтропия измеряет неопределенность относительно состояния системы. Аналогично, в молекулярной физике энтропия характеризует неопределенность в отношении микроскопического состояния при заданных макропараметрах.
Если известно точное микросостояние системы, Ω = 1, и S = 0. Если же множество микросостояний велико, а информация о точном состоянии отсутствует, энтропия высока. Эта связь особенно важна в контексте информационного подхода к термодинамике и изучению процессов неравновесной статистической механики.
Формула Больцмана применяется ко многим физическим системам:
Эта универсальность делает статистическую формулу Больцмана одним из фундаментальных выражений во всей физике.