Неравновесная статистическая механика изучает динамику систем, находящихся вне термодинамического равновесия, где распределение микросостояний изменяется во времени под действием внешних или внутренних воздействий. В таких системах важнейшую роль играют информационные меры, позволяющие количественно оценивать состояние системы и ее отклонение от равновесия.
Ключевым инструментом здесь выступает энтропия Шеннона S и ее обобщения. Для дискретной системы с вероятностями микросостояний {pi} энтропия Шеннона определяется как:
S = −kB∑ipiln pi,
где kB — постоянная Больцмана. В неравновесных процессах pi = pi(t), что превращает энтропию в функцию времени, отражающую динамику информации о состоянии системы.
Энтропия в неравновесной статистике характеризует неопределенность и структурированность распределения вероятностей. Более высокая энтропия соответствует большему разнообразию микросостояний, доступных системе.
Для непрерывных распределений ρ(x, t) энтропия принимает вид:
S(t) = −kB∫ρ(x, t)ln ρ(x, t) dx.
Здесь x — вектор фазовых координат, а ρ(x, t) — фазовая плотность вероятности. Энтропия служит естественным индикатором приближения системы к равновесию, поскольку при отсутствии внешних потоков она растет и стремится к максимуму (закон возрастания энтропии).
В неравновесных системах часто рассматриваются производные информационные меры, такие как:
$$ \frac{dS}{dt} = -k_B \int \frac{\partial \rho}{\partial t} \ln \rho \, dx, $$
которая показывает скорость изменения неопределенности системы.
$$ D_{\text{KL}}(\rho || \rho_\text{eq}) = \int \rho(x,t) \ln \frac{\rho(x,t)}{\rho_\text{eq}(x)} \, dx, $$
где ρeq — равновесное распределение. Эта мера оценивает расстояние между текущим и равновесным состоянием и играет фундаментальную роль в анализе релаксации.
Неравновесная статистическая механика описывается уравнениями типа Лиувилля, Фоккера–Планка и Больцмана. Для фазовой плотности ρ(x, t) уравнение Лиувилля записывается как:
$$ \frac{\partial \rho}{\partial t} + \{ \rho, H \} = 0, $$
где {⋅, ⋅} — пуассоновский скобки, а H — гамильтониан системы.
Для систем с диффузией и трением используется уравнение Фоккера–Планка:
$$ \frac{\partial \rho}{\partial t} = -\nabla \cdot (\mathbf{A} \rho) + \nabla \cdot (\mathbf{D} \nabla \rho), $$
где A — дрейф, D — матрица диффузии. С помощью энтропии Шеннона и Kullback-Leibler divergence можно анализировать скорость релаксации и направления информационного потока.
Для неравновесной системы ключевое значение имеет поток информации, который можно формализовать через:
$$ \frac{dS}{dt} = \int J(x,t) \cdot \nabla \ln \rho(x,t) \, dx, $$
где J(x, t) — поток вероятности в фазовом пространстве. Этот подход позволяет разделять энтропийные изменения на потоки внутри системы и потоки, связанные с внешней средой.
Неравновесная статистическая механика вводит принципы максимальной и минимальной энтропии:
$$ \frac{dH}{dt} \le 0, \quad H = \int f \ln f \, d\Gamma, $$
где f — функция распределения, dΓ — элемент фазового объема.
Неравновесные системы подвержены флуктуациям, и информационные меры позволяют количественно их описывать. Например, флуктуационно-диссипативное соотношение связывает корреляции отклонений от равновесия с энтропийными потоками:
$$ \langle \delta A(t) \delta A(0) \rangle \sim \frac{k_B}{\gamma} \frac{dS}{dt}, $$
где δA — отклонение наблюдаемой величины, γ — коэффициент трения.
Для сложных систем применяются обобщенные энтропии, учитывающие нелинейные эффекты и дальние корреляции:
$$ S_q = k_B \frac{1 - \sum_i p_i^q}{q-1}, \quad q \in \mathbb{R}, $$
позволяющая описывать системы с долгоживущими корреляциями и фрактальной структурой фазового пространства.
$$ S_\alpha = \frac{1}{1-\alpha} \ln \sum_i p_i^\alpha, $$
которую удобно использовать для анализа мультифрактальных распределений и информации о редких событиях.
Информационные меры находят широкое применение:
Эти подходы формируют современную информационную перспективу в статистической физике, позволяя объединить термодинамику, кинетику и теорию информации в единую математическую и концептуальную структуру.