Хаос в физике представляет собой динамическое поведение системы, характеризующееся крайней чувствительностью к начальному состоянию. Даже незначительные изменения начальных условий приводят к экспоненциально различным траекториям во времени. Формально это проявляется в положительных значениях лиapunovских показателей, которые характеризуют скорость расходимости близких траекторий в фазовом пространстве:
где δ(t) — расстояние между двумя близкими траекториями в момент времени t. Положительное λ свидетельствует о хаотическом поведении системы.
Хаос возникает в различных физических системах — от динамики жидкостей и плазмы до колебаний молекул и небесной механики. Несмотря на кажущуюся случайность, хаотическая динамика детерминирована: система подчиняется строгим законам, но предсказать её долгосрочное поведение невозможно без идеального знания начальных условий.
В рамках теории информации Шеннона энтропия H описывает среднее количество информации, необходимое для описания состояния системы. Для дискретного множества возможных состояний с вероятностями pi энтропия определяется формулой:
H = −∑ipilog2pi.
Эта формула применима к физическим системам, где вероятность каждой траектории или конфигурации может быть статистически оценена. В хаотических системах распределение состояний в фазовом пространстве становится максимально непредсказуемым, что приводит к увеличению информационной энтропии.
В физике информационная энтропия выполняет две ключевые функции:
Информационная энтропия тесно связана с энтропией Больцмана, которая в термодинамике определяется как:
S = kBln Ω,
где Ω — количество микроcостояний, соответствующих макроскопическому состоянию. В хаотических системах экспоненциальный рост числа доступных микросостояний отражается в росте как термодинамической, так и информационной энтропии.
Эта связь позволяет рассматривать хаотические процессы как генераторы информации: чем выше хаотизация, тем больше энтропийная “нагрузка”, которую необходимо учитывать при наблюдении или моделировании системы.
Для упрощённого анализа хаоса часто используют дискретные модели — хаотические карты, такие как карта Логиста:
xn + 1 = rxn(1 − xn),
где 0 < r ≤ 4. При определённых значениях r система демонстрирует детерминированный хаос. Изучение распределения xn позволяет вычислить энтропию колебаний и темп роста информационной неопределенности, известный как колмогоровская энтропия:
которая отражает скорость генерации новой информации в динамике системы.
Дифференциальная энтропия для непрерывных систем: Для непрерывных распределений p(x) используется формула
h = −∫p(x)log p(x) dx,
что позволяет количественно оценивать хаос в фазовом пространстве.
Энтропийные показатели предсказуемости: Определяют скорость утраты информации о начальных условиях. Чем выше показатель, тем быстрее теряется возможность долгосрочного прогнозирования.
Энтропийное производство: В неравновесных системах энтропия растёт со временем, отражая поток информации от упорядоченного состояния к хаотическому.
Хаотические траектории часто обладают фрактальной структурой. Фрактальная размерность D фазового множества связана с информационной энтропией через соотношение:
где ϵ — разрешение фазового пространства. Это позволяет оценить масштабируемую информационную сложность системы и количественно характеризовать хаос с точки зрения распределения вероятностей.