Основной моделью для описания турбулентных потоков в континуумной механике является система уравнений Навье–Стокса. При наличии высоких чисел Рейнольдса поведение решений становится хаотичным, детерминированное описание теряет прогностическую силу, и возникает необходимость статистического подхода. Пусть u(x, t) — поле скорости, удовлетворяющее уравнениям:
$$ \frac{\partial \mathbf{u}}{\partial t} + (\mathbf{u} \cdot \nabla)\mathbf{u} = -\nabla p + \nu \nabla^2 \mathbf{u} + \mathbf{f}, \quad \nabla \cdot \mathbf{u} = 0. $$
На практике интерес представляют не сами поля u, p, а их статистические моменты — среднее, корреляции, спектры энергии.
Пусть ⟨⋅⟩ обозначает ансамблевое среднее. Тогда уравнение для усреднённого поля принимает вид:
$$ \frac{\partial \langle \mathbf{u} \rangle}{\partial t} + \langle (\mathbf{u} \cdot \nabla)\mathbf{u} \rangle = -\nabla \langle p \rangle + \nu \nabla^2 \langle \mathbf{u} \rangle + \langle \mathbf{f} \rangle. $$
Однако нелинейный член не разлагается на произведение средних:
⟨(u ⋅ ∇)u⟩ ≠ (⟨u⟩ ⋅ ∇)⟨u⟩.
Введём возмущения: u = ⟨u⟩ + u′, p = ⟨p⟩ + p′. Тогда появляется тензор Рейнольдса:
Rij = ⟨ui′uj′⟩,
который выступает как дополнительное напряжение, вносящее вклад в перенос импульса. Его замыкание требует дополнительных гипотез.
При изотропной турбулентности удобно рассматривать распределение кинетической энергии по волновым числам:
$$ E(k) = \frac{1}{2} \int_{|\mathbf{k}| = k} |\hat{\mathbf{u}}(\mathbf{k})|^2 dS. $$
Теория Колмогорова (1941) предполагает наличие инерциального интервала η ≪ ℓ ≪ L, где происходит каскад энергии. Основная гипотеза — универсальность и масштабная инвариантность. Получается закон:
E(k) ∼ ε2/3k−5/3,
где ε — скорость диссипации энергии на единицу массы.
В стационарном случае вводится функция автокорреляции:
Rij(r) = ⟨ui(x)uj(x + r)⟩.
Для изотропного случая Rij выражается через два скаляра — поперечную и продольную корреляции. Интеграл Тейлора:
$$ \lambda = \left( \frac{\langle u^2 \rangle}{\langle (\partial u / \partial x)^2 \rangle} \right)^{1/2}, $$
даёт масштаб пространственной корреляции. Другим важным объектом является структура второго порядка:
Dij(r) = ⟨(ui(x + r) − ui(x))(uj(x + r) − uj(x))⟩.
Это ключевой объект при изучении неоднородностей и интермиттенции.
В статистической механике турбулентности можно рассматривать не только моменты, но и вероятностные плотности (PDF). Пусть P(u; x, t) — плотность вероятности значения u в точке x. Эволюция P описывается уравнением типа Фоккера–Планка, но из-за нелинейности оно не замыкается. Вместо этого применяются иерархии:
$$ \frac{\partial f^{(1)}}{\partial t} = \mathcal{L}_1 f^{(1)} + \int \mathcal{K}_1(\mathbf{x}, \mathbf{x}') f^{(2)}(\mathbf{x}, \mathbf{x}') d\mathbf{x}', $$
что аналогично BBGKY-иерархии в кинетической теории. Проблема замыкания остаётся центральной трудностью.
Машинное обучение, особенно методы регрессии, широко применяются для эмпирического восстановления физических зависимостей. Пусть у нас имеются данные {(xi, yi)}, где xi ∈ ℝn — параметры системы, yi ∈ ℝ — измеряемая величина. Тогда задача состоит в приближении зависимости y = f(x) по выборке. Классические методы: линейная регрессия, решающие деревья, ансамбли, нейросети.
Особенно важны методы, устойчивые к шуму, с возможностью встраивания априорных физических знаний — так называемое физически информированное машинное обучение (physics-informed machine learning).
Пусть необходимо найти приближённое решение уравнения:
????[u](x, t) = 0,
например, дифференциального уравнения. В методе PINN создаётся нейросеть uθ(x, t), параметры которой обучаются так, чтобы минимизировать функционал потерь:
ℒ = ℒdata + λℒPDE,
где:
Этот метод позволяет восстанавливать решения даже при частичной информации и сильно зашумлённых данных.
В турбулентности машинное обучение используется в задачах:
В частности, модели глубокого обучения успешно применяются для восстановления спектров турбулентности, прогнозирования временной эволюции и оценки коэффициентов диффузии.
Во многих физических задачах необходимо восстановить параметры модели по экспериментальным данным (обратные задачи). Классический подход требует решения плохо обусловленных оптимизационных задач. В машинном обучении применяется:
Обратные задачи особенно актуальны в геофизике, медицинской физике, оптике, задачах неразрушающего контроля.
Машинное обучение также применяется для суррогатного моделирования сложных физических симуляций:
Особое значение имеют нейронные операторы для моделирования нелинейной динамики ПДЕ в контексте больших вычислительных доменов.
Объединение статистических методов и машинного обучения — один из мощнейших инструментов современной физики. Пример: использование вероятностных моделей (Gaussian Processes, Bayesian Networks) совместно с физическими симуляциями и эмпирическими данными. Это позволяет строить устойчивые, обобщающие и интерпретируемые модели для описания сложных нелинейных явлений, таких как турбулентность, плазменная динамика, климатические процессы.