Машинное обучение в физических приложениях

Уравнения Навье–Стокса и стохастическая природа турбулентности

Основной моделью для описания турбулентных потоков в континуумной механике является система уравнений Навье–Стокса. При наличии высоких чисел Рейнольдса поведение решений становится хаотичным, детерминированное описание теряет прогностическую силу, и возникает необходимость статистического подхода. Пусть u(x, t) — поле скорости, удовлетворяющее уравнениям:

$$ \frac{\partial \mathbf{u}}{\partial t} + (\mathbf{u} \cdot \nabla)\mathbf{u} = -\nabla p + \nu \nabla^2 \mathbf{u} + \mathbf{f}, \quad \nabla \cdot \mathbf{u} = 0. $$

На практике интерес представляют не сами поля u, p, а их статистические моменты — среднее, корреляции, спектры энергии.

Усреднение по ансамблю и по времени

Пусть ⟨⋅⟩ обозначает ансамблевое среднее. Тогда уравнение для усреднённого поля принимает вид:

$$ \frac{\partial \langle \mathbf{u} \rangle}{\partial t} + \langle (\mathbf{u} \cdot \nabla)\mathbf{u} \rangle = -\nabla \langle p \rangle + \nu \nabla^2 \langle \mathbf{u} \rangle + \langle \mathbf{f} \rangle. $$

Однако нелинейный член не разлагается на произведение средних:

⟨(u ⋅ ∇)u⟩ ≠ (⟨u⟩ ⋅ ∇)⟨u⟩.

Введём возмущения: u = ⟨u⟩ + u, p = ⟨p⟩ + p. Тогда появляется тензор Рейнольдса:

Rij = ⟨uiuj′⟩,

который выступает как дополнительное напряжение, вносящее вклад в перенос импульса. Его замыкание требует дополнительных гипотез.

Энергетический спектр и теория Колмогорова

При изотропной турбулентности удобно рассматривать распределение кинетической энергии по волновым числам:

$$ E(k) = \frac{1}{2} \int_{|\mathbf{k}| = k} |\hat{\mathbf{u}}(\mathbf{k})|^2 dS. $$

Теория Колмогорова (1941) предполагает наличие инерциального интервала η ≪ ℓ ≪ L, где происходит каскад энергии. Основная гипотеза — универсальность и масштабная инвариантность. Получается закон:

E(k) ∼ ε2/3k−5/3,

где ε — скорость диссипации энергии на единицу массы.

Корреляционные функции и структуры второго порядка

В стационарном случае вводится функция автокорреляции:

Rij(r) = ⟨ui(x)uj(x + r)⟩.

Для изотропного случая Rij выражается через два скаляра — поперечную и продольную корреляции. Интеграл Тейлора:

$$ \lambda = \left( \frac{\langle u^2 \rangle}{\langle (\partial u / \partial x)^2 \rangle} \right)^{1/2}, $$

даёт масштаб пространственной корреляции. Другим важным объектом является структура второго порядка:

Dij(r) = ⟨(ui(x + r) − ui(x))(uj(x + r) − uj(x))⟩.

Это ключевой объект при изучении неоднородностей и интермиттенции.

PDF-описание и замыкание BBGKY-типа

В статистической механике турбулентности можно рассматривать не только моменты, но и вероятностные плотности (PDF). Пусть P(u; x, t) — плотность вероятности значения u в точке x. Эволюция P описывается уравнением типа Фоккера–Планка, но из-за нелинейности оно не замыкается. Вместо этого применяются иерархии:

$$ \frac{\partial f^{(1)}}{\partial t} = \mathcal{L}_1 f^{(1)} + \int \mathcal{K}_1(\mathbf{x}, \mathbf{x}') f^{(2)}(\mathbf{x}, \mathbf{x}') d\mathbf{x}', $$

что аналогично BBGKY-иерархии в кинетической теории. Проблема замыкания остаётся центральной трудностью.


Машинное обучение в физических приложениях

Регрессия и апроксимация физических законов

Машинное обучение, особенно методы регрессии, широко применяются для эмпирического восстановления физических зависимостей. Пусть у нас имеются данные {(xi, yi)}, где xi ∈ ℝn — параметры системы, yi ∈ ℝ — измеряемая величина. Тогда задача состоит в приближении зависимости y = f(x) по выборке. Классические методы: линейная регрессия, решающие деревья, ансамбли, нейросети.

Особенно важны методы, устойчивые к шуму, с возможностью встраивания априорных физических знаний — так называемое физически информированное машинное обучение (physics-informed machine learning).

Физически информированные нейронные сети (PINN)

Пусть необходимо найти приближённое решение уравнения:

????[u](x, t) = 0,

например, дифференциального уравнения. В методе PINN создаётся нейросеть uθ(x, t), параметры которой обучаются так, чтобы минимизировать функционал потерь:

ℒ = ℒdata + λPDE,

где:

  • data = ∑i|uθ(xi, ti) − ui|2 — ошибка на наблюдаемых данных;
  • PDE = ∑j|????[uθ](xj, tj)|2 — невязка в уравнении.

Этот метод позволяет восстанавливать решения даже при частичной информации и сильно зашумлённых данных.

Применение к турбулентности: генерация и замыкание

В турбулентности машинное обучение используется в задачах:

  • Моделирование тензора Рейнольдса: замыкание уравнений усреднённого потока с использованием регрессионных моделей;
  • Реконструкция потоков по разреженным данным: применение сверточных нейросетей и автоэнкодеров;
  • Обнаружение когерентных структур: кластеризация, понижение размерности (t-SNE, UMAP, PCA);
  • Генерация статистически согласованных полей: вариационные автоэнкодеры, GAN.

В частности, модели глубокого обучения успешно применяются для восстановления спектров турбулентности, прогнозирования временной эволюции и оценки коэффициентов диффузии.

Обратные задачи и машинное обучение

Во многих физических задачах необходимо восстановить параметры модели по экспериментальным данным (обратные задачи). Классический подход требует решения плохо обусловленных оптимизационных задач. В машинном обучении применяется:

  • Bayesian Inference: построение апостериорного распределения параметров;
  • Amortized Inference: аппроксимация обратной карты параметров через нейросеть;
  • Physics-Informed Inverse Problems: совмещение модели и данных в рамках PINN.

Обратные задачи особенно актуальны в геофизике, медицинской физике, оптике, задачах неразрушающего контроля.

Вычислительная физика и ускорение симуляций

Машинное обучение также применяется для суррогатного моделирования сложных физических симуляций:

  • ROM (Reduced Order Modeling): аппроксимация решения уравнений в пониженном пространстве;
  • Neural Operators: обучение отображения между функциональными пространствами (DeepONet, FNO);
  • Data-driven Solvers: прямое приближение итеративных процедур с помощью нейросетей.

Особое значение имеют нейронные операторы для моделирования нелинейной динамики ПДЕ в контексте больших вычислительных доменов.


Синтез статистики и ML в физике

Объединение статистических методов и машинного обучения — один из мощнейших инструментов современной физики. Пример: использование вероятностных моделей (Gaussian Processes, Bayesian Networks) совместно с физическими симуляциями и эмпирическими данными. Это позволяет строить устойчивые, обобщающие и интерпретируемые модели для описания сложных нелинейных явлений, таких как турбулентность, плазменная динамика, климатические процессы.