Машинное обучение в квантовой теории поля

Взаимодействие квантовой теории поля и методов машинного обучения


Квантовая теория поля (КТП) — это чрезвычайно высокоразмерная, нелинейная теория с огромным числом степеней свободы. При переходе к численному моделированию, например, в решеточной формулировке, возникает массивная размерность конфигурационного пространства. Методы машинного обучения (ML) и, особенно, глубокого обучения, обладают уникальной способностью выявлять закономерности в подобных структурах без необходимости полной аналитической реконструкции динамики.

Машинное обучение в КТП не рассматривается как замена традиционным методам, а скорее как вспомогательный инструмент, способный упростить анализ, ускорить вычисления и даже предложить интуитивно-новые подходы к интерпретации физических явлений.


Обнаружение фазовых переходов с помощью нейросетей

Один из наиболее изученных аспектов применения ML в КТП — это выявление фазовых переходов. В традиционном подходе к анализу фазовых переходов необходимо вычислять порядковые параметры, корреляционные функции, а также использовать финитно-размерный анализ. Нейросети позволяют обойти эти шаги, классифицируя фазы напрямую по конфигурациям поля.

Пример: модель Изинга. Глубокие сверточные нейросети (CNN) обучаются распознавать спиновые конфигурации при разных температурах. Без знания порядка перехода, они эффективно классифицируют фазы. Слои сверточной сети “учатся” экстрагировать низкоэнергетические характеристики конфигураций, аналогично RG-потокам.

Этот метод был распространён и на более сложные модели, включая XY-модель, модель Хаббарда и SU(N) решеточные теории Янга-Миллса. На вход подаются сырые конфигурации поля, на выходе — предсказания принадлежности фазе или даже численное значение критической температуры.


Генерация новых конфигураций: вариационные автоэнкодеры и GAN

Сложность традиционного метода Монте-Карло в КТП заключается в медленном перемешивании конфигурационного пространства (critical slowing down), особенно вблизи фазового перехода. ML предлагает альтернативу: использовать генеративные модели.

Вариационные автоэнкодеры (VAE) и генеративные состязательные сети (GAN) обучаются на выборке конфигураций поля и впоследствии способны генерировать новые, статистически эквивалентные конфигурации с сохранением физического распределения.

Например, VAE можно использовать для генерации конфигураций спиновых полей, соблюдающих распределение Больцмана, при этом значительно ускоряя процесс по сравнению с Марковскими цепями Монте-Карло (MCMC).

Важно, что эти подходы не просто ускоряют симуляции, но и позволяют анализировать латентное пространство модели. Оно может обладать физическим смыслом: например, направления в латентном пространстве могут соответствовать различным фазам или типам возбуждений.


Ускорение решеточной КХД и редукция размерности

В решеточной квантовой хромодинамике (КХД) вычислительные затраты чрезвычайно велики. ML позволяет строить эффективные редуцированные представления конфигураций поля, которые сохраняют физическую информацию при пониженной размерности.

Autoencoder-архитектуры применяются к решеточным конфигурациям глюонных и кварковых полей. При этом латентное пространство может быть интерпретировано как “эффективные координаты” в теории, подобные модам при разложении по базису главных компонент (PCA), но с нелинейной обработкой и значительно большей точностью.

Это также открывает возможность к построению эффективных моделей действия: можно обучить нейросеть, предсказывающую значение действия по сжатию конфигурации, что дает возможность ускоренного выборочного отбора в методах importance sampling.


Машинное обучение и обратные задачи

Значительная часть КТП связана с так называемыми обратными задачами — задачами реконструкции. Одной из таких задач является восстановление спектральной функции по данным в евклидовом времени. Эта задача плохо обусловлена, и традиционные методы, такие как максимальная энтропия, имеют ограничения.

ML предлагает новые методы решения:

  • Сверточные нейросети и трансформеры применяются для восстановления спектров, обучаясь на синтетических данных, полученных из известной модели, и демонстрируют более устойчивое поведение к шуму;
  • Bayesian deep learning используется для оценки неопределенности предсказания спектров;
  • Physics-informed networks (PINNs) накладывают ограничения в виде уравнений движения, градиентных условий и других физических законов прямо в архитектуру нейросети.

Восстановление теории: символическое машинное обучение

Современные методы, основанные на symbolic regression, такие как алгоритм AI Feynman, позволяют реконструировать аналитические выражения из численных данных. Это особенно перспективно в контексте эффективных теорий поля.

Допустим, мы обладаем численными данными, описывающими поведение корреляционной функции. Метод может предложить кандидатов на лагранжиан или действующее взаимодействие, эффективно экстрагируя аналитическую форму с учетом симметрий и размерностей.

Это связывает машинное обучение не только с обработкой данных, но и с автоматическим открытием физических законов.


Архитектура RG-потоков и ML

Ренормализационная группа (RG) является центральной концепцией КТП. Существуют архитектуры ML, имитирующие поведение RG. Пример — слоистые автоэнкодеры, где каждый уровень отвечает за интеграцию по степеням свободы определенного масштаба.

Такие структуры могут быть обучены так, чтобы выполнять coarse-graining, аналогичный блочному RG, и демонстрировать фиксированные точки, которые соответствуют фазовым переходам. Это приближает нейросетевые методы к интерпретируемой физике, а не только к черному ящику.


Проблема знака и ML

Одна из центральных проблем в численном анализе неабелевых теорий — sign problem, возникающий, например, в КХД при конечной химпотенциале. ML применяются для поиска реальных или комплексных деформаций контура интегрирования (например, “Lefschetz thimble”), где проблема знака смягчается.

Нейросети обучаются предсказывать оптимальные пути деформации, минимизируя флуктуации фазы. Также используется normalizing flow — обучение обращаемых отображений между пространствами конфигураций, что позволяет эффективно параметризовать сложные контуры.


Перспективы и вызовы

Хотя машинное обучение открывает впечатляющие возможности, оно требует предельной осторожности:

  • Обобщаемость: модели ML хорошо обучаются на конкретных данных, но плохо обобщаются вне обучающей выборки;
  • Интерпретируемость: нейросети, в отличие от аналитических решений, не всегда дают физически прозрачные механизмы;
  • Контроль ошибок: аппроксимации с трудом поддаются строгой оценке точности, что особенно критично в КТП;
  • Физическая непротиворечивость: необходимо следить, чтобы ML не нарушали фундаментальные симметрии теории — калибровочную инвариантность, причинность, унитарность.

Однако при должном сочетании с традиционными методами, ML предоставляет мощные инструменты для исследования сложнейших аспектов КТП, ранее считавшихся труднодоступными или вовсе недоступными.