Информационная геометрия — это область науки, которая применяет методы дифференциальной геометрии к статистике и теории информации. Она исследует геометрические структуры на пространствах вероятностных распределений, позволяя описывать сложные системы через их информационное поведение. Центральной задачей является изучение того, как вероятностные модели можно рассматривать как многообразия, на которых естественным образом вводятся метрики, связи и кривизна.
Любое вероятностное распределение p(x; θ), параметризованное вектором θ = (θ1, θ2, …, θn), можно рассматривать как точку на многообразии ℳ. Каждое распределение определяет координаты на этом многообразии, а изменение параметров θ соответствует движению по многообразию.
Ключевой момент: такое представление позволяет использовать методы дифференциальной геометрии для анализа статистических свойств систем.
Основной инструмент информационной геометрии — метрика Фишера, задаваемая как:
$$ g_{ij}(\theta) = \mathbb{E}\left[ \frac{\partial \ln p(X;\theta)}{\partial \theta^i} \frac{\partial \ln p(X;\theta)}{\partial \theta^j} \right] $$
где ????[⋅] — математическое ожидание относительно распределения p(x; θ).
Смысл метрики Фишера: она измеряет “информационное расстояние” между бесконечно близкими распределениями. Чем выше значение метрики, тем чувствительнее система к изменениям параметров.
Пример: для гауссовского распределения с параметрами μ (среднее) и σ (стандартное отклонение) метрика Фишера имеет вид:
$$ g = \begin{pmatrix} 1/\sigma^2 & 0 \\ 0 & 2/\sigma^2 \end{pmatrix} $$
Эта простая форма позволяет аналитически изучать кривизну многообразия гауссовских распределений.
В информационной геометрии важное место занимают аффинные связи, определяющие правила параллельного переноса в пространстве распределений. Особую роль играют α-связи, введённые С. Амари:
$$ \Gamma_{ij,k}^{(\alpha)} = \mathbb{E}\Big[ \partial_i \partial_j \ln p(x;\theta) + \frac{1-\alpha}{2} (\partial_i \ln p \partial_j \ln p) \partial_k \ln p \Big] $$
Где α ∈ ℝ — параметр, задающий тип связи:
Ключевой момент: α-связи позволяют изучать геометрию многообразий для разных статистических моделей, учитывая как экспоненциальные, так и смешанные параметры.
Кривизна многообразия распределений Rijkl отражает информационную сложность системы:
Применение: в физике сложных систем кривизна информационного многообразия используется для анализа фазовых переходов, устойчивости макроскопических состояний и вероятностной устойчивости динамических систем.
Для двух распределений p(x) и q(x) определено информационное расстояние:
$$ D_{\text{KL}}(p||q) = \int p(x) \ln \frac{p(x)}{q(x)} dx $$
При малых различиях q(x) = p(x + dθ) расстояние KL приближённо совпадает с квадратичной формой метрики Фишера:
$$ D_{\text{KL}}(p(\theta)||p(\theta + d\theta)) \approx \frac{1}{2} g_{ij}(\theta) d\theta^i d\theta^j $$
Таким образом, метрика Фишера естественным образом возникает из информации о различиях между вероятностными распределениями.
Ключевой момент: информационная геометрия объединяет статистику, физику и геометрию, предоставляя мощный инструмент для анализа сложных систем, где динамика определяется вероятностными закономерностями и информационными ограничениями.
Метрика Фишера и кривизна многообразий тесно связаны с энтропией и флуктуациями:
$$ g_{ij}(\theta) = - \frac{\partial^2 S}{\partial \theta^i \partial \theta^j} $$
где S — энтропия системы. Это позволяет напрямую интерпретировать геометрические характеристики как меры нестабильности и чувствительности системы к малым возмущениям.
Применение в фазовых переходах: при критических точках кривизна многообразия часто демонстрирует сингулярное поведение, что отражает резкое изменение макроскопических свойств системы.