Марковские процессы представляют собой фундаментальный класс стохастических процессов, характеризующихся отсутствием памяти: вероятность перехода системы в новое состояние зависит только от её текущего состояния и не зависит от предшествующей истории. Формально, если X(t) — состояние системы в момент времени t, то для марковского процесса выполняется условие:
P(X(tn + 1)|X(tn), X(tn − 1), ..., X(t0)) = P(X(tn + 1)|X(tn)).
Это ключевое свойство позволяет использовать марковские процессы для моделирования сложных систем, где полная динамика слишком громоздка для прямого анализа, но локальные правила эволюции достаточно просты.
Дискретное время, дискретное состояние (DTMC — Discrete-Time Markov Chain):
Система имеет конечное множество состояний S = {s1, s2, ..., sN} и меняет состояние в дискретные моменты времени t = 0, 1, 2, .... Основным объектом анализа является матрица переходов P:
Pij = P(Xn + 1 = sj|Xn = si), i, j ∈ {1, ..., N}.
Эта матрица удовлетворяет условиям вероятности:
$$ 0 \le P_{ij} \le 1, \quad \sum_{j=1}^{N} P_{ij} = 1. $$
Непрерывное время, дискретное состояние (CTMC — Continuous-Time Markov Chain):
В этом случае переходы происходят в случайные моменты времени, распределённые экспоненциально с параметром λij, задающим интенсивность перехода из состояния i в состояние j. Основной инструмент анализа — матрица интенсивностей (генератор процесса) Q:
Qij = λij, i ≠ j; Qii = −∑j ≠ iλij.
Эволюция вероятностей описывается системой дифференциальных уравнений Колмогорова:
$$ \frac{d\mathbf{p}(t)}{dt} = \mathbf{p}(t) Q, $$
где p(t) — вектор вероятностей нахождения системы в каждом состоянии в момент t.
Для многих задач важно найти стационарное распределение π = (π1, π2, ..., πN), удовлетворяющее:
$$ \pi P = \pi, \quad \sum_{i=1}^{N} \pi_i = 1 $$
для дискретного времени, и
$$ \pi Q = 0, \quad \sum_{i=1}^{N} \pi_i = 1 $$
для непрерывного времени. Стационарное распределение описывает долгосрочное поведение системы, когда распределение состояний перестаёт зависеть от начального условия.
Пример: цепь с двумя состояниями S = {0, 1} и матрицей переходов
$$ P = \begin{pmatrix} 0.7 & 0.3 \\ 0.4 & 0.6 \end{pmatrix} $$
имеет стационарное распределение π = (0.571, 0.429). Это означает, что через достаточно большое время система проведёт около 57% времени в состоянии 0 и 43% — в состоянии 1.
Обратимость — важное свойство, связанное с детальной балансировкой. Процесс называется обратимым, если существует распределение π, такое что для всех i, j выполняется:
πiPij = πjPji.
Обратимые процессы часто встречаются в физике сложных систем, например, при моделировании систем в термодинамическом равновесии, и позволяют значительно упростить вычисление стационарных распределений.
Для дискретных марковских цепей вероятности переходов через n шагов задаются степенью матрицы P:
P(n) = Pn, Pij(n) = P(Xt + n = sj|Xt = si).
Изучение спектра матрицы P позволяет оценить скорость сходимости к стационарному распределению и выявить долгоживущие метастабильные состояния.
Марковские модели находят широкое применение в теории сложных систем:
Для анализа марковских процессов используются как аналитические методы, так и численные подходы:
Ключевой момент: марковские процессы позволяют свести сложную многомерную динамику к работе с вероятностями переходов, что делает их незаменимым инструментом в физике сложных систем.