В квантовой механике измерения физических величин подчинены фундаментальным ограничениям, вытекающим из соотношений неопределенности Гейзенберга. Для гравитационных волн эти ограничения проявляются в том, что любое измерение деформации метрики или фазовых сдвигов света в интерферометре невозможно сделать абсолютно точным.
Соотношение неопределенности для координаты x и импульса p имеет вид:
$$ \Delta x \cdot \Delta p \ge \frac{\hbar}{2}, $$
где ℏ — приведённая постоянная Планка. В контексте гравитационных волн это соотношение приводит к ограничениям на точность измерений колебаний длины, например, между зеркалами в детекторах типа LIGO или Virgo.
Гравитационное поле в квантовом представлении описывается как суперпозиция гравитонов — квантов возмущений метрики. Колебания метрики hμν не могут быть определены с бесконечной точностью:
$$ \Delta h_{\mu\nu} \sim \sqrt{\frac{\hbar G}{c^3 L^2}}, $$
где L — характерная длина измерительной системы, G — гравитационная постоянная, c — скорость света. Это выражение показывает, что квантовые флуктуации метрики становятся существенными на малых масштабах и задают фундаментальный предел чувствительности детекторов гравитационных волн.
Одним из центральных понятий является стандартный квантовый предел измерения (Standard Quantum Limit, SQL), который описывает минимальную погрешность при измерении положения массивного объекта в силу взаимодействия с квантовым полем. В случае детекторов гравитационных волн SQL определяется сочетанием двух эффектов:
Комбинированный эффект приводит к минимальной дисперсии измеряемой величины:
$$ \Delta L_{\rm min} \sim \sqrt{\frac{\hbar L}{m \omega}}, $$
где m — масса зеркала, ω — частота колебаний.
Современные методы квантовой оптики позволяют превышать SQL, используя состояния света с сжатой флуктуацией (squeezed states). Такие состояния обладают уменьшенной неопределённостью фазы за счёт увеличенной неопределённости амплитуды, что позволяет детекторам регистрировать более слабые гравитационные волны.
Технически это реализуется следующим образом: в лазерном интерферометре вводится сжатый вакуум на входе, что снижает фазовый шум и повышает чувствительность. Важно, что эти методы подчиняются законам квантовой механики и не нарушают принцип неопределенности: происходит перераспределение квантовых флуктуаций между коньюгированными переменными.
С точки зрения квантовой теории измерений, любая попытка одновременного измерения амплитуды и фазы гравитационной волны сталкивается с эффектом квантового неразличения. Это означает, что точное измерение одной коньюгированной переменной автоматически вносит неопределённость в другую. Для линейных интерферометров это выражается через невозможность идеальной синхронизации всех фотонных импульсов без влияния на зеркала.
Квантовые пределы измерений тесно связаны с энергетическими флуктуациями поля. В вакууме гравитационные флуктуации приводят к спонтанным колебаниям длины, которые можно оценить через спектральную плотность флуктуаций:
$$ S_h(f) \sim \frac{\hbar G}{c^3 f^2 L^2}, $$
где f — частота гравитационной волны. Этот спектр определяет минимальный уровень шума, ниже которого измерения невозможны без вмешательства квантовой инженерии.
Эти принципы формируют основу квантовой метрологии гравитационных волн, определяя границы точности и направления развития экспериментальной гравитационной физики.