В статистике и обработке сигналов принцип ортогональности является необходимым и достаточным условием оптимальности байесовского оценщика . Грубо говоря, принцип ортогональности гласит, что вектор ошибок оптимального оценщика (в смысле среднеквадратической ошибки ) ортогонален любому возможному оценщику. Принцип ортогональности чаще всего формулируется для линейных оценщиков, но возможны и более общие формулировки. Поскольку принцип является необходимым и достаточным условием оптимальности, его можно использовать для нахождения минимальной среднеквадратической ошибки оценщика.
Принцип ортогональности для линейных оценок
Принцип ортогональности чаще всего используется в условиях линейной оценки. [1] В этом контексте пусть x будет неизвестным случайным вектором , который должен быть оценен на основе вектора наблюдения y . Требуется построить линейную оценку для некоторой матрицы H и вектора c . Тогда принцип ортогональности гласит, что оценка достигает минимальной среднеквадратической ошибки тогда и только тогда, когда
и
Если x и y имеют нулевое среднее значение, то достаточно потребовать выполнения первого условия.
Пример
Предположим, что x — гауссовская случайная величина со средним значением m и дисперсией. Предположим также, что мы наблюдаем значение , где w — гауссовский шум, который не зависит от x и имеет среднее значение 0 и дисперсию. Мы хотим найти линейную оценку, минимизирующую MSE. Подставляя выражение в два требования принципа ортогональности, получаем
и
Решение этих двух линейных уравнений относительно h и c приводит к
так что линейная оценка минимальной среднеквадратической ошибки определяется выражением
Эту оценку можно интерпретировать как средневзвешенное значение между шумными измерениями y и априорным ожидаемым значением m . Если дисперсия шума мала по сравнению с дисперсией априорного значения (что соответствует высокому SNR ), то большая часть веса дается измерениям y , которые считаются более надежными, чем априорная информация. И наоборот, если дисперсия шума относительно выше, то оценка будет близка к m , поскольку измерения недостаточно надежны, чтобы перевесить априорную информацию.
Наконец, обратите внимание, что поскольку переменные x и y являются совместно гауссовыми, минимальная оценка MSE является линейной. [2] Следовательно, в этом случае оценка выше минимизирует MSE среди всех оценок, а не только линейных оценок.
Общая формулировка
Пусть будет гильбертовым пространством случайных величин со скалярным произведением , определяемым как . Предположим, что является замкнутым подпространством , представляющим пространство всех возможных оценок. Требуется найти вектор , который будет аппроксимировать вектор . Точнее, требуется минимизировать среднюю квадратичную ошибку (MSE) между и .
В частном случае линейных оценщиков, описанном выше, пространство представляет собой множество всех функций от и , в то время как представляет собой множество линейных оценщиков, т. е. линейных функций только от . Другие настройки, которые можно сформулировать таким образом, включают подпространство каузальных линейных фильтров и подпространство всех (возможно, нелинейных) оценщиков.
Геометрически мы можем увидеть эту проблему с помощью следующего простого случая, где — одномерное подпространство:
Мы хотим найти ближайшее приближение к вектору вектором в пространстве . Из геометрической интерпретации интуитивно понятно, что наилучшее приближение или наименьшая ошибка возникает, когда вектор ошибки, , ортогонален векторам в пространстве .
Точнее, общий принцип ортогональности утверждает следующее: если задано замкнутое подпространство оценок в гильбертовом пространстве и элемент в , то элемент достигает минимальной среднеквадратической ошибки среди всех элементов в тогда и только тогда, когда для всех
Изложенный таким образом, этот принцип является просто утверждением теоремы о проекции Гильберта . Тем не менее, широкое использование этого результата в обработке сигналов привело к названию «принцип ортогональности».
Мы хотим иметь возможность аппроксимировать вектор с помощью
где
является приближением как линейной комбинации векторов в подпространстве, охватываемом Поэтому мы хотим иметь возможность решить относительно коэффициентов, , чтобы мы могли записать наше приближение в известных терминах.
По теореме ортогональности квадратная норма вектора ошибок минимизируется, когда для всех j ,
Развивая это уравнение, получаем
Если имеется конечное число векторов , то это уравнение можно записать в матричной форме как