Part of a series on |
Bayesian statistics |
---|
Posterior = Likelihood × Prior ÷ Evidence |
Background |
Model building |
Posterior approximation |
Estimators |
|
Evidence approximation |
Model evaluation |
Процедура оценки, которая часто утверждается как часть байесовской статистики, представляет собой максимальную апостериорную оценку ( MAP ) неизвестной величины, которая равна моде апостериорной плотности относительно некоторой эталонной меры, обычно меры Лебега . MAP может использоваться для получения точечной оценки ненаблюдаемой величины на основе эмпирических данных. Она тесно связана с методом оценки максимального правдоподобия (ML), но использует расширенную цель оптимизации , которая включает априорную плотность по величине, которую требуется оценить. Таким образом, оценка MAP является регуляризацией оценки максимального правдоподобия, поэтому не является четко определенной статистикой байесовского апостериорного распределения.
Предположим, что мы хотим оценить ненаблюдаемый параметр популяции на основе наблюдений . Пусть будет распределением выборки , так что есть вероятность того, что базовый параметр популяции равен . Тогда функция:
известна как функция правдоподобия и оценка:
является оценкой максимального правдоподобия .
Теперь предположим, что существует априорное распределение по . Это позволяет нам рассматривать как случайную величину , как в байесовской статистике . Мы можем вычислить апостериорную плотность с помощью теоремы Байеса :
где — функция плотности , — область определения .
Метод максимальной апостериорной оценки затем оценивает моду апостериорной плотности этой случайной величины:
Знаменатель апостериорной плотности ( предельное правдоподобие модели) всегда положителен и не зависит от и, следовательно, не играет никакой роли в оптимизации. Обратите внимание, что оценка MAP совпадает с оценкой ML, когда априорное распределение однородно (т.е. является постоянной функцией ), что происходит всякий раз, когда априорное распределение берется в качестве эталонной меры, что типично для приложений с функциональным пространством.
Когда функция потерь имеет вид
При приближении к 0 байесовская оценка приближается к оценщику MAP, при условии, что распределение является квазивогнутым. [1] Но, как правило, оценщик MAP не является байесовской оценкой, если только он не является дискретным .
Оценки MAP можно рассчитать несколькими способами:
Хотя для оценки MAP требуются только мягкие условия, чтобы она была предельным случаем оценки Байеса (при функции потерь 0–1), [1] она не является репрезентативной для байесовских методов в целом. Это связано с тем, что оценки MAP являются точечными оценками и зависят от произвольного выбора эталонной меры, тогда как байесовские методы характеризуются использованием распределений для обобщения данных и выведения выводов: таким образом, байесовские методы, как правило, сообщают апостериорное среднее или медиану вместо этого вместе с достоверными интервалами . Это связано как с тем, что эти оценщики оптимальны при квадратичной и линейной ошибке потерь соответственно, которые более репрезентативны для типичных функций потерь , так и с тем, что для непрерывного апостериорного распределения нет функции потерь, которая предполагает, что MAP является оптимальной точечной оценкой. Кроме того, апостериорная плотность часто может не иметь простой аналитической формы: в этом случае распределение можно моделировать с использованием методов Монте-Карло с цепями Маркова , в то время как оптимизация для нахождения моды(-ей) плотности может быть сложной или невозможной. [ необходима цитата ]
Во многих типах моделей, таких как модели смесей , апостериор может быть многомодальным . В таком случае обычно рекомендуют выбирать наивысшую моду: это не всегда осуществимо ( глобальная оптимизация — сложная проблема), а в некоторых случаях даже возможно (например, когда возникают проблемы с идентификацией ). Более того, наивысшая мода может быть нехарактерной для большинства апостериорных, особенно во многих измерениях.
Наконец, в отличие от оценщиков ML, оценка MAP не инвариантна при репараметризации. Переключение с одной параметризации на другую подразумевает введение якобиана , который влияет на местоположение максимума. [2] Напротив, байесовские апостериорные ожидания инвариантны при репараметризации.
В качестве примера разницы между байесовскими оценками, упомянутыми выше (средние и медианные оценки), и использованием оценки MAP рассмотрим случай, когда необходимо классифицировать входные данные как положительные или отрицательные (например, кредиты как рискованные или безопасные). Предположим, что есть всего три возможных гипотезы о правильном методе классификации , и с апостериорами 0,4, 0,3 и 0,3 соответственно. Предположим, что задан новый экземпляр, , классифицирует его как положительный, тогда как два других классифицируют его как отрицательный. Используя оценку MAP для правильного классификатора , классифицируется как положительный, тогда как байесовские оценки усреднили бы все гипотезы и классифицировали бы как отрицательный.
Предположим, что нам дана последовательность случайных величин IID и априорное распределение задается как . Мы хотим найти оценку MAP для . Обратите внимание, что нормальное распределение является своим собственным сопряженным априорным распределением , поэтому мы сможем найти решение в замкнутой форме аналитически.
Тогда максимизируемая функция определяется как [3]
что эквивалентно минимизации следующей функции :
Таким образом, мы видим, что оценка MAP для μ определяется выражением [3]
что оказывается линейной интерполяцией между априорным средним и выборочным средним, взвешенным по их соответствующим ковариациям.
Случай называется неинформативным априорным и приводит к неправильному распределению вероятностей ; в этом случае