Байесовская линейная регрессия — это тип условного моделирования , в котором среднее значение одной переменной описывается линейной комбинацией других переменных с целью получения апостериорной вероятности коэффициентов регрессии (а также других параметров, описывающих распределение регрессанта) и, в конечном итоге, допускает вневыборочное предсказание регрессанта (часто обозначаемое ) в зависимости от наблюдаемых значений регрессоров (обычно ). Простейшей и наиболее широко используемой версией этой модели является нормальная линейная модель , в которой задано гауссовское распределение . В этой модели и при определенном выборе априорных вероятностей для параметров — так называемых сопряженных априорных — апостериорную вероятность можно найти аналитически. При более произвольно выбранных априорных вероятностях апостериорные вероятности обычно приходится аппроксимировать.
где — матрица плана , каждая строка которой представляет собой вектор-предиктор ; — вектор- столбец .
Это частотный подход, и он предполагает, что имеется достаточно измерений, чтобы сказать что-то осмысленное о . В байесовском подходе данные дополняются дополнительной информацией в форме априорного распределения вероятностей . Априорное убеждение о параметрах объединяется с функцией правдоподобия данных в соответствии с теоремой Байеса, чтобы получить апостериорное убеждение о параметрах и . Априорное может принимать различные функциональные формы в зависимости от домена и информации, которая доступна априори .
Поскольку данные включают в себя и , фокус только на распределении условного на потребности обоснования. Фактически, «полный» байесовский анализ потребовал бы совместного правдоподобия вместе с априорным , где символизирует параметры распределения для . Только при предположении (слабой) экзогенности совместное правдоподобие может быть учтено в . [1] Последняя часть обычно игнорируется при предположении непересекающихся наборов параметров. Более того, при классических предположениях считаются выбранными (например, в спланированном эксперименте) и, следовательно, имеют известную вероятность без параметров. [2]
С сопряженными априорными распределениями
Сопряженное априорное распределение
Для произвольного априорного распределения может не быть аналитического решения для апостериорного распределения . В этом разделе мы рассмотрим так называемое сопряженное априорное распределение , для которого апостериорное распределение может быть получено аналитически.
Априорная функция сопряжена с этой функцией правдоподобия, если она имеет ту же функциональную форму относительно и . Поскольку логарифм правдоподобия является квадратичным по , логарифм правдоподобия переписывается таким образом, что правдоподобие становится нормальным по . Запишите
Теперь вероятность записывается как
где
— число коэффициентов регрессии.
Теперь, когда априорное распределение определено, апостериорное распределение можно выразить как
При некоторой перестановке [3] апостериорную вероятность можно переписать так, чтобы апостериорное среднее вектора параметров можно было выразить через оценку наименьших квадратов и априорное среднее , причем сила априорной вероятности указывается матрицей априорной точности.
Чтобы подтвердить, что это действительно апостериорное среднее, квадратичные члены в экспоненте можно переставить в квадратичную форму в . [4]
Таким образом, апостериорное распределение можно параметризовать следующим образом.
где два фактора соответствуют плотностям и распределениям, а их параметры задаются как
что иллюстрирует байесовский вывод как компромисс между информацией, содержащейся в априорной информации, и информацией, содержащейся в выборке.
Модель доказательства
Доказательство модели — это вероятность данных, заданных моделью . Оно также известно как предельное правдоподобие и как априорная прогностическая плотность . Здесь модель определяется функцией правдоподобия и априорным распределением параметров, то есть . Доказательство модели фиксирует в одном числе, насколько хорошо такая модель объясняет наблюдения. Доказательство модели байесовской линейной регрессионной модели, представленное в этом разделе, может быть использовано для сравнения конкурирующих линейных моделей с помощью сравнения байесовских моделей . Эти модели могут различаться по количеству и значениям предикторных переменных, а также по их априорным данным по параметрам модели. Сложность модели уже учтена доказательством модели, поскольку оно маргинализирует параметры путем интегрирования по всем возможным значениям и .
Этот интеграл можно вычислить аналитически, а решение дано в следующем уравнении. [5]
Здесь обозначает гамма-функцию . Поскольку мы выбрали сопряженную априорную вероятность, предельное правдоподобие также можно легко вычислить, оценив следующее равенство для произвольных значений и .
Обратите внимание, что это уравнение есть не что иное, как перестановка теоремы Байеса . Подстановка формул для априорной вероятности, правдоподобия и апостериорной вероятности и упрощение полученного выражения приводит к аналитическому выражению, приведенному выше.
Карлин, Брэдли П.; Луис, Томас А. (2008). Байесовские методы анализа данных (третье изд.). Бока-Ратон, Флорида: Chapman and Hall/CRC. ISBN1-58488-697-8.
Фармейр, Л.; Кнейб, Т.; Ланг, С. (2009). Регрессия. Modelle, Methoden und Anwendungen (второе изд.). Гейдельберг: Спрингер. дои : 10.1007/978-3-642-01837-4. ISBN978-3-642-01836-7.
Гельман, Эндрю и др. (2013). «Введение в регрессионные модели». Байесовский анализ данных (третье изд.). Бока-Ратон, Флорида: Chapman and Hall/CRC. стр. 353–380. ISBN978-1-4398-4095-5.
Джекман, Саймон (2009). «Регрессионные модели». Байесовский анализ для социальных наук . Wiley. С. 99–124. ISBN978-0-470-01154-6.
Росси, Питер Э.; Алленби, Грег М.; Маккалок, Роберт (2006). Байесовская статистика и маркетинг . John Wiley & Sons. ISBN0470863676.
О'Хаган, Энтони (1994). Байесовский вывод . Расширенная теория статистики Кендалла. Т. 2B (Первое издание). Холстед. ISBN0-340-52922-9.
Внешние ссылки
Байесовская оценка линейных моделей (Wikibook по программированию на языке R). Байесовская линейная регрессия, реализованная в R.