Среднеквадратическая ошибка прогноза

В статистике среднеквадратическая ошибка прогнозирования ( MSPE ), также известная как среднеквадратическая ошибка прогнозирования , сглаживания , подгонки кривой или процедуры регрессии , представляет собой ожидаемое значение квадратичной ошибки прогнозирования ( PE ), квадратную разницу между подобранными значениями, подразумеваемыми предсказательной функцией , и значениями (ненаблюдаемого) истинного значения g . Это обратная мера объяснительной силы и может использоваться в процессе перекрестной проверки оцененной модели. Знание g потребуется для точного расчета MSPE; на практике MSPE оценивается. [1] г ^ {\displaystyle {\widehat {g}}} г ^ , {\displaystyle {\widehat {g}},}

Формулировка

Если процедура сглаживания или подгонки имеет проекционную матрицу (т.е. матрицу шляпы) L , которая отображает вектор наблюдаемых значений в вектор прогнозируемых значений , то PE и MSPE формулируются как: у {\displaystyle у} у ^ = Л у , {\displaystyle {\hat {y}}=Ly,}

П Э я = г ( х я ) г ^ ( х я ) , {\displaystyle \operatorname {PE_{i}} =g(x_{i})-{\widehat {g}}(x_{i}),}
МСПЕ = Э [ ЧП я 2 ] = я = 1 н ЧП я 2 / н . {\displaystyle \operatorname {MSPE} =\operatorname {E} \left[\operatorname {PE} _{i}^{2}\right]=\sum _{i=1}^{n}\operatorname {PE} _{i}^{2}/n.}

MSPE можно разложить на два члена: квадрат смещения (средняя ошибка) подобранных значений и дисперсия подобранных значений:

МСПЕ = МНЕ 2 + ВАР , {\displaystyle \operatorname {MSPE} =\operatorname {ME} ^{2}+\operatorname {VAR} ,}
МНЕ = Э [ г ^ ( х я ) г ( х я ) ] {\displaystyle \operatorname {ME} =\operatorname {E} \left[{\widehat {g}}(x_{i})-g(x_{i})\right]}
ВАР = Э [ ( г ^ ( х я ) Э [ г ( х я ) ] ) 2 ] . {\displaystyle \operatorname {VAR} =\operatorname {E} \left[\left({\widehat {g}}(x_{i})-\operatorname {E} \left[{g}(x_{i})\right]\right)^{2}\right].}

Величина SSPE= n MSPE называется суммой квадратов ошибок предсказания . Среднеквадратическая ошибка предсказания — это квадратный корень из MSPE: RMSPE= MSPE .

Расчет MSPE по данным за пределами выборки

Среднеквадратичную ошибку прогнозирования можно вычислить точно в двух контекстах. Во-первых, с выборкой данных длиной n аналитик данных может запустить регрессию только по q точкам данных (с q < n ), удерживая остальные n – q точек данных с конкретной целью их использования для вычисления MSPE оценочной модели вне выборки (т. е. не используя данные, которые использовались в процессе оценки модели). Поскольку процесс регрессии адаптирован к q точкам в выборке, обычно MSPE в выборке будет меньше, чем MSPE вне выборки, вычисленная по n – q удерживаемым точкам. Если увеличение MSPE вне выборки по сравнению с выборкой относительно небольшое, это приводит к тому, что модель рассматривается благоприятно. И если необходимо сравнить две модели, та, у которой MSPE ниже по n – q точкам данных вне выборки, рассматривается более благоприятно, независимо от относительных показателей моделей в выборке. В этом контексте MSPE вне выборки является точным для точек данных вне выборки, по которым он был вычислен, но представляет собой всего лишь оценку MSPE модели для в основном ненаблюдаемой совокупности, из которой были получены данные.

Во-вторых, со временем аналитику данных может стать доступно больше данных, и тогда MSPE можно будет вычислить на основе этих новых данных.

Оценка MSPE среди населения

Если модель оценена по всем доступным данным без каких-либо упущений, то MSPE модели по всей совокупности в основном ненаблюдаемых данных можно оценить следующим образом.

Для модели , где , можно записать у я = г ( х я ) + σ ε я {\displaystyle y_{i}=g(x_{i})+\sigma \varepsilon _{i}} ε i N ( 0 , 1 ) {\displaystyle \varepsilon _{i}\sim {\mathcal {N}}(0,1)}

n MSPE ( L ) = g T ( I L ) T ( I L ) g + σ 2 tr [ L T L ] . {\displaystyle n\cdot \operatorname {MSPE} (L)=g^{\text{T}}(I-L)^{\text{T}}(I-L)g+\sigma ^{2}\operatorname {tr} \left[L^{\text{T}}L\right].}

Используя значения данных в выборке, первый член в правой части эквивалентен

i = 1 n ( E [ g ( x i ) g ^ ( x i ) ] ) 2 = E [ i = 1 n ( y i g ^ ( x i ) ) 2 ] σ 2 tr [ ( I L ) T ( I L ) ] . {\displaystyle \sum _{i=1}^{n}\left(\operatorname {E} \left[g(x_{i})-{\widehat {g}}(x_{i})\right]\right)^{2}=\operatorname {E} \left[\sum _{i=1}^{n}\left(y_{i}-{\widehat {g}}(x_{i})\right)^{2}\right]-\sigma ^{2}\operatorname {tr} \left[\left(I-L\right)^{T}\left(I-L\right)\right].}

Таким образом,

n MSPE ( L ) = E [ i = 1 n ( y i g ^ ( x i ) ) 2 ] σ 2 ( n tr [ L ] ) . {\displaystyle n\cdot \operatorname {MSPE} (L)=\operatorname {E} \left[\sum _{i=1}^{n}\left(y_{i}-{\widehat {g}}(x_{i})\right)^{2}\right]-\sigma ^{2}\left(n-\operatorname {tr} \left[L\right]\right).}

Если известно или хорошо оценено по , становится возможным оценить MSPE по σ 2 {\displaystyle \sigma ^{2}} σ ^ 2 {\displaystyle {\widehat {\sigma }}^{2}}

n M S P E ^ ( L ) = i = 1 n ( y i g ^ ( x i ) ) 2 σ ^ 2 ( n tr [ L ] ) . {\displaystyle n\cdot \operatorname {\widehat {MSPE}} (L)=\sum _{i=1}^{n}\left(y_{i}-{\widehat {g}}(x_{i})\right)^{2}-{\widehat {\sigma }}^{2}\left(n-\operatorname {tr} \left[L\right]\right).}

Колин Маллоуз отстаивал этот метод при построении своей статистики выбора модели C p , которая представляет собой нормализованную версию оценочной MSPE:

C p = i = 1 n ( y i g ^ ( x i ) ) 2 σ ^ 2 n + 2 p . {\displaystyle C_{p}={\frac {\sum _{i=1}^{n}\left(y_{i}-{\widehat {g}}(x_{i})\right)^{2}}{{\widehat {\sigma }}^{2}}}-n+2p.}

где p — число оцененных параметров p и вычисляется из версии модели, которая включает все возможные регрессоры. Это завершает это доказательство. σ ^ 2 {\displaystyle {\widehat {\sigma }}^{2}}

Смотрите также

Ссылки

  1. ^ Пиндайк, Роберт С.; Рубинфельд , Дэниел Л. (1991). «Прогнозирование с помощью моделей временных рядов». Эконометрические модели и экономические прогнозы (3-е изд.). Нью-Йорк: McGraw-Hill. С. 516–535. ISBN 0-07-050098-3.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Mean_squared_prediction_error&oldid=1145206586"