Обратное распределение Уишарта

Распределение вероятностей
Обратный-Уишарт
Обозначение Вт 1 ( Ψ , ν ) {\displaystyle {\mathcal {W}}^{-1}({\mathbf {\Psi} },\nu )}
Параметры ν > п 1 {\displaystyle \nu >p-1} степени свободы ( действительные ) , масштабная матрица ( полож. определение )
Ψ > 0 {\displaystyle \mathbf {\Psi} >0} п × п {\displaystyle p\times p}
Поддерживать Х {\displaystyle \mathbf {X} } p  ×  p положительно определен
PDF

| Ψ | ν / 2 2 ν п / 2 Г п ( ν 2 ) | Х | ( ν + п + 1 ) / 2 е 1 2 тр ( Ψ Х 1 ) {\displaystyle {\frac {\left|\mathbf {\Psi } \right|^{\nu /2}}{2^{\nu p/2}\Gamma _{p}({\frac {\nu }{2}})}}\left|\mathbf {X} \right|^{-(\nu +p+1)/2}e^{-{\frac {1}{2}}\operatorname {tr} (\mathbf {\Psi } \mathbf {X} ^{-1})}}

Иметь в виду Ψ ν п 1 {\displaystyle {\frac {\mathbf {\Psi} {\nu -p-1}}} Для ν > п + 1 {\displaystyle \nu >p+1}
Режим Ψ ν + п + 1 {\displaystyle {\frac {\mathbf {\Psi} {\nu +p+1}}} [1] : 406 
Дисперсиясм. ниже

В статистике обратное распределение Уишарта , также называемое инвертированным распределением Уишарта , представляет собой распределение вероятностей, определенное на вещественных положительно-определенных матрицах . В байесовской статистике оно используется как сопряженное априорное распределение для ковариационной матрицы многомерного нормального распределения.

Мы говорим, что следует обратному распределению Уишарта, обозначаемому как , если его обратное имеет распределение Уишарта . Для обратного распределения Уишарта были выведены важные тождества. [2] Х {\displaystyle \mathbf {X} } Х Вт 1 ( Ψ , ν ) {\displaystyle \mathbf {X} \sim {\mathcal {W}}^{-1}(\mathbf {\Psi},\nu)} Х 1 {\displaystyle \mathbf {X} ^{-1}} Вт ( Ψ 1 , ν ) {\displaystyle {\mathcal {W}}(\mathbf {\Psi} ^{-1},\nu)}

Плотность

Плотность вероятности обратного Уишарта равна: [3]

ф Х ( Х ; Ψ , ν ) = | Ψ | ν / 2 2 ν п / 2 Г п ( ν 2 ) | Х | ( ν + п + 1 ) / 2 е 1 2 тр ( Ψ Х 1 ) {\displaystyle f_{\mathbf {X} }({\mathbf {X} }; {\mathbf {\Psi } },\nu ) = {\frac {\left|{\mathbf {\Psi } }\right |^{\nu /2}}{2^{\nu p/2}\Gamma _{p}({\frac {\nu }{2}})}}\left|\mathbf {X} \right|^{-(\nu +p+1)/2}e^{-{\frac {1}{2}}\operatorname { tr} (\mathbf {\Psi } \mathbf {X} ^{-1})}}

где и — положительно определенные матрицы, — определитель, а — многомерная гамма-функция . Х {\displaystyle \mathbf {X} } Ψ {\displaystyle {\mathbf {\Psi } }} п × п {\displaystyle p\times p} | | {\displaystyle |\cdot |} Г п ( ) {\displaystyle \Гамма _{p}(\cdot)}

Теоремы

Распределение обратной матрицы распределенной по Уишарту

Если и имеет размер , то имеет обратное распределение Уишарта . [4] Х Вт ( Σ , ν ) {\displaystyle {\mathbf {X} }\sim {\mathcal {W}}({\mathbf {\Sigma } },\nu )} Σ {\displaystyle {\mathbf {\Сигма } }} п × п {\displaystyle p\times p} А = Х 1 {\displaystyle \mathbf {A} = {\mathbf {X} }^{-1}} А Вт 1 ( Σ 1 , ν ) {\displaystyle \mathbf {A} \sim {\mathcal {W}}^{-1}({\mathbf {\Sigma } }^{-1},\nu )}

Предельные и условные распределения из обратной матрицы распределения Уишарта

Предположим, что имеет обратное распределение Уишарта. Разделите матрицы и соответственно друг другу А Вт 1 ( Ψ , ν ) {\displaystyle {\mathbf {A} }\sim {\mathcal {W}}^{-1}({\mathbf {\Psi } },\nu )} А {\displaystyle {\mathbf {A} }} Ψ {\displaystyle {\mathbf {\Psi } }}

А = [ А 11 А 12 А 21 А 22 ] , Ψ = [ Ψ 11 Ψ 12 Ψ 21 Ψ 22 ] {\displaystyle {\mathbf {A} }={\begin{bmatrix}\mathbf {A} _{11} &\mathbf {A} _{12} \\\mathbf {A} _{21} &\mathbf {A} _{22}\end{bmatrix}},\;{\mathbf {\Psi } }={\begin{bmatrix}\mathbf {\Psi } _{11} &\mathbf {\Psi } _{12} \\\mathbf {\Psi } _{21}&\mathbf {\Psi } _{ 22}\end{bmatrix}}}

где и - матрицы, то имеем А я дж {\displaystyle {\mathbf {A} _{ij}}} Ψ я дж {\displaystyle {\mathbf {\Psi } _{ij}}} п я × п дж {\displaystyle p_{i}\times p_{j}}

  1. А 11 {\displaystyle \mathbf {A} _{11}} не зависит от и , где — дополнение Шура в ; А 11 1 А 12 {\displaystyle \mathbf {A} _{11}^{-1}\mathbf {A} _{12}} А 22 1 {\displaystyle {\mathbf {A} }_{22\cdot 1}} А 22 1 = А 22 А 21 А 11 1 А 12 {\displaystyle {\mathbf {A} _{22\cdot 1}}={\mathbf {A} }_{22}-{\mathbf {A} }_{21}{\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}} А 11 {\displaystyle {\mathbf {A} _{11}}} А {\displaystyle {\mathbf {A} }}
  2. А 11 Вт 1 ( Ψ 11 , ν п 2 ) {\displaystyle {\mathbf {A} _{11}}\sim {\mathcal {W}}^{-1}({\mathbf {\Psi } _{11}},\nu -p_{2}) } ;
  3. А 11 1 А 12 А 22 1 М Н п 1 × п 2 ( Ψ 11 1 Ψ 12 , А 22 1 Ψ 11 1 ) {\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}\mid {\mathbf {A} }_{22\cdot 1}\sim MN_{ p_{1}\times p_{2}}({\mathbf {\Psi } }_{11}^{-1}{\mathbf {\Psi } }_{12},{\mathbf {A} }_{22\cdot 1}\otimes {\mathbf {\Psi } }_{11}^{-1})} , где — матричное нормальное распределение ; М Н п × д ( , ) {\displaystyle MN_{p\times q}(\cdot ,\cdot )}
  4. А 22 1 Вт 1 ( Ψ 22 1 , ν ) {\displaystyle {\mathbf {A} }_{22\cdot 1}\sim {\mathcal {W}}^{-1}({\mathbf {\Psi } }_{22\cdot 1},\nu )} , где ; Ψ 22 1 = Ψ 22 Ψ 21 Ψ 11 1 Ψ 12 {\displaystyle {\mathbf {\Psi } _{22\cdot 1}} = {\mathbf {\Psi } } _{22} - {\mathbf {\Psi } } _ {21}{\mathbf {\Psi } }_{11}^{-1}{\mathbf {\Psi } }_{12}}

Сопряженное распределение

Предположим, что мы хотим сделать вывод о ковариационной матрице, априорная вероятность которой имеет распределение. Если наблюдения являются независимыми p-вариантными гауссовыми переменными, взятыми из распределения, то условное распределение имеет распределение, где . Σ {\displaystyle {\mathbf {\Сигма } }} п ( Σ ) {\displaystyle {p(\mathbf {\Sigma } )}} Вт 1 ( Ψ , ν ) {\displaystyle {\mathcal {W}}^{-1}({\mathbf {\Psi} },\nu )} Х = [ х 1 , , х н ] {\displaystyle \mathbf {X} =[\mathbf {x} _{1},\ldots ,\mathbf {x} _{n}]} N ( 0 , Σ ) {\displaystyle N(\mathbf {0} ,{\mathbf {\Sigma } })} p ( Σ X ) {\displaystyle {p(\mathbf {\Sigma } \mid \mathbf {X} )}} W 1 ( A + Ψ , n + ν ) {\displaystyle {\mathcal {W}}^{-1}({\mathbf {A} }+{\mathbf {\Psi } },n+\nu )} A = X X T {\displaystyle {\mathbf {A} }=\mathbf {X} \mathbf {X} ^{T}}

Поскольку априорное и апостериорное распределения принадлежат к одному и тому же семейству, мы говорим, что обратное распределение Уишарта сопряжено с многомерным гауссовым.

Ввиду его сопряженности с многомерной гауссовой функцией, можно исключить (интегрировать) параметр гауссовой функции , используя формулу и тождество линейной алгебры : Σ {\displaystyle \mathbf {\Sigma } } p ( x ) = p ( x | Σ ) p ( Σ ) p ( Σ | x ) {\displaystyle p(x)={\frac {p(x|\Sigma )p(\Sigma )}{p(\Sigma |x)}}} v T Ω v = tr ( Ω v v T ) {\displaystyle v^{T}\Omega v={\text{tr}}(\Omega vv^{T})}

f X Ψ , ν ( x ) = f X Σ = σ ( x ) f Σ Ψ , ν ( σ ) d σ = | Ψ | ν / 2 Γ p ( ν + n 2 ) π n p / 2 | Ψ + A | ( ν + n ) / 2 Γ p ( ν 2 ) {\displaystyle f_{\mathbf {X} \,\mid \,\Psi ,\nu }(\mathbf {x} )=\int f_{\mathbf {X} \,\mid \,\mathbf {\Sigma } \,=\,\sigma }(\mathbf {x} )f_{\mathbf {\Sigma } \,\mid \,\mathbf {\Psi } ,\nu }(\sigma )\,d\sigma ={\frac {|\mathbf {\Psi } |^{\nu /2}\Gamma _{p}\left({\frac {\nu +n}{2}}\right)}{\pi ^{np/2}|\mathbf {\Psi } +\mathbf {A} |^{(\nu +n)/2}\Gamma _{p}({\frac {\nu }{2}})}}}

(это полезно, поскольку матрица дисперсии неизвестна на практике, но поскольку известна априори и может быть получена из данных, правая часть может быть оценена напрямую). Обратное распределение Уишарта как априорное может быть построено с использованием существующих переданных априорных знаний . [5] Σ {\displaystyle \mathbf {\Sigma } } Ψ {\displaystyle {\mathbf {\Psi } }} A {\displaystyle {\mathbf {A} }}

Моменты

Следующая информация основана на работе Press, SJ (1982) «Прикладной многомерный анализ», 2-е изд. (Dover Publications, Нью-Йорк), после перепараметризации степени свободы для соответствия определению PDF, приведенному выше.

Пусть с и , так что . W W ( Ψ 1 , ν ) {\displaystyle W\sim {\mathcal {W}}(\mathbf {\Psi } ^{-1},\nu )} ν p {\displaystyle \nu \geq p} X W 1 {\displaystyle X\doteq W^{-1}} X W 1 ( Ψ , ν ) {\displaystyle X\sim {\mathcal {W}}^{-1}(\mathbf {\Psi } ,\nu )}

Среднее значение: [4] : 85 

E ( X ) = Ψ ν p 1 . {\displaystyle \operatorname {E} (\mathbf {X} )={\frac {\mathbf {\Psi } }{\nu -p-1}}.}

Дисперсия каждого элемента : X {\displaystyle \mathbf {X} }

Var ( x i j ) = ( ν p + 1 ) ψ i j 2 + ( ν p 1 ) ψ i i ψ j j ( ν p ) ( ν p 1 ) 2 ( ν p 3 ) {\displaystyle \operatorname {Var} (x_{ij})={\frac {(\nu -p+1)\psi _{ij}^{2}+(\nu -p-1)\psi _{ii}\psi _{jj}}{(\nu -p)(\nu -p-1)^{2}(\nu -p-3)}}}

Дисперсия диагонали использует ту же формулу, что и выше , но упрощается до: i = j {\displaystyle i=j}

Var ( x i i ) = 2 ψ i i 2 ( ν p 1 ) 2 ( ν p 3 ) . {\displaystyle \operatorname {Var} (x_{ii})={\frac {2\psi _{ii}^{2}}{(\nu -p-1)^{2}(\nu -p-3)}}.}

Ковариация элементов определяется по формуле: X {\displaystyle \mathbf {X} }

Cov ( x i j , x k ) = 2 ψ i j ψ k + ( ν p 1 ) ( ψ i k ψ j + ψ i ψ k j ) ( ν p ) ( ν p 1 ) 2 ( ν p 3 ) {\displaystyle \operatorname {Cov} (x_{ij},x_{k\ell })={\frac {2\psi _{ij}\psi _{k\ell }+(\nu -p-1)(\psi _{ik}\psi _{j\ell }+\psi _{i\ell }\psi _{kj})}{(\nu -p)(\nu -p-1)^{2}(\nu -p-3)}}}

Те же результаты выражены в форме произведения Кронекера фон Розеном [6] следующим образом:

E ( W 1 W 1 ) = c 1 Ψ Ψ + c 2 V e c ( Ψ ) V e c ( Ψ ) T + c 2 K p p Ψ Ψ C o v ( W 1 , W 1 ) = ( c 1 c 3 ) Ψ Ψ + c 2 V e c ( Ψ ) V e c ( Ψ ) T + c 2 K p p Ψ Ψ {\displaystyle {\begin{aligned}\mathbf {E} \left(W^{-1}\otimes W^{-1}\right)&=c_{1}\Psi \otimes \Psi +c_{2}Vec(\Psi )Vec(\Psi )^{T}+c_{2}K_{pp}\Psi \otimes \Psi \\\mathbf {Cov} _{\otimes }\left(W^{-1},W^{-1}\right)&=(c_{1}-c_{3})\Psi \otimes \Psi +c_{2}Vec(\Psi )Vec(\Psi )^{T}+c_{2}K_{pp}\Psi \otimes \Psi \end{aligned}}}

где

c 2 = [ ( ν p ) ( ν p 1 ) ( ν p 3 ) ] 1 c 1 = ( ν p 2 ) c 2 c 3 = ( ν p 1 ) 2 , {\displaystyle {\begin{aligned}c_{2}&=\left[(\nu -p)(\nu -p-1)(\nu -p-3)\right]^{-1}\\c_{1}&=(\nu -p-2)c_{2}\\c_{3}&=(\nu -p-1)^{-2},\end{aligned}}}
K p p  is a  p 2 × p 2 {\displaystyle K_{pp}{\text{ is a }}p^{2}\times p^{2}} матрица коммутации
C o v ( W 1 , W 1 ) = E ( W 1 W 1 ) E ( W 1 ) E ( W 1 ) . {\displaystyle \mathbf {Cov} _{\otimes }\left(W^{-1},W^{-1}\right)=\mathbf {E} \left(W^{-1}\otimes W^{-1}\right)-\mathbf {E} \left(W^{-1}\right)\otimes \mathbf {E} \left(W^{-1}\right).}

По-видимому, в статье допущена опечатка, из-за которой коэффициент при указан как , а не как , и выражение для среднего квадратичного обратного Уишарта, следствие 3.1, следует читать так: K p p Ψ Ψ {\displaystyle K_{pp}\Psi \otimes \Psi } c 1 {\displaystyle c_{1}} c 2 {\displaystyle c_{2}}

E [ W 1 W 1 ] = ( c 1 + c 2 ) Σ 1 Σ 1 + c 2 Σ 1 t r ( Σ 1 ) . {\displaystyle \mathbf {E} \left[W^{-1}W^{-1}\right]=(c_{1}+c_{2})\Sigma ^{-1}\Sigma ^{-1}+c_{2}\Sigma ^{-1}\mathbf {tr} (\Sigma ^{-1}).}

Чтобы показать, как взаимодействующие члены становятся разреженными, когда ковариация диагональна, пусть и введем некоторые произвольные параметры : Ψ = I 3 × 3 {\displaystyle \Psi =\mathbf {I} _{3\times 3}} u , v , w {\displaystyle u,v,w}

E ( W 1 W 1 ) = u Ψ Ψ + v v e c ( Ψ ) v e c ( Ψ ) T + w K p p Ψ Ψ . {\displaystyle \mathbf {E} \left(W^{-1}\otimes W^{-1}\right)=u\Psi \otimes \Psi +v\,\mathrm {vec} (\Psi )\,\mathrm {vec} (\Psi )^{T}+wK_{pp}\Psi \otimes \Psi .}

где обозначает оператор векторизации матрицы . Тогда матрица второго момента становится v e c {\displaystyle \mathrm {vec} }

E ( W 1 W 1 ) = [ u + v + w v v u w u w w u v u + v + w v u w w u w u v v u + v + w ] {\displaystyle \mathbf {E} \left(W^{-1}\otimes W^{-1}\right)={\begin{bmatrix}u+v+w&\cdot &\cdot &\cdot &v&\cdot &\cdot &\cdot &v\\\cdot &u&\cdot &w&\cdot &\cdot &\cdot &\cdot &\cdot \\\cdot &\cdot &u&\cdot &\cdot &\cdot &w&\cdot &\cdot \\\cdot &w&\cdot &u&\cdot &\cdot &\cdot &\cdot &\cdot \\v&\cdot &\cdot &\cdot &u+v+w&\cdot &\cdot &\cdot &v\\\cdot &\cdot &\cdot &\cdot &\cdot &u&\cdot &w&\cdot \\\cdot &\cdot &w&\cdot &\cdot &\cdot &u&\cdot &\cdot \\\cdot &\cdot &\cdot &\cdot &\cdot &w&\cdot &u&\cdot \\v&\cdot &\cdot &\cdot &v&\cdot &\cdot &\cdot &u+v+w\\\end{bmatrix}}}

который не равен нулю только при включении корреляций диагональных элементов , все остальные элементы взаимно некоррелированы, хотя и не обязательно статистически независимы. Дисперсии продукта Уишарта также получены Куком и др. [7] в сингулярном случае и, в более широком смысле, в случае полного ранга. W 1 {\displaystyle W^{-1}}

Мьюирхед [8] показывает в теореме 3.2.8, что если распределено как и является произвольным вектором, независимым от тогда и , одна степень свободы отбрасывается оценкой выборочного среднего в последнем. Аналогично, Боднар и др. далее находят, что и установка предельного распределения ведущего диагонального элемента таким образом A p × p {\displaystyle A^{p\times p}} W p ( ν , Σ ) {\displaystyle {\mathcal {W}}_{p}(\nu ,\Sigma )} V {\displaystyle V} A {\displaystyle A} V T A V W 1 ( ν , A T Σ A ) {\displaystyle V^{T}AV\sim {\mathcal {W}}_{1}(\nu ,A^{T}\Sigma A)} V T A V V T Σ V χ ν 1 2 {\displaystyle {\frac {V^{T}AV}{V^{T}\Sigma V}}\sim \chi _{\nu -1}^{2}} V T A 1 V V T Σ 1 V Inv- χ ν p + 1 2 {\displaystyle {\frac {V^{T}A^{-1}V}{V^{T}\Sigma ^{-1}V}}\sim {\text{Inv-}}\chi _{\nu -p+1}^{2}} V = ( 1 , 0 , , 0 ) T {\displaystyle V=(1,\,0,\cdots ,0)^{T}}

[ A 1 ] 1 , 1 [ Σ 1 ] 1 , 1 2 k / 2 Γ ( k / 2 ) x k / 2 1 e 1 / ( 2 x ) , k = ν p + 1 {\displaystyle {\frac {[A^{-1}]_{1,1}}{[\Sigma ^{-1}]_{1,1}}}\sim {\frac {2^{-k/2}}{\Gamma (k/2)}}x^{-k/2-1}e^{-1/(2x)},\;\;k=\nu -p+1}

и при вращении вокруг своей оси аналогичный результат применяется ко всем диагональным элементам . V {\displaystyle V} [ A 1 ] i , i {\displaystyle [A^{-1}]_{i,i}}

Соответствующий результат в комплексном случае Уишарта был получен Бреннаном и Ридом [9] , а некоррелированный обратный комплексный случай Уишарта, как показал Шаман [10], имеет диагональную статистическую структуру, в которой ведущие диагональные элементы коррелированы, в то время как все остальные элементы некоррелированы. W C 1 ( I , ν , p ) {\displaystyle {\mathcal {W_{C}}}^{-1}(\mathbf {I} ,\nu ,p)}

p ( x α , β ) = β α x α 1 exp ( β / x ) Γ 1 ( α ) . {\displaystyle p(x\mid \alpha ,\beta )={\frac {\beta ^{\alpha }\,x^{-\alpha -1}\exp(-\beta /x)}{\Gamma _{1}(\alpha )}}.}
т.е. обратное гамма-распределение, где — обычная гамма-функция . Γ 1 ( ) {\displaystyle \Gamma _{1}(\cdot )}
  • Обратное распределение Уишарта является частным случаем обратного матричного гамма-распределения, когда параметр формы и параметр масштаба . α = ν 2 {\displaystyle \alpha ={\frac {\nu }{2}}} β = 2 {\displaystyle \beta =2}
  • Другое обобщение было названо обобщенным обратным распределением Уишарта, . Говорят, что положительно определенная матрица распределена так, как если распределена как . Здесь обозначает симметричную матрицу квадратный корень из , параметры являются положительно определенными матрицами, а параметр является положительным скаляром, большим , чем . Обратите внимание, что когда равно единичной матрице, . Это обобщенное обратное распределение Уишарта было применено для оценки распределений многомерных авторегрессионных процессов. [11] G W 1 {\displaystyle {\mathcal {GW}}^{-1}} p × p {\displaystyle p\times p} X {\displaystyle \mathbf {X} } G W 1 ( Ψ , ν , S ) {\displaystyle {\mathcal {GW}}^{-1}(\mathbf {\Psi } ,\nu ,\mathbf {S} )} Y = X 1 / 2 S 1 X 1 / 2 {\displaystyle \mathbf {Y} =\mathbf {X} ^{1/2}\mathbf {S} ^{-1}\mathbf {X} ^{1/2}} W 1 ( Ψ , ν ) {\displaystyle {\mathcal {W}}^{-1}(\mathbf {\Psi } ,\nu )} X 1 / 2 {\displaystyle \mathbf {X} ^{1/2}} X {\displaystyle \mathbf {X} } Ψ , S {\displaystyle \mathbf {\Psi } ,\mathbf {S} } p × p {\displaystyle p\times p} ν {\displaystyle \nu } 2 p {\displaystyle 2p} S {\displaystyle \mathbf {S} } G W 1 ( Ψ , ν , S ) = W 1 ( Ψ , ν ) {\displaystyle {\mathcal {GW}}^{-1}(\mathbf {\Psi } ,\nu ,\mathbf {S} )={\mathcal {W}}^{-1}(\mathbf {\Psi } ,\nu )}
  • Другой тип обобщения — нормально-обратное распределение Уишарта , по сути являющееся произведением многомерного нормального распределения на обратное распределение Уишарта.
  • Когда масштабная матрица является единичной матрицей, и является произвольной ортогональной матрицей, замена на не изменяет функцию плотности вероятности, поэтому в некотором смысле принадлежит к семейству сферически инвариантных случайных процессов (SIRP). [ необходимо разъяснение ] Ψ = I {\displaystyle {\mathcal {\Psi }}=\mathbf {I} } Φ {\displaystyle {\mathcal {\Phi }}} X {\displaystyle \mathbf {X} } Φ X Φ T {\displaystyle {\Phi }\mathbf {X} {\mathcal {\Phi }}^{T}} X {\displaystyle \mathbf {X} } W 1 ( I , ν , p ) {\displaystyle {\mathcal {W}}^{-1}(\mathbf {I} ,\nu ,p)}
Таким образом, произвольный p-вектор с длиной может быть повернут в вектор без изменения pdf , более того , может быть матрицей перестановки, которая меняет местами диагональные элементы. Из этого следует, что диагональные элементы тождественно распределены обратно хи-квадрат, с pdf в предыдущем разделе, хотя они не являются взаимно независимыми. Результат известен в статистике оптимального портфеля, как в Теореме 2 Следствие 1 Боднара и др., [12] , где он выражен в обратной форме . V {\displaystyle V} l 2 {\displaystyle l_{2}} V T V = 1 {\displaystyle V^{T}V=1} Φ V = [ 1 0 0 ] T {\displaystyle \mathbf {\Phi } V=[1\;0\;0\cdots ]^{T}} V T X V {\displaystyle V^{T}\mathbf {X} V} Φ {\displaystyle \mathbf {\Phi } } X {\displaystyle \mathbf {X} } f x 11 {\displaystyle f_{x_{11}}} V T Ψ V V T X V χ ν p + 1 2 {\displaystyle {\frac {V^{T}\mathbf {\Psi } V}{V^{T}\mathbf {X} V}}\sim \chi _{\nu -p+1}^{2}}
  • Как и в случае с распределением Уишарта, линейные преобразования распределения дают модифицированное обратное распределение Уишарта. Если и являются матрицами полного ранга, то [13] X p × p W p 1 ( Ψ , ν ) . {\displaystyle \mathbf {X^{p\times p}} \sim {\mathcal {W}}_{p}^{-1}\left({\mathbf {\Psi } },\nu \right).} Θ p × p {\displaystyle {\mathbf {\Theta } }^{p\times p}} Θ X Θ T W p 1 ( Θ Ψ Θ T , ν ) . {\displaystyle \mathbf {\Theta } \mathbf {X} {\mathbf {\Theta } }^{T}\sim {\mathcal {W}}_{p}^{-1}\left({\mathbf {\Theta } }{\mathbf {\Psi } }{\mathbf {\Theta } }^{T},\nu \right).}
  • Если и имеет полный ранг , то [13] X p × p W p 1 ( Ψ , ν ) . {\displaystyle \mathbf {X^{p\times p}} \sim {\mathcal {W}}_{p}^{-1}\left({\mathbf {\Psi } },\nu \right).} Θ m × p {\displaystyle {\mathbf {\Theta } }^{m\times p}} m × p , m < p {\displaystyle m\times p,\;\;m<p} m {\displaystyle m} Θ X Θ T W m 1 ( Θ Ψ Θ T , ν ) . {\displaystyle \mathbf {\Theta } \mathbf {X} {\mathbf {\Theta } }^{T}\sim {\mathcal {W}}_{m}^{-1}\left({\mathbf {\Theta } }{\mathbf {\Psi } }{\mathbf {\Theta } }^{T},\nu \right).}

Смотрите также

Ссылки

  1. ^ A. O'Hagan и JJ Forster (2004). Расширенная теория статистики Кендалла: байесовский вывод . Том 2B (2-е изд.). Арнольд. ISBN 978-0-340-80752-1.
  2. ^ Хафф, Л. Р. (1979). «Идентичность для распределения Уишарта с приложениями». Журнал многомерного анализа . 9 (4): 531– 544. doi :10.1016/0047-259x(79)90056-3.
  3. ^ Гельман, Эндрю; Карлин, Джон Б.; Стерн, Хэл С.; Дансон, Дэвид Б.; Вехтари, Аки; Рубин, Дональд Б. (2013-11-01). Байесовский анализ данных, третье издание (3-е изд.). Бока-Ратон: Chapman and Hall/CRC. ISBN 9781439840955.
  4. ^ ab Kanti V. Mardia , JT Kent и JM Bibby (1979). Многомерный анализ . Academic Press . ISBN 978-0-12-471250-8.
  5. ^ Шахрох Эсфахани, Мохаммад; Догерти, Эдвард (2014). «Включение знаний о биологических путях в построение априорных значений для оптимальной байесовской классификации». Труды IEEE по биоинформатике и вычислительной биологии . 11 (1): 202– 218. doi :10.1109/tcbb.2013.143. PMID  26355519. S2CID  10096507.
  6. ^ Розен, Дитрих фон (1988). «Моменты для обратного распределения Уишарта». Scand. J. Stat . 15 : 97–109 .
  7. ^ Кук, РД; Форзани, Лилиана ( август 2019 г.). Кук, Брайан (ред.). «О среднем и дисперсии обобщенной обратной матрицы сингулярного Уишарта». Электронный журнал статистики . 5. doi : 10.4324/9780429344633. ISBN 9780429344633. S2CID  146200569.
  8. ^ Мьюирхед, Робб (1982). Аспекты многомерной статистической теории . США: Wiley. стр. 93. ISBN 0-471-76985-1.
  9. ^ Бреннан, LE; Рид, IS (январь 1982). «Алгоритм обработки сигналов адаптивной решетки для связи». Труды IEEE по аэрокосмическим и электронным системам . 18 (1): 120– 130. Bibcode : 1982ITAES..18..124B. doi : 10.1109/TAES.1982.309212. S2CID  45721922.
  10. ^ Шаман, Пол (1980). "Обратное комплексное распределение Уишарта и его применение к спектральной оценке" (PDF) . Журнал многомерного анализа . 10 : 51–59 . doi :10.1016/0047-259X(80)90081-0.
  11. ^ Triantafyllopoulos, K. (2011). «Оценка ковариации в реальном времени для модели локального уровня». Журнал анализа временных рядов . 32 (2): 93–107 . arXiv : 1311.0634 . doi : 10.1111/j.1467-9892.2010.00686.x. S2CID  88512953.
  12. ^ Боднар, Т.; Мазур, С.; Подгурский, К. (январь 2015 г.). «Сингулярное обратное распределение Уишарта с применением к теории портфеля». Кафедра статистики, Лундский университет . (Рабочие документы по статистике, № 2): 1– 17.
  13. ^ ab Bodnar, T; Mazur, S; Podgorski, K (2015). «Сингулярное обратное распределение Уишарта с применением к теории портфеля». Журнал многомерного анализа . 143 : 314–326 . doi :10.1016/j.jmva.2015.09.021.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Inverse-Wishart_distribution&oldid=1268597208"