Распределение Хотеллинга T-квадрат

Тип распределения вероятностей
Т Хотеллинга2распределение
Функция плотности вероятности
Кумулятивная функция распределения
Параметрыp - размерность случайных величин
m - относительно размера выборки
Поддерживать х ( 0 , + ) {\displaystyle x\in (0,+\infty)\;} в противном случае. п = 1 {\displaystyle p=1}
х [ 0 , + ) {\displaystyle x\in [0,+\infty )\;}

В статистике , особенно при проверке гипотез , распределение Хотеллинга T -квадрат ( T2 ), предложенное Гарольдом Хотеллингом , [1] является многомерным распределением вероятностей , которое тесно связано с F -распределением и наиболее примечательно тем , что возникает как распределение набора выборочных статистик , которые являются естественными обобщениями статистик, лежащих в основе t -распределения Стьюдента . Статистика Хотеллинга T -квадрат ( t2 ) является обобщением t -статистики Стьюдента , которая используется при многомерной проверке гипотез . [2]

Мотивация

Распределение возникает в многомерной статистике при проведении тестов различий между (многомерными) средними значениями различных совокупностей, где тесты для одномерных проблем использовали бы t -тест . Распределение названо в честь Гарольда Хотеллинга , который разработал его как обобщение t -распределения Стьюдента . [1]

Определение

Если вектор имеет гауссовское многомерное распределение с нулевым средним значением и единичной ковариационной матрицей и является случайной матрицей с распределением Уишарта с единичной масштабной матрицей и m степенями свободы , а d и M независимы друг от друга, то квадратичная форма имеет распределение Хотеллинга (с параметрами и ): [3] г {\displaystyle д} Н ( 0 п , я п , п ) {\displaystyle N(\mathbf {0} _{p},\mathbf {I} _{p,p})} М {\displaystyle М} п × п {\displaystyle p\times p} Вт ( я п , п , м ) {\displaystyle W(\mathbf {I} _{п,п},м)} Х {\displaystyle X} п {\displaystyle p} м {\displaystyle м}

Х = м г Т М 1 г Т 2 ( п , м ) . {\displaystyle X=md^{T}M^{-1}d\sim T^{2}(p,m).}

Можно показать, что если случайная величина X имеет распределение Хотеллинга T -квадрат , то: [1] Х Т п , м 2 {\displaystyle X\sim T_{p,m}^{2}}

м п + 1 п м Х Ф п , м п + 1 {\displaystyle {\frac {m-p+1}{pm}}X\sim F_{p,m-p+1}}

где — F -распределение с параметрами p и m  −  p  + 1. Ф п , м п + 1 {\displaystyle F_{p,m-p+1}}

Хотеллингт-квадратичная статистика

Пусть будет выборочной ковариацией : Σ ^ {\displaystyle {\hat {\mathbf {\Sigma } }}}

Σ ^ = 1 н 1 я = 1 н ( х я х ¯ ) ( х я х ¯ ) {\displaystyle {\hat {\mathbf {\Sigma } }}={\frac {1}{n-1}}\sum _{i=1}^{n}(\mathbf {x} _{i}-{\overline {\mathbf {x} }})(\mathbf {x} _{i}-{\overline {\mathbf {x} }})'}

где мы обозначаем транспонирование апострофом . Можно показать, что является положительно (полу)определенной матрицей и следует p -мерному распределению Уишарта с n  − 1 степенями свободы. [4] Матрица ковариации выборки среднего имеет вид . [5] Σ ^ {\displaystyle {\hat {\mathbf {\Sigma } }}} ( н 1 ) Σ ^ {\displaystyle (n-1){\hat {\mathbf {\Sigma } }}} Σ ^ х ¯ = Σ ^ / н {\displaystyle {\hat {\mathbf {\Sigma } }}_{\overline {\mathbf {x} }}={\hat {\mathbf {\Sigma } }}/n}

Статистика Хотеллинга t-квадрат тогда определяется как: [ 6]

т 2 = ( х ¯ μ ) Σ ^ х ¯ 1 ( х ¯ μ ) = н ( х ¯ μ ) Σ ^ 1 ( х ¯ μ ) , {\displaystyle t^{2}=({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\hat {\mathbf {\Sigma } }}_{\overline {\mathbf {x} }}^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})=n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\hat {\mathbf {\Sigma } }}^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }}),}

что пропорционально расстоянию Махаланобиса между средним значением выборки и . В связи с этим следует ожидать, что статистика будет принимать низкие значения, если , и высокие значения, если они различны. μ {\displaystyle {\boldsymbol {\mu }}} х ¯ μ {\displaystyle {\overline {\mathbf {x} }}\approx {\boldsymbol {\mu }}}

Из распределения,

т 2 Т п , н 1 2 = п ( н 1 ) н п Ф п , н п , {\displaystyle t^{2}\sim T_{p,n-1}^{2}={\frac {p(n-1)}{np}}F_{p,np},}

где — F -распределение с параметрами p и n  −  p . Ф п , н п {\displaystyle F_{p,np}}

Чтобы вычислить p -значение (не связанное здесь с переменной p ), обратите внимание, что распределение эквивалентно подразумевает, что т 2 {\displaystyle т^{2}}

н п п ( н 1 ) т 2 Ф п , н п . {\displaystyle {\frac {np}{p(n-1)}}t^{2}\sim F_{p,np}.}

Затем используйте величину слева, чтобы оценить p -значение, соответствующее выборке, которое получается из F -распределения. Доверительную область также можно определить с использованием аналогичной логики.

Мотивация

Пусть обозначает p -мерное нормальное распределение с местоположением и известной ковариацией . Пусть Н п ( μ , Σ ) {\displaystyle {\mathcal {N}}_{p}({\boldsymbol {\mu }}, {\mathbf {\Sigma } })} μ {\displaystyle {\boldsymbol {\mu }}} Σ {\displaystyle {\mathbf {\Сигма } }}

х 1 , , х н Н п ( μ , Σ ) {\displaystyle {\mathbf {x} }_{1},\dots ,{\mathbf {x} }_{n}\sim {\mathcal {N}}_{p}({\boldsymbol {\mu } }, {\ mathbf {\ Sigma } })}

быть n независимыми одинаково распределенными (iid) случайными величинами , которые могут быть представлены как векторы-столбцы действительных чисел. Определить п × 1 {\displaystyle p\times 1}

х ¯ = х 1 + + х н н {\displaystyle {\overline {\mathbf {x} }}={\frac {\mathbf {x} _{1}+\cdots +\mathbf {x} _{n}}{n}}}

быть выборочным средним с ковариацией . Можно показать, что Σ x ¯ = Σ / n {\displaystyle {\mathbf {\Sigma } }_{\overline {\mathbf {x} }}={\mathbf {\Sigma } }/n}

( x ¯ μ ) Σ x ¯ 1 ( x ¯ μ ) χ p 2 , {\displaystyle ({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {\Sigma } }_{\overline {\mathbf {x} }}^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})\sim \chi _{p}^{2},}

где — распределение хи-квадрат с p степенями свободы. [7] χ p 2 {\displaystyle \chi _{p}^{2}}

Доказательство
Доказательство

Каждая положительно-полуопределенная симметричная матрица имеет положительно-полуопределенный симметричный квадратный корень , а если она невырожденная, то ее обратная матрица имеет положительно-определенный квадратный корень . M {\textstyle {\boldsymbol {M}}} M 1 / 2 {\textstyle {\boldsymbol {M}}^{1/2}} M 1 / 2 {\textstyle {\boldsymbol {M}}^{-1/2}}

Так как , то имеем Следовательно и это просто сумма квадратов независимых стандартных нормальных случайных величин. Таким образом, ее распределение var ( x ¯ ) = Σ x ¯ {\textstyle \operatorname {var} \left({\overline {\boldsymbol {x}}}\right)=\mathbf {\Sigma } _{\overline {\mathbf {x} }}} var ( Σ x ¯ 1 / 2 x ¯ ) = Σ x ¯ 1 / 2 ( var ( x ¯ ) ) ( Σ x ¯ 1 / 2 ) T = Σ x ¯ 1 / 2 ( var ( x ¯ ) ) Σ x ¯ 1 / 2  because  Σ x ¯  is symmetric = ( Σ x ¯ 1 / 2 Σ x ¯ 1 / 2 ) ( Σ x ¯ 1 / 2 Σ x ¯ 1 / 2 ) = I p . {\displaystyle {\begin{aligned}\operatorname {var} \left(\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}{\overline {\boldsymbol {x}}}\right)&=\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}{\Big (}\operatorname {var} \left({\overline {\boldsymbol {x}}}\right){\Big )}\left(\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}\right)^{T}\\[5pt]&=\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}{\Big (}\operatorname {var} \left({\overline {\boldsymbol {x}}}\right){\Big )}\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}{\text{ because }}\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}{\text{ is symmetric}}\\[5pt]&=\left(\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{1/2}\right)\left(\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{1/2}\mathbf {\Sigma } _{\overline {\boldsymbol {x}}}^{-1/2}\right)\\[5pt]&=\mathbf {I} _{p}.\end{aligned}}} ( x ¯ μ ) T Σ x ¯ 1 ( x ¯ μ ) = ( Σ x ¯ 1 / 2 ( x ¯ μ ) ) T ( Σ x ¯ 1 / 2 ( x ¯ μ ) ) {\displaystyle ({\overline {\boldsymbol {x}}}-{\boldsymbol {\mu }})^{T}\mathbf {\Sigma } _{\overline {x}}^{-1}({\overline {\boldsymbol {x}}}-{\boldsymbol {\mu }})=\left(\mathbf {\Sigma } _{\overline {x}}^{-1/2}({\overline {\boldsymbol {x}}}-{\boldsymbol {\mu }})\right)^{T}\left(\mathbf {\Sigma } _{\overline {x}}^{-1/2}({\overline {\boldsymbol {x}}}-{\boldsymbol {\mu }})\right)} p {\textstyle p} χ p 2 . {\textstyle \chi _{p}^{2}.}

В качестве альтернативы можно использовать функции плотности и характеристические функции следующим образом.

Доказательство

Чтобы показать это, воспользуемся тем фактом, что и выведем характеристическую функцию случайной величины . Как обычно, обозначим определитель аргумента, как в . x ¯ N p ( μ , Σ / n ) {\displaystyle {\overline {\mathbf {x} }}\sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},{\mathbf {\Sigma } }/n)} y = ( x ¯ μ ) Σ x ¯ 1 ( x ¯ μ ) = ( x ¯ μ ) ( Σ / n ) 1 ( x ¯ μ ) {\displaystyle \mathbf {y} =({\bar {\mathbf {x} }}-{\boldsymbol {\mu }})'{\mathbf {\Sigma } }_{\bar {\mathbf {x} }}^{-1}({\bar {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})=({\bar {\mathbf {x} }}-{\boldsymbol {\mu }})'({\mathbf {\Sigma } }/n)^{-1}({\bar {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})} | | {\displaystyle |\cdot |} | Σ | {\displaystyle |{\boldsymbol {\Sigma }}|}

По определению характеристической функции имеем: [8]

φ y ( θ ) = E e i θ y , = E e i θ ( x ¯ μ ) ( Σ / n ) 1 ( x ¯ μ ) = e i θ ( x ¯ μ ) n Σ 1 ( x ¯ μ ) ( 2 π ) p / 2 | Σ / n | 1 / 2 e ( 1 / 2 ) ( x ¯ μ ) n Σ 1 ( x ¯ μ ) d x 1 d x p {\displaystyle {\begin{aligned}\varphi _{\mathbf {y} }(\theta )&=\operatorname {E} e^{i\theta \mathbf {y} },\\[5pt]&=\operatorname {E} e^{i\theta ({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'({\mathbf {\Sigma } }/n)^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})}\\[5pt]&=\int e^{i\theta ({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'n{\mathbf {\Sigma } }^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mathbf {\mu } }})}(2\pi )^{-p/2}|{\boldsymbol {\Sigma }}/n|^{-1/2}\,e^{-(1/2)({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'n{\boldsymbol {\Sigma }}^{-1}({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})}\,dx_{1}\cdots dx_{p}\end{aligned}}}

Внутри интеграла есть две экспоненты, поэтому, умножая экспоненты, мы складываем показатели степеней, получая:

= ( 2 π ) p / 2 | Σ / n | 1 / 2 e ( 1 / 2 ) ( x ¯ μ ) n ( Σ 1 2 i θ Σ 1 ) ( x ¯ μ ) d x 1 d x p {\displaystyle {\begin{aligned}&=\int (2\pi )^{-p/2}|{\boldsymbol {\Sigma }}/n|^{-1/2}\,e^{-(1/2)({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'n({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})}\,dx_{1}\cdots dx_{p}\end{aligned}}}

Теперь выньте член из интеграла и умножьте все на тождество , подставив одно из них под интеграл: | Σ / n | 1 / 2 {\displaystyle |{\boldsymbol {\Sigma }}/n|^{-1/2}} I = | ( Σ 1 2 i θ Σ 1 ) 1 / n | 1 / 2 | ( Σ 1 2 i θ Σ 1 ) 1 / n | 1 / 2 {\displaystyle I=|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n|^{1/2}\;\cdot \;|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n|^{-1/2}}

= | ( Σ 1 2 i θ Σ 1 ) 1 / n | 1 / 2 | Σ / n | 1 / 2 ( 2 π ) p / 2 | ( Σ 1 2 i θ Σ 1 ) 1 / n | 1 / 2 e ( 1 / 2 ) n ( x ¯ μ ) ( Σ 1 2 i θ Σ 1 ) ( x ¯ μ ) d x 1 d x p {\displaystyle {\begin{aligned}&=|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n|^{1/2}|{\boldsymbol {\Sigma }}/n|^{-1/2}\int (2\pi )^{-p/2}|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n|^{-1/2}\,e^{-(1/2)n({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})'({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})({\overline {\mathbf {x} }}-{\boldsymbol {\mu }})}\,dx_{1}\cdots dx_{p}\end{aligned}}}

Но член внутри интеграла — это как раз функция плотности вероятности многомерного нормального распределения с ковариационной матрицей и средним значением , поэтому при интегрировании по всем она должна давать согласно аксиомам вероятности . [ необходимо разъяснение ] Таким образом, мы получаем: ( Σ 1 2 i θ Σ 1 ) 1 / n = [ n ( Σ 1 2 i θ Σ 1 ) ] 1 {\displaystyle ({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}/n=\left[n({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})\right]^{-1}} μ {\displaystyle \mu } x 1 , , x p {\displaystyle x_{1},\dots ,x_{p}} 1 {\displaystyle 1}

= | ( Σ 1 2 i θ Σ 1 ) 1 1 n | 1 / 2 | Σ / n | 1 / 2 = | ( Σ 1 2 i θ Σ 1 ) 1 1 n n Σ 1 | 1 / 2 = | [ ( Σ 1 2 i θ Σ 1 ) Σ ] 1 | 1 / 2 = | I p 2 i θ I p | 1 / 2 {\displaystyle {\begin{aligned}&=\left|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}\cdot {\frac {1}{n}}\right|^{1/2}|{\boldsymbol {\Sigma }}/n|^{-1/2}\\&=\left|({\boldsymbol {\Sigma }}^{-1}-2i\theta {\boldsymbol {\Sigma }}^{-1})^{-1}\cdot {\frac {1}{\cancel {n}}}\cdot {\cancel {n}}\cdot {\boldsymbol {\Sigma }}^{-1}\right|^{1/2}\\&=\left|\left[({\cancel {{\boldsymbol {\Sigma }}^{-1}}}-2i\theta {\cancel {{\boldsymbol {\Sigma }}^{-1}}}){\cancel {\boldsymbol {\Sigma }}}\right]^{-1}\right|^{1/2}\\&=|\mathbf {I} _{p}-2i\theta \mathbf {I} _{p}|^{-1/2}\end{aligned}}}

где — единичная матрица размерности . Наконец, вычисляя определитель, получаем: I p {\displaystyle I_{p}} p {\displaystyle p}

= ( 1 2 i θ ) p / 2 {\displaystyle {\begin{aligned}&=(1-2i\theta )^{-p/2}\end{aligned}}}

что является характеристической функцией для распределения хи-квадрат со степенями свободы. p {\displaystyle p} {\displaystyle \;\;\;\blacksquare }

Двухвыборочная статистика

Если и , с выборками, независимо взятыми из двух независимых многомерных нормальных распределений с одинаковым средним значением и ковариацией, и мы определяем x 1 , , x n x N p ( μ , Σ ) {\displaystyle {\mathbf {x} }_{1},\dots ,{\mathbf {x} }_{n_{x}}\sim N_{p}({\boldsymbol {\mu }},{\mathbf {\Sigma } })} y 1 , , y n y N p ( μ , Σ ) {\displaystyle {\mathbf {y} }_{1},\dots ,{\mathbf {y} }_{n_{y}}\sim N_{p}({\boldsymbol {\mu }},{\mathbf {\Sigma } })}

x ¯ = 1 n x i = 1 n x x i y ¯ = 1 n y i = 1 n y y i {\displaystyle {\overline {\mathbf {x} }}={\frac {1}{n_{x}}}\sum _{i=1}^{n_{x}}\mathbf {x} _{i}\qquad {\overline {\mathbf {y} }}={\frac {1}{n_{y}}}\sum _{i=1}^{n_{y}}\mathbf {y} _{i}}

как образец означает, и

Σ ^ x = 1 n x 1 i = 1 n x ( x i x ¯ ) ( x i x ¯ ) {\displaystyle {\hat {\mathbf {\Sigma } }}_{\mathbf {x} }={\frac {1}{n_{x}-1}}\sum _{i=1}^{n_{x}}(\mathbf {x} _{i}-{\overline {\mathbf {x} }})(\mathbf {x} _{i}-{\overline {\mathbf {x} }})'}
Σ ^ y = 1 n y 1 i = 1 n y ( y i y ¯ ) ( y i y ¯ ) {\displaystyle {\hat {\mathbf {\Sigma } }}_{\mathbf {y} }={\frac {1}{n_{y}-1}}\sum _{i=1}^{n_{y}}(\mathbf {y} _{i}-{\overline {\mathbf {y} }})(\mathbf {y} _{i}-{\overline {\mathbf {y} }})'}

как соответствующие выборочные ковариационные матрицы. Тогда

Σ ^ = ( n x 1 ) Σ ^ x + ( n y 1 ) Σ ^ y n x + n y 2 {\displaystyle {\hat {\mathbf {\Sigma } }}={\frac {(n_{x}-1){\hat {\mathbf {\Sigma } }}_{\mathbf {x} }+(n_{y}-1){\hat {\mathbf {\Sigma } }}_{\mathbf {y} }}{n_{x}+n_{y}-2}}}

представляет собой несмещенную оценку объединенной ковариационной матрицы (расширение объединенной дисперсии ).

Наконец, двухвыборочная t- квадратная статистика Хотеллинга имеет вид

t 2 = n x n y n x + n y ( x ¯ y ¯ ) Σ ^ 1 ( x ¯ y ¯ ) T 2 ( p , n x + n y 2 ) {\displaystyle t^{2}={\frac {n_{x}n_{y}}{n_{x}+n_{y}}}({\overline {\mathbf {x} }}-{\overline {\mathbf {y} }})'{\hat {\mathbf {\Sigma } }}^{-1}({\overline {\mathbf {x} }}-{\overline {\mathbf {y} }})\sim T^{2}(p,n_{x}+n_{y}-2)}

Его можно связать с F-распределением по формуле [4]

n x + n y p 1 ( n x + n y 2 ) p t 2 F ( p , n x + n y 1 p ) . {\displaystyle {\frac {n_{x}+n_{y}-p-1}{(n_{x}+n_{y}-2)p}}t^{2}\sim F(p,n_{x}+n_{y}-1-p).}

Ненулевое распределение этой статистики — нецентральное F-распределение (отношение нецентральной случайной величины хи-квадрат и независимой центральной случайной величины хи-квадрат ).

n x + n y p 1 ( n x + n y 2 ) p t 2 F ( p , n x + n y 1 p ; δ ) , {\displaystyle {\frac {n_{x}+n_{y}-p-1}{(n_{x}+n_{y}-2)p}}t^{2}\sim F(p,n_{x}+n_{y}-1-p;\delta ),}

с

δ = n x n y n x + n y d Σ 1 d , {\displaystyle \delta ={\frac {n_{x}n_{y}}{n_{x}+n_{y}}}{\boldsymbol {d}}'\mathbf {\Sigma } ^{-1}{\boldsymbol {d}},}

где — вектор разности между средними значениями совокупности. d = x ¯ y ¯ {\displaystyle {\boldsymbol {d}}=\mathbf {{\overline {x}}-{\overline {y}}} }

В случае двух переменных формула значительно упрощается, позволяя оценить, как корреляция между переменными влияет на . Если мы определим ρ {\displaystyle \rho } t 2 {\displaystyle t^{2}}

d 1 = x ¯ 1 y ¯ 1 , d 2 = x ¯ 2 y ¯ 2 {\displaystyle d_{1}={\overline {x}}_{1}-{\overline {y}}_{1},\qquad d_{2}={\overline {x}}_{2}-{\overline {y}}_{2}}

и

s 1 = Σ 11 s 2 = Σ 22 ρ = Σ 12 / ( s 1 s 2 ) = Σ 21 / ( s 1 s 2 ) {\displaystyle s_{1}={\sqrt {\Sigma _{11}}}\qquad s_{2}={\sqrt {\Sigma _{22}}}\qquad \rho =\Sigma _{12}/(s_{1}s_{2})=\Sigma _{21}/(s_{1}s_{2})}

затем

t 2 = n x n y ( n x + n y ) ( 1 ρ 2 ) [ ( d 1 s 1 ) 2 + ( d 2 s 2 ) 2 2 ρ ( d 1 s 1 ) ( d 2 s 2 ) ] {\displaystyle t^{2}={\frac {n_{x}n_{y}}{(n_{x}+n_{y})(1-\rho ^{2})}}\left[\left({\frac {d_{1}}{s_{1}}}\right)^{2}+\left({\frac {d_{2}}{s_{2}}}\right)^{2}-2\rho \left({\frac {d_{1}}{s_{1}}}\right)\left({\frac {d_{2}}{s_{2}}}\right)\right]}

Таким образом, если разности в двух строках вектора имеют одинаковый знак, в общем случае становится меньше, так как становится более положительным. Если разности имеют противоположный знак, становится больше, так как становится более положительным. d = x ¯ y ¯ {\displaystyle \mathbf {d} ={\overline {\mathbf {x} }}-{\overline {\mathbf {y} }}} t 2 {\displaystyle t^{2}} ρ {\displaystyle \rho } t 2 {\displaystyle t^{2}} ρ {\displaystyle \rho }

Одномерный частный случай можно найти в t-критерии Уэлча .

В литературе были предложены более надежные и мощные тесты, чем двухвыборочный тест Хотеллинга, например, тесты, основанные на межточечном расстоянии, которые можно применять также, когда количество переменных сопоставимо с количеством субъектов или даже превышает его. [9] [10]

Смотрите также

Ссылки

  1. ^ abc Хотеллинг, Х. (1931). «Обобщение отношения Стьюдента». Annals of Mathematical Statistics . 2 (3): 360–378 . doi : 10.1214/aoms/1177732979 .
  2. ^ Джонсон, РА; Вихерн, Д.В. (2002). Прикладной многомерный статистический анализ . Том 5. Prentice hall.
  3. ^ Эрик В. Вайсштейн, MathWorld
  4. ^ ab Mardia, KV; Kent, JT; Bibby, JM (1979). Многомерный анализ . Academic Press. ISBN 978-0-12-471250-8.
  5. ^ Фогельмарк, Карл; Ломхольт, Михаэль; Ирбек, Андерс; Амбьёрнссон, Тобиас (3 мая 2018 г.). «Подгонка функции к зависящим от времени усредненным ансамблевым данным». Scientific Reports . 8 (1): 6984. doi :10.1038/s41598-018-24983-y. PMC 5934400 . Получено 19 августа 2024 г. . 
  6. ^ "6.5.4.3. T-квадрат Хотеллинга".
  7. Конец главы 4.2 Джонсона, Р.А. и Вихерна, Д.В. (2002)
  8. ^ Биллингсли, П. (1995). "26. Характеристические функции". Вероятность и мера (3-е изд.). Wiley. ISBN 978-0-471-00710-4.
  9. ^ Мароцци, М. (2016). «Многомерные тесты, основанные на межточечных расстояниях с применением к магнитно-резонансной томографии». Статистические методы в медицинских исследованиях . 25 (6): 2593– 2610. doi :10.1177/0962280214529104. PMID  24740998.
  10. ^ Мароцци, М. (2015). «Многомерные многомерные тесты для многомерных исследований случай-контроль с малым размером выборки». Статистика в медицине . 34 (9): 1511– 1526. doi :10.1002/sim.6418. PMID  25630579.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Hotelling%27s_T-squared_distribution&oldid=1246425710"