Распределение Стьюдента

Распределение вероятностей
Студенческийт
Функция плотности вероятности
Кумулятивная функция распределения
Параметры   ν > 0   {\displaystyle \ \nu >0\ } степени свободы ( действительные , почти всегда положительные целые числа )
Поддерживать   х ( , ) {\displaystyle \ x\in (-\infty ,\infty )}
PDF   Г (   ν + 1   2 ) π   ν     Г ( ν   2   )   (   1 +   х 2   ν   )   ν + 1   2   {\displaystyle \textstyle \ {\frac {\Gamma \left({\frac {\ \nu +1\ }{2}}\right)}{{\sqrt {\pi \ \nu \ }}\ \Gamma \left({\frac {\nu }{\ 2\ }}\right)}}\ \left(\ 1+{\frac {~x^{2}\ }{\nu }}\ \right)^{-{\frac {\ \nu +1\ }{2}}}\ }
СДФ

    1   2 + х   Г (   ν + 1   2 ) ×   2 Ф 1 (     1   2 ,     ν + 1   2 ;   3   2   ;     х 2   ν   )     π ν   Г (   ν   2 )     , {\displaystyle {\begin{matrix}\ {\frac {\ 1\ }{2}}+x\ \Gamma \left({\frac {\ \nu +1\ }{2}}\right)\times \\[0.5em]{\frac {\ {{}_{2}F_{1}}\!\left(\ {\frac {\ 1\ }{2}},\ {\frac {\ \nu +1\ }{2}};\ {\frac {3}{\ 2\ }};\ -{\frac {~x^{2}\ }{\nu }}\ \right)\ }{\ {\sqrt {\pi \nu }}\ \Gamma \left({\frac {\ \nu \ }{2}}\right)\ }}\ ,\end{matrix}}}

где гипергеометрическая функция   2 Ф 1 (   ,   ;   ;   )   {\displaystyle \ {}_{2}F_{1} \!(\ ,\ ;\ ;\ )\ }
Иметь в виду   0   {\displaystyle \ 0\ } для иного неопределенного   ν > 1   , {\displaystyle \ \nu >1\ ,}
Медиана   0   {\displaystyle \ 0\ }
Режим   0   {\displaystyle \ 0\ }
Дисперсия   ν   ν 2     {\displaystyle \textstyle \ {\frac {\nu }{\ \nu -2\ }}\ } для для других неопределенных   ν > 2   , {\displaystyle \ \nu >2\ ,}   1 < ν 2   , {\displaystyle \ 1 <\nu \leq 2\,}
Асимметрия   0   {\displaystyle \ 0\ } для иного неопределенного   ν > 3   , {\displaystyle \ \nu >3\ ,}
Избыточный эксцесс   6   ν 4   {\displaystyle \textstyle \ {\frac {6}{\ \nu -4\ }}} для ∞ для других неопределенных   ν > 4   , {\displaystyle \ \nu >4\ ,}   2 < ν 4   , {\displaystyle \ 2 <\nu \leq 4\,}
Энтропия

    ν + 1   2 [   ψ (   ν + 1   2 ) ψ (   ν   2 )   ] + вн [ ν     Б (     ν   2 ,     1   2   ) ]   (натс)   {\displaystyle \ {\begin{matrix}{\frac {\ \nu +1\ }{2}}\left[\ \psi \left({\frac {\ \nu +1\ }{2}}\right)-\psi \left({\frac {\ \nu \ }{2}}\right)\ \right]\\[0.5em]+\ln \left[{\sqrt {\nu \ }}\ {\mathrm {B} }\left(\ {\frac {\ \nu \ }{2}},\ {\frac {\ 1\ }{2}}\ \right)\right]\ {\scriptstyle {\text{(nats)}}}\ \end{matrix}}}
где

ψ ( )   {\displaystyle \psi ()\ } - это дигамма-функция ,
  Б (   ,   )   {\ displaystyle \ {\ mathrm {B} } (\ , \ ) \ } это бета-функция .
МГФнеопределенный
CF

  (   ν     | т |   ) ν / 2   К ν / 2 (   ν     | т |   )     Г ( ν / 2 )   2 ν / 2 1     {\displaystyle \textstyle {\frac {\ \left(\ {\sqrt {\nu \ }}\ |t|\ \right)^{\nu /2}\ K_ {\nu /2}\left(\ {\sqrt {\nu \ }}\ |t|\ \right)\ }{\ \Gamma (\nu /2)\ 2^{\nu /2-1}\ }}\ } для   ν > 0   {\displaystyle \ \nu >0\ }

Ожидаемый дефицит

  μ + с   (     ν + Т 1 ( 1 п ) 2   ×   τ ( Т 1 ( 1 п ) 2 )     ( ν 1 ) ( 1 п )     )   {\displaystyle \ \mu +s\ \left(\ {\frac {\ \nu +T^{-1}(1-p)^{2}\ \times \ \tau \left(T^{-1}(1-p)^{2}\right)\ }{\ (\nu -1)(1-p)\ }}\ \right)\ }

Где — обратная стандартизированная функция распределения плотности  распределения Стьюдента t , а — стандартизированная функция распределения плотности распределения Стьюдента t . [2]   Т 1 (   )   {\ displaystyle \ T ^ {- 1} (\ ) \ }   τ (   )   {\displaystyle \ \тау (\ )\ }

В теории вероятностей и статистике распределение Стьюдента (или просто  распределение Стьюдента )  — это непрерывное распределение вероятностей , обобщающее стандартное нормальное распределение . Как и последнее, оно симметрично относительно нуля и имеет форму колокола.   т ν   {\displaystyle \ t_{\nu }\ }

Однако имеет более тяжелые хвосты , а величина вероятностной массы в хвостах контролируется параметром Для t- распределение Стьюдента становится стандартным распределением Коши , имеющим очень «толстые» хвосты ; тогда как для оно становится стандартным нормальным распределением, имеющим очень «тонкие» хвосты.   т ν   {\displaystyle \ t_{\nu }\ }   ν     . {\displaystyle \ \nu ~~.}   ν = 1   {\displaystyle \ \nu =1\ } т ν {\displaystyle t_{\nu }}   ν   {\displaystyle \ \nu \rightarrow \infty \ }   Н ( 0 , 1 ) {\displaystyle \ {\mathcal {N}}(0,1)\,}

Распределение Стьюдента  играет роль в ряде широко используемых статистических анализов, включая t-  критерий Стьюдента для оценки статистической значимости разницы между двумя выборочными средними значениями, построения доверительных интервалов для разницы между двумя средними значениями совокупности и линейного регрессионного анализа .

В форме t -  распределения по шкале местоположения оно обобщает нормальное распределение , а также возникает в байесовском анализе данных из нормальной семьи как сложное распределение при маргинализации по параметру дисперсии. л с т ( μ , τ 2 , ν ) {\displaystyle lst(\mu,\tau ^{2},\nu)}

История и этимология

Статистик Уильям Сили Госсет , известный как «Студент»

В статистике распределение t  было впервые получено как апостериорное распределение в 1876 году Гельмертом [3] [4] [5] и Люротом . [6] [7] [8] Таким образом, распределение t Стьюдента является примером закона эпонимии Стиглера . Распределение t  также появилось в более общей форме как распределение Пирсона типа IV в статье Карла Пирсона 1895 года. [9]

В англоязычной литературе название дистрибуции взято из статьи Уильяма Сили Госсета 1908 года в Biometrika под псевдонимом «Студент». [10] Одна из версий происхождения псевдонима заключается в том, что работодатель Госсета предпочитал, чтобы сотрудники использовали псевдонимы при публикации научных работ вместо их настоящих имен, поэтому он использовал имя «Студент», чтобы скрыть свою личность. Другая версия заключается в том, что Guinness не хотел, чтобы их конкуренты знали, что они используют t-  тест для определения качества сырья. [11] [12]

Госсет работал на пивоварне Guinness Brewery в Дублине, Ирландия , и интересовался проблемами малых выборок – например, химическими свойствами ячменя, где размеры выборки могли быть всего 3. В статье Госсета распределение называется «частотным распределением стандартных отклонений выборок, взятых из нормальной популяции». Оно стало широко известно благодаря работе Рональда Фишера , который назвал распределение «распределением Стьюдента» и обозначил тестовое значение буквой t . [13] [14]

Определение

Функция плотности вероятности

 Распределение Стьюдента имеет функцию плотности вероятности (PDF), заданную как

ф ( т )   =     Г (   ν + 1   2 )     π   ν   Г ( ν 2 ) (   1 +   т 2   ν   ) ( ν + 1 ) / 2   , {\displaystyle f(t)\ =\ {\frac {\ \Gamma \!\left({\frac {\ \nu +1\ }{2}}\right)\ }{\ {\sqrt {\pi \ \nu \ }}\;\Gamma \!\left({\frac {\nu }{2}}\right)}}\;\left(\ 1+{\frac {~t^{2}\ }{\nu }}\ \right)^{-(\nu +1)/2}\ ,}

где - число степеней свободы , а - гамма-функция . Это также можно записать как   ν   {\displaystyle \ \nu \ }   Γ   {\displaystyle \ \Gamma \ }

f ( t )   =   1   ν     B (   1   2 ,     ν   2 )   (   1 +   t 2   ν   ) ( ν + 1 ) / 2   , {\displaystyle f(t)\ =\ {\frac {1}{\ {\sqrt {\nu \ }}\ {\mathrm {B} }\!\left({\frac {\ 1\ }{2}},\ {\frac {\ \nu \ }{2}}\right)\ }}\;\left(\ 1+{\frac {\ t^{2}\ }{\nu }}\ \right)^{-(\nu +1)/2}\ ,}

где бета- функция . В частности, для целочисленных степеней свободы имеем:   B   {\displaystyle \ {\mathrm {B} }\ }   ν   {\displaystyle \ \nu \ }

Для и даже,   ν > 1   {\displaystyle \ \nu >1\ }

    Γ (   ν + 1   2 )     π   ν   Γ (   ν   2 )     =   1   2 ν           ( ν 1 ) ( ν 3 ) 5 3     ( ν 2 ) ( ν 4 ) 4 2     . {\displaystyle \ {\frac {\ \Gamma \!\left({\frac {\ \nu +1\ }{2}}\right)\ }{\ {\sqrt {\pi \ \nu \ }}\;\Gamma \!\left({\frac {\ \nu \ }{2}}\right)\ }}\ =\ {\frac {1}{\ 2{\sqrt {\nu \ }}\ }}\ \cdot \ {\frac {\ (\nu -1)\cdot (\nu -3)\cdots 5\cdot 3\ }{\ (\nu -2)\cdot (\nu -4)\cdots 4\cdot 2\ }}~.}

Для и нечетных,   ν > 1   {\displaystyle \ \nu >1\ }

    Γ (   ν + 1   2 )     π   ν     Γ (   ν   2 )   =   1   π ν         ( ν 1 ) ( ν 3 ) 4 2     ( ν 2 ) ( ν 4 ) 5 3     . {\displaystyle \ {\frac {\ \Gamma \!\left({\frac {\ \nu +1\ }{2}}\right)\ }{\ {\sqrt {\pi \ \nu \ }}\ \Gamma \!\left({\frac {\ \nu \ }{2}}\right)}}\ =\ {\frac {1}{\ \pi {\sqrt {\nu \ }}\ }}\ \cdot \ {\frac {(\nu -1)\cdot (\nu -3)\cdots 4\cdot 2\ }{\ (\nu -2)\cdot (\nu -4)\cdots 5\cdot 3\ }}~.}

Функция плотности вероятности симметрична , и ее общая форма напоминает форму колокола нормально распределенной переменной со средним значением 0 и дисперсией 1, за исключением того, что она немного ниже и шире. По мере увеличения числа степеней свободы распределение t  приближается к нормальному распределению со средним значением 0 и дисперсией 1. По этой причине также известно как параметр нормальности. [15]   ν   {\displaystyle {\ \nu \ }}

На следующих изображениях показана плотность распределения t  для возрастающих значений Нормальное распределение показано синей линией для сравнения. Обратите внимание, что распределение t  (красная линия) становится ближе к нормальному распределению по мере увеличения.   ν   . {\displaystyle \ \nu ~.}   ν   {\displaystyle \ \nu \ }

Плотность распределения t  (красный) для 1, 2, 3, 5, 10 и 30 степеней свободы по сравнению со стандартным нормальным распределением (синий).
Предыдущие графики показаны зеленым.

Кумулятивная функция распределения

Кумулятивную функцию распределения (CDF) можно записать в терминах I , регуляризованной неполной бета-функции . Для t > 0 ,

F ( t ) = t   f ( u )   d u   =   1 1 2 I x ( t ) (   ν   2 ,     1   2 )   , {\displaystyle F(t)=\int _{-\infty }^{t}\ f(u)\ \operatorname {d} u~=~1-{\frac {1}{2}}I_{x(t)}\!\left({\frac {\ \nu \ }{2}},\ {\frac {\ 1\ }{2}}\right)\ ,}

где

x ( t ) = ν   t 2 + ν     . {\displaystyle x(t)={\frac {\nu }{\ t^{2}+\nu \ }}~.}

Другие значения будут получены с помощью симметрии. Альтернативная формула, действительная для   t 2 < ν   , {\displaystyle \ t^{2}<\nu \ ,}

t f ( u )   d u   =   1 2 + t     Γ (   ν + 1   2 )     π   ν     Γ ( ν   2   )     2 F 1 (   1 2 ,   ν + 1   2   ; 3   2     ;     t 2   ν   )   , {\displaystyle \int _{-\infty }^{t}f(u)\ \operatorname {d} u~=~{\frac {1}{2}}+t\ {\frac {\ \Gamma \!\left({\frac {\ \nu +1\ }{2}}\right)\ }{\ {\sqrt {\pi \ \nu \ }}\ \Gamma \!\left({\frac {\nu }{\ 2\ }}\right)\ }}\ {}_{2}F_{1}\!\left(\ {\frac {1}{2}},{\frac {\ \nu +1\ }{2}}\ ;{\frac {3}{\ 2\ }}\ ;\ -{\frac {~t^{2}\ }{\nu }}\ \right)\ ,}

где — частный случай гипергеометрической функции .   2 F 1 (   ,   ;   ;   )   {\displaystyle \ {}_{2}F_{1}(\ ,\ ;\ ;\ )\ }

Информацию об обратной кумулятивной функции распределения см. в разделе Функция квантиля § Распределение Стьюдента .

Особые случаи

Определенные значения дают простую форму для t-распределения Стьюдента.   ν   {\displaystyle \ \nu \ }

  ν   {\displaystyle \ \nu \ } PDFСДФпримечания
1     1     π   ( 1 + t 2 )     {\displaystyle \ {\frac {\ 1\ }{\ \pi \ (1+t^{2})\ }}\ }     1   2 +   1   π   arctan (   t   )   {\displaystyle \ {\frac {\ 1\ }{2}}+{\frac {\ 1\ }{\pi }}\ \arctan(\ t\ )\ } См. распределение Коши
2   1   2   2     ( 1 + t 2 2 ) 3 / 2   {\displaystyle \ {\frac {1}{\ 2\ {\sqrt {2\ }}\ \left(1+{\frac {t^{2}}{2}}\right)^{3/2}}}\ }   1   2   + t   2 2     1 +   t 2   2       {\displaystyle \ {\frac {1}{\ 2\ }}+{\frac {t}{\ 2{\sqrt {2\ }}\ {\sqrt {1+{\frac {~t^{2}\ }{2}}\ }}\ }}\ }
3   2   π   3     (   1 +   t 2   3   ) 2     {\displaystyle \ {\frac {2}{\ \pi \ {\sqrt {3\ }}\ \left(\ 1+{\frac {~t^{2}\ }{3}}\ \right)^{2}\ }}\ }     1   2 +   1   π   [ (   t   3       ) (   1 +   t 2   3   ) + arctan (   t   3       )   ]   {\displaystyle \ {\frac {\ 1\ }{2}}+{\frac {\ 1\ }{\pi }}\ \left[{\frac {\left(\ {\frac {t}{\ {\sqrt {3\ }}\ }}\ \right)}{\left(\ 1+{\frac {~t^{2}\ }{3}}\ \right)}}+\arctan \left(\ {\frac {t}{\ {\sqrt {3\ }}\ }}\ \right)\ \right]\ }
4     3     8   (   1 +   t 2   4   ) 5 / 2   {\displaystyle \ {\frac {\ 3\ }{\ 8\ \left(\ 1+{\frac {~t^{2}\ }{4}}\ \right)^{5/2}}}\ }     1   2 +   3   8 [   t   1 +   t 2   4     ] [   1   t 2     12   (   1 +   t 2   4   )     ]   {\displaystyle \ {\frac {\ 1\ }{2}}+{\frac {\ 3\ }{8}}\left[\ {\frac {t}{\ {\sqrt {1+{\frac {~t^{2}\ }{4}}~}}\ }}\right]\left[\ 1-{\frac {~t^{2}\ }{\ 12\ \left(\ 1+{\frac {~t^{2}\ }{4}}\ \right)\ }}\ \right]\ }
5   8   3 π 5   ( 1 +   t 2   5 ) 3     {\displaystyle \ {\frac {8}{\ 3\pi {\sqrt {5\ }}\left(1+{\frac {\ t^{2}\ }{5}}\right)^{3}\ }}\ }     1   2 +   1   π [ t   5   ( 1 +   t 2   5 )   ( 1 + 2   3 ( 1 +   t 2   5 )   ) + arctan ( t     5     ) ]   {\displaystyle \ {\frac {\ 1\ }{2}}+{\frac {\ 1\ }{\pi }}{\left[{\frac {t}{\ {\sqrt {5\ }}\left(1+{\frac {\ t^{2}\ }{5}}\right)\ }}\left(1+{\frac {2}{\ 3\left(1+{\frac {\ t^{2}\ }{5}}\right)\ }}\right)+\arctan \left({\frac {t}{\ {\sqrt {\ 5\ }}\ }}\right)\right]}\ }
    {\displaystyle \ \infty \ }   1   2 π       e t 2 / 2 {\displaystyle \ {\frac {1}{\ {\sqrt {2\pi \ }}\ }}\ e^{-t^{2}/2}}     1   2   [ 1 + erf ( t   2     ) ]   {\displaystyle \ {\frac {\ 1\ }{2}}\ {\left[1+\operatorname {erf} \left({\frac {t}{\ {\sqrt {2\ }}\ }}\right)\right]}\ } См. Нормальное распределение , Функция ошибки

Моменты

Для сырых моментов распределения t  есть ν > 1   , {\displaystyle \nu >1\ ,}

E {   T k   } = { 0 k  odd  , 0 < k < ν   , 1   π     Γ (   ν   2 )   [   Γ (   k + 1   2 )   Γ (   ν k   2 )   ν   k   2   ] k  even  , 0 < k < ν   . {\displaystyle \operatorname {\mathbb {E} } \left\{\ T^{k}\ \right\}={\begin{cases}\quad 0&k{\text{ odd }},\quad 0<k<\nu \ ,\\{}\\{\frac {1}{\ {\sqrt {\pi \ }}\ \Gamma \left({\frac {\ \nu \ }{2}}\right)}}\ \left[\ \Gamma \!\left({\frac {\ k+1\ }{2}}\right)\ \Gamma \!\left({\frac {\ \nu -k\ }{2}}\right)\ \nu ^{\frac {\ k\ }{2}}\ \right]&k{\text{ even }},\quad 0<k<\nu ~.\\\end{cases}}}

Моментов порядка или выше не существует. [16]   ν   {\displaystyle \ \nu \ }

Термин для k четный можно упростить, используя свойства гамма-функции :   0 < k < ν   , {\displaystyle \ 0<k<\nu \ ,}

E {   T k   } = ν   k   2   j = 1 k / 2     2 j 1   ν 2 j k  even , 0 < k < ν   . {\displaystyle \operatorname {\mathbb {E} } \left\{\ T^{k}\ \right\}=\nu ^{\frac {\ k\ }{2}}\ \prod _{j=1}^{k/2}\ {\frac {~2j-1~}{\nu -2j}}\qquad k{\text{ even}},\quad 0<k<\nu ~.}

Для t -  распределения со степенями свободы ожидаемое значение равно , если , а его дисперсия равна , если Асимметрия равна 0, если , а избыточный эксцесс равен , если   ν   {\displaystyle \ \nu \ }   0   {\displaystyle \ 0\ }   ν > 1   , {\displaystyle \ \nu >1\ ,}   ν   ν 2     {\displaystyle \ {\frac {\nu }{\ \nu -2\ }}\ }   ν > 2   . {\displaystyle \ \nu >2~.}   ν > 3   {\displaystyle \ \nu >3\ }   6   ν 4     {\displaystyle \ {\frac {6}{\ \nu -4\ }}\ }   ν > 4   . {\displaystyle \ \nu >4~.}

Местоположение-масштабт распределение

Преобразование масштаба местоположения

Распределение Стьюдента  обобщается до трехпараметрического  распределения t по местоположению и масштабу путем введения параметра местоположения и параметра масштаба .   l s t ( μ ,   τ 2 ,   ν )   {\displaystyle \ {\mathcal {lst}}(\mu ,\ \tau ^{2},\ \nu )\ }   μ   {\displaystyle \ \mu \ }   τ   . {\displaystyle \ \tau ~.}

  T t ν   {\displaystyle \ T\sim t_{\nu }\ }

и трансформация семьи в масштабе местоположения

  X = μ + τ   T   {\displaystyle \ X=\mu +\tau \ T\ }

мы получаем

  X l s t ( μ ,   τ 2 ,   ν )   . {\displaystyle \ X\sim {\mathcal {lst}}(\mu ,\ \tau ^{2},\ \nu )~.}

Полученное распределение также называется нестандартизированным  распределением Стьюдента .

Плотность и первые два момента

Распределение масштаба местоположения t имеет плотность, определяемую следующим образом: [17]

p ( x ν , μ , τ ) =   Γ (   ν + 1   2 )     Γ (   ν   2 )   π   ν     τ     ( 1 +   1   ν   (     x μ   τ   ) 2   ) ( ν + 1 ) / 2   {\displaystyle p(x\mid \nu ,\mu ,\tau )={\frac {\ \Gamma \left({\frac {\ \nu +1\ }{2}}\right)\ }{\ \Gamma \left({\frac {\ \nu \ }{2}}\right)\ {\sqrt {\pi \ \nu \ }}\ \tau \ }}\ \left(1+{\frac {\ 1\ }{\nu }}\ \left(\ {\frac {\ x-\mu \ }{\tau }}\ \right)^{2}\ \right)^{-(\nu +1)/2}\ }

Эквивалентно, плотность можно записать в терминах : τ 2 {\displaystyle \tau ^{2}}

  p ( x     ν ,   μ ,   τ 2 ) =   Γ ( ν + 1 2 )     Γ (   ν   2 )   π   ν   τ 2     (   1 +   1   ν     ( x μ ) 2     τ 2     ) ( ν + 1 ) / 2   {\displaystyle \ p(x\ \mid \ \nu ,\ \mu ,\ \tau ^{2})={\frac {\ \Gamma ({\frac {\nu +1}{2}})\ }{\ \Gamma \left({\frac {\ \nu \ }{2}}\right)\ {\sqrt {\pi \ \nu \ \tau ^{2}}}\ }}\ \left(\ 1+{\frac {\ 1\ }{\nu }}\ {\frac {\ (x-\mu )^{2}\ }{\ \tau ^{2}\ }}\ \right)^{-(\nu +1)/2}\ }

Другие свойства этой версии дистрибутива: [17]

E {   X   } = μ  for  ν > 1   , var {   X   } = τ 2 ν ν 2  for  ν > 2   , mode {   X   } = μ   . {\displaystyle {\begin{aligned}\operatorname {\mathbb {E} } \{\ X\ \}&=\mu &{\text{ for }}\nu >1\ ,\\\operatorname {var} \{\ X\ \}&=\tau ^{2}{\frac {\nu }{\nu -2}}&{\text{ for }}\nu >2\ ,\\\operatorname {mode} \{\ X\ \}&=\mu ~.\end{aligned}}}

Особые случаи

  • Если следует  распределение t по шкале местоположения , то для имеет нормальное распределение со средним значением и дисперсией   X   {\displaystyle \ X\ }   X l s t ( μ ,   τ 2 ,   ν )   {\displaystyle \ X\sim {\mathcal {lst}}\left(\mu ,\ \tau ^{2},\ \nu \right)\ }   ν   {\displaystyle \ \nu \rightarrow \infty \ }   X   {\displaystyle \ X\ } X N ( μ , τ 2 ) {\displaystyle X\sim \mathrm {N} \left(\mu ,\tau ^{2}\right)} μ {\displaystyle \mu }   τ 2   . {\displaystyle \ \tau ^{2}~.}
  •  Распределение t по шкале местоположения со степенью свободы эквивалентно распределению Коши   l s t ( μ ,   τ 2 ,   ν = 1 )   {\displaystyle \ {\mathcal {lst}}\left(\mu ,\ \tau ^{2},\ \nu =1\right)\ } ν = 1 {\displaystyle \nu =1} C a u ( μ , τ )   . {\displaystyle \mathrm {Cau} \left(\mu ,\tau \right)~.}
  •  Распределение t по шкале местоположения с и сводится к  распределению t Стьюдента   l s t ( μ = 0 ,   τ 2 = 1 ,   ν )   {\displaystyle \ {\mathcal {lst}}\left(\mu =0,\ \tau ^{2}=1,\ \nu \right)\ } μ = 0 {\displaystyle \mu =0}   τ 2 = 1   {\displaystyle \ \tau ^{2}=1\ }   t ν   . {\displaystyle \ t_{\nu }~.}

Какт возникает распределение (характеристика)

Как распределение тестовой статистики

Распределение Стьюдента со степенями свободы можно определить как распределение случайной величины T с [18] [19] ν {\displaystyle \nu }

T = Z V / ν = Z ν V , {\displaystyle T={\frac {Z}{\sqrt {V/\nu }}}=Z{\sqrt {\frac {\nu }{V}}},}

где

Другое распределение определяется как распределение случайной величины, определяемой для заданной константы  μ следующим образом:

( Z + μ ) ν V . {\displaystyle (Z+\mu ){\sqrt {\frac {\nu }{V}}}.}

Эта случайная величина имеет нецентральное t -распределение с параметром нецентральности μ . Это распределение важно при изучении мощности t - критерия Стьюдента .

Вывод

Предположим, что X 1 , ..., X n являются независимыми реализациями нормально распределенной случайной величины X , которая имеет ожидаемое значение μ и дисперсию σ 2 . Пусть

X ¯ n = 1 n ( X 1 + + X n ) {\displaystyle {\overline {X}}_{n}={\frac {1}{n}}(X_{1}+\cdots +X_{n})}

быть выборочным средним, и

s 2 = 1 n 1 i = 1 n ( X i X ¯ n ) 2 {\displaystyle s^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}_{n}\right)^{2}}

быть несмещенной оценкой дисперсии из выборки. Можно показать, что случайная величина

V = ( n 1 ) s 2 σ 2 {\displaystyle V=(n-1){\frac {s^{2}}{\sigma ^{2}}}}

имеет распределение хи-квадрат со степенями свободы (по теореме Кохрана ). [20] Легко показать, что величина ν = n 1 {\displaystyle \nu =n-1}

Z = ( X ¯ n μ ) n σ {\displaystyle Z=\left({\overline {X}}_{n}-\mu \right){\frac {\sqrt {n}}{\sigma }}}

нормально распределена со средним значением 0 и дисперсией 1, поскольку выборочное среднее значение нормально распределено со средним значением μ и дисперсией σ 2 / n . Более того, можно показать, что эти две случайные величины (нормально распределенная Z и распределенная по закону хи-квадрат V ) независимы. Следовательно [ необходимо разъяснение ] основная величина X ¯ n {\displaystyle {\overline {X}}_{n}}

T Z V / ν = ( X ¯ n μ ) n s , {\textstyle T\equiv {\frac {Z}{\sqrt {V/\nu }}}=\left({\overline {X}}_{n}-\mu \right){\frac {\sqrt {n}}{s}},}

которая отличается от Z тем, что точное стандартное отклонение σ заменяется случайной величиной S n , имеет распределение Стьюдента t, как определено выше. Обратите внимание, что неизвестная дисперсия популяции σ 2 не появляется в T , поскольку она была и в числителе, и в знаменателе, поэтому она сокращается. Госсет интуитивно получил функцию плотности вероятности, указанную выше, с равным n  − 1, и Фишер доказал ее в 1925 году. [13] ν {\displaystyle \nu }

Распределение тестовой статистики T зависит от , но не от μ или σ ; отсутствие зависимости от μ и σ делает t -распределение важным как в теории, так и на практике. ν {\displaystyle \nu }

Выборочное распределение t-статистики

Распределение t  возникает как выборочное распределение t -  статистики. Ниже обсуждается одновыборочная t-  статистика, для соответствующей двухвыборочной t-  статистики см. t-критерий Стьюдента .

Несмещенная оценка дисперсии

Пусть — независимые и одинаково распределенные выборки из нормального распределения со средним значением и дисперсией. Выборочное среднее значение и несмещенная выборочная дисперсия определяются по формуле:   x 1 , , x n N ( μ , σ 2 )   {\displaystyle \ x_{1},\ldots ,x_{n}\sim {\mathcal {N}}(\mu ,\sigma ^{2})\ } μ {\displaystyle \mu }   σ 2   . {\displaystyle \ \sigma ^{2}~.}

x ¯ =   x 1 + + x n   n   , s 2 = 1   n 1     i = 1 n ( x i x ¯ ) 2   . {\displaystyle {\begin{aligned}{\bar {x}}&={\frac {\ x_{1}+\cdots +x_{n}\ }{n}}\ ,\\[5pt]s^{2}&={\frac {1}{\ n-1\ }}\ \sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}~.\end{aligned}}}

Результирующая (одна выборка) t-  статистика определяется как

t = x ¯ μ   s 2 / n     t n 1   . {\displaystyle t={\frac {{\bar {x}}-\mu }{\ {\sqrt {s^{2}/n\ }}\ }}\sim t_{n-1}~.}

и распределено по закону Стьюдента  со степенями свободы.   n 1   {\displaystyle \ n-1\ }

Таким образом, для целей вывода t-  статистика является полезной « основной величиной » в случае, когда среднее значение и дисперсия являются неизвестными параметрами популяции, в том смысле, что t-  статистика имеет тогда распределение вероятностей, которое не зависит ни от ( μ , σ 2 ) {\displaystyle (\mu ,\sigma ^{2})} μ {\displaystyle \mu }   σ 2   . {\displaystyle \ \sigma ^{2}~.}

Оценка дисперсии ML

Вместо несмещенной оценки мы также можем использовать оценку максимального правдоподобия.   s 2   {\displaystyle \ s^{2}\ }

  s M L 2 =   1   n   i = 1 n ( x i x ¯ ) 2   {\displaystyle \ s_{\mathsf {ML}}^{2}={\frac {\ 1\ }{n}}\ \sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\ }

что дает статистику

  t M L = x ¯ μ s M L 2 / n   = n n 1     t   . {\displaystyle \ t_{\mathsf {ML}}={\frac {{\bar {x}}-\mu }{\sqrt {s_{\mathsf {ML}}^{2}/n\ }}}={\sqrt {{\frac {n}{n-1}}\ }}\ t~.}

Это распределено в соответствии с распределением масштаба местоположения  :

t M L l s t ( 0 ,   τ 2 = n / ( n 1 ) ,   n 1 )   . {\displaystyle t_{\mathsf {ML}}\sim {\mathcal {lst}}(0,\ \tau ^{2}=n/(n-1),\ n-1)~.}

Составное распределение нормального с обратным гамма-распределением

Распределение t по шкале местоположения  получается в результате объединения гауссовского распределения (нормального распределения) со средним значением и неизвестной дисперсией , с обратным гамма-распределением, помещенным над дисперсией с параметрами и Другими словами, предполагается, что случайная величина X имеет гауссово распределение с неизвестной дисперсией, распределенной как обратная гамма, а затем дисперсия маргинализируется ( интегрируется).   μ   {\displaystyle \ \mu \ }   a =   ν   2   {\displaystyle \ a={\frac {\ \nu \ }{2}}\ } b =   ν   τ 2   2   . {\displaystyle b={\frac {\ \nu \ \tau ^{2}\ }{2}}~.}

Эквивалентно, это распределение получается в результате соединения гауссовского распределения с масштабированным обратным распределением хи-квадрат с параметрами и Масштабированное обратное распределение хи-квадрат является точно таким же распределением, как и обратное гамма-распределение, но с другой параметризацией, т.е. ν {\displaystyle \nu }   τ 2   . {\displaystyle \ \tau ^{2}~.}   ν = 2   a , τ 2 =   b   a   . {\displaystyle \ \nu =2\ a,\;{\tau }^{2}={\frac {\ b\ }{a}}~.}

Причина полезности этой характеристики заключается в том, что в байесовской статистике обратное гамма-распределение является сопряженным априорным распределением дисперсии гауссовского распределения. В результате распределение t по шкале местоположения  естественным образом возникает во многих байесовских задачах вывода. [21]

Максимальное распределение энтропии

Распределение Стьюдента  — это распределение вероятности максимальной энтропии для случайной величины X, для которой фиксировано. [22] [ необходимо разъяснение ] [ необходим лучший источник ]   E {   ln ( ν + X 2 )   }   {\displaystyle \ \operatorname {\mathbb {E} } \left\{\ \ln(\nu +X^{2})\ \right\}\ }

Дополнительные свойства

выборка Монте-Карло

Существуют различные подходы к построению случайных выборок из распределения Стьюдента t  . Вопрос зависит от того, требуются ли выборки на автономной основе или должны быть построены путем применения квантильной функции к однородным выборкам; например, в многомерных приложениях на основе копула-зависимости . [ требуется ссылка ] В случае автономной выборки расширение метода Бокса-Мюллера и его полярной формы легко развертывается. [23] Его достоинство в том, что он одинаково хорошо применим ко всем действительным положительным степеням свободы , ν , в то время как многие другие методы-кандидаты терпят неудачу, если ν близко к нулю. [23]

Интеграл функции плотности вероятности Стьюдента ип-ценить

Функция A ( t | ν ) является интегралом функции плотности вероятности Стьюдента, f ( t ) между   -t и t , для t ≥ 0 . Таким образом, она дает вероятность того, что значение t меньше, чем рассчитанное по наблюдаемым данным, возникнет случайно. Следовательно, функцию A ( t | ν ) можно использовать при проверке того, является ли разница между средними значениями двух наборов данных статистически значимой, путем вычисления соответствующего значения t и вероятности его появления, если бы два набора данных были взяты из одной и той же популяции. Это используется в различных ситуациях, особенно в t  -тестах . Для статистики t с ν степенями свободы A ( t | ν ) является вероятностью того, что t будет меньше наблюдаемого значения, если бы два средних значения были одинаковыми (при условии, что меньшее среднее значение вычитается из большего, так что t ≥ 0 ). Его можно легко рассчитать из кумулятивной функции распределения F ν ( t ) t -распределения  :

A ( t ν ) = F ν ( t ) F ν ( t ) = 1 I ν ν + t 2 ( ν 2 , 1 2 ) , {\displaystyle A(t\mid \nu )=F_{\nu }(t)-F_{\nu }(-t)=1-I_{\frac {\nu }{\nu +t^{2}}}\!\left({\frac {\nu }{2}},{\frac {1}{2}}\right),}

где I x ( a , b ) — регуляризованная неполная бета-функция .

Для статистической проверки гипотез эта функция используется для построения p -значения .

  • Нецентральное  распределение t обобщает распределение t ,  включая параметр нецентральности. В отличие от нестандартизированных распределений t , нецентральные распределения не являются симметричными  (медиана не совпадает с модой).
  • Дискретное  распределение Стьюдента t определяется его функцией массы вероятности при r , пропорциональной: [24] Здесь a , b , и k являются параметрами. Это распределение возникает из построения системы дискретных распределений, подобной распределению Пирсона для непрерывных распределений. [25] j = 1 k 1 ( r + j + a ) 2 + b 2 r = , 1 , 0 , 1 ,   . {\displaystyle \prod _{j=1}^{k}{\frac {1}{(r+j+a)^{2}+b^{2}}}\quad \quad r=\ldots ,-1,0,1,\ldots ~.}
  • Можно сгенерировать выборки Стьюдента A ( t | ν ), взяв отношение переменных из нормального распределения и квадратный корень из распределения χ² . Если вместо нормального распределения использовать, например, распределение Ирвина–Холла , то в целом получим симметричное распределение с 4 параметрами, которое включает нормальное, равномерное , треугольное , распределение Стьюдента  t и распределение Коши . Это также более гибко, чем некоторые другие симметричные обобщения нормального распределения.
  • Распределение t  является примером пропорциональных распределений .
  • Квадрат случайной величины, распределенной t(n), распределен F(1,n) .

Использует

В частотном статистическом выводе

Распределение Стьюдента t  возникает в различных задачах статистической оценки, где целью является оценка неизвестного параметра, например, среднего значения, в условиях, когда данные наблюдаются с аддитивными ошибками . Если (как почти во всех практических статистических работах) среднеквадратическое отклонение этих ошибок неизвестно и должно быть оценено на основе данных, то распределение t часто используется для учета дополнительной неопределенности, которая возникает в результате этой оценки. В большинстве таких задач, если бы среднеквадратическое отклонение ошибок было известно, вместо распределения t  использовалось бы нормальное распределение  .

Доверительные интервалы и проверки гипотез — это две статистические процедуры, в которых требуются квантили выборочного распределения конкретной статистики (например, стандартной оценки ). В любой ситуации, когда эта статистика является линейной функцией данных , деленной на обычную оценку стандартного отклонения, полученное количество можно масштабировать и центрировать так, чтобы оно соответствовало распределению Стьюдента .  Статистический анализ, включающий средние значения, взвешенные средние значения и коэффициенты регрессии, приводит к статистике, имеющей такую ​​форму.

Довольно часто в задачах учебника среднеквадратическое отклонение генеральной совокупности рассматривается так, как будто оно известно, и, таким образом, избегается необходимость использования распределения Стьюдента .  Эти задачи обычно бывают двух видов: (1) те, в которых размер выборки настолько велик, что можно рассматривать оценку дисперсии на основе данных так , как будто она определена, и (2) те, которые иллюстрируют математические рассуждения, в которых проблема оценки среднеквадратического отклонения временно игнорируется, поскольку это не то, что автор или преподаватель затем объясняет.

Проверка гипотез

Можно показать, что ряд статистик имеет t-  распределения для выборок среднего размера при нулевых гипотезах , которые представляют интерес, так что t-  распределение формирует основу для тестов значимости. Например, распределение коэффициента ранговой корреляции Спирмена ρ в нулевом случае (нулевая корреляция) хорошо аппроксимируется t- распределением для выборок размером более 20. [ необходима цитата ]

Доверительные интервалы

Предположим, что число A выбрано таким образом, что

  P {   A < T < A   } = 0.9   , {\displaystyle \ \operatorname {\mathbb {P} } \left\{\ -A<T<A\ \right\}=0.9\ ,}

когда T имеет распределение t  с n − 1 степенями свободы. По симметрии это то же самое, что сказать, что A удовлетворяет

  P {   T < A   } = 0.95   , {\displaystyle \ \operatorname {\mathbb {P} } \left\{\ T<A\ \right\}=0.95\ ,}

поэтому A — это «95-й процентиль» этого распределения вероятностей, или Тогда   A = t ( 0.05 , n 1 )   . {\displaystyle \ A=t_{(0.05,n-1)}~.}

  P {   A <   X ¯ n μ   S n / n   < A   } = 0.9   , {\displaystyle \ \operatorname {\mathbb {P} } \left\{\ -A<{\frac {\ {\overline {X}}_{n}-\mu \ }{S_{n}/{\sqrt {n\ }}}}<A\ \right\}=0.9\ ,}

и это эквивалентно

  P {   X ¯ n A S n   n     < μ < X ¯ n + A   S n   n       } = 0.9. {\displaystyle \ \operatorname {\mathbb {P} } \left\{\ {\overline {X}}_{n}-A{\frac {S_{n}}{\ {\sqrt {n\ }}\ }}<\mu <{\overline {X}}_{n}+A\ {\frac {S_{n}}{\ {\sqrt {n\ }}\ }}\ \right\}=0.9.}

Следовательно, интервал, конечные точки которого

  X ¯ n   ± A   S n   n       {\displaystyle \ {\overline {X}}_{n}\ \pm A\ {\frac {S_{n}}{\ {\sqrt {n\ }}\ }}\ }

является 90% доверительным интервалом для μ. Таким образом, если мы находим среднее значение набора наблюдений, которое, как мы можем обоснованно ожидать, будет иметь нормальное распределение, мы можем использовать t-  распределение, чтобы проверить, включают ли доверительные пределы этого среднего значения некоторое теоретически предсказанное значение – например, значение, предсказанное на основе нулевой гипотезы .

Именно этот результат используется в t-  критериях Стьюдента : поскольку разница между средними значениями выборок из двух нормальных распределений сама по себе распределена нормально, t-  распределение можно использовать для проверки того, можно ли обоснованно предположить, что эта разница равна нулю.

Если данные распределены нормально, то односторонний (1 − α ) верхний доверительный предел (UCL) среднего значения можно рассчитать с помощью следующего уравнения:

U C L 1 α = X ¯ n + t α , n 1   S n   n       . {\displaystyle {\mathsf {UCL}}_{1-\alpha }={\overline {X}}_{n}+t_{\alpha ,n-1}\ {\frac {S_{n}}{\ {\sqrt {n\ }}\ }}~.}

Результирующий UCL будет наибольшим средним значением, которое будет иметь место для заданного доверительного интервала и размера популяции. Другими словами, будучи средним значением набора наблюдений, вероятность того, что среднее значение распределения ниже UCL 1 − α , равна уровню достоверности 1 − α . X ¯ n {\displaystyle {\overline {X}}_{n}}

Интервалы прогнозирования

Распределение t  можно использовать для построения интервала прогнозирования для ненаблюдаемой выборки из нормального распределения с неизвестным средним значением и дисперсией.

В байесовской статистике

Распределение Стьюдента  , особенно в его трехпараметрической (масштаб-местоположение) версии, часто возникает в байесовской статистике в результате его связи с нормальным распределением. Всякий раз, когда дисперсия нормально распределенной случайной величины неизвестна и над ней помещается сопряженное априорное распределение, которое следует обратному гамма-распределению , результирующее маргинальное распределение переменной будет следовать распределению Стьюдента .  Эквивалентные конструкции с теми же результатами включают сопряженное масштабированное-обратное-хи-квадрат распределение по дисперсии или сопряженное гамма-распределение по точности . Если неправильное априорное распределение пропорционально 1/σ ²  помещается над дисперсией, также возникает распределение t  . Это имеет место независимо от того, известно ли среднее значение нормально распределенной переменной, неизвестно ли оно распределено в соответствии с сопряженным нормально распределенным априором или неизвестно распределено в соответствии с несобственным постоянным априором.

Связанные ситуации, которые также приводят к распределению t  :

Надежное параметрическое моделирование

Распределение t  часто используется как альтернатива нормальному распределению в качестве модели для данных, которые часто имеют более тяжелые хвосты, чем допускает нормальное распределение; см., например, Lange et al. [26] Классический подход заключался в выявлении выбросов (например, с помощью теста Граббса ) и исключении или понижении их веса каким-либо образом. Однако не всегда легко выявить выбросы (особенно в больших размерностях ), и распределение t  является естественным выбором модели для таких данных и обеспечивает параметрический подход к надежной статистике .

Байесовский отчет можно найти в Gelman et al. [27] Параметр степеней свободы контролирует эксцесс распределения и коррелирует с параметром масштаба. Правдоподобие может иметь несколько локальных максимумов, и, как таковое, часто необходимо зафиксировать степени свободы на довольно низком значении и оценить другие параметры, принимая это как данность. Некоторые авторы [ требуется цитата ] сообщают, что значения от 3 до 9 часто являются хорошим выбором. Venables и Ripley [ требуется цитата ] предполагают, что значение 5 часто является хорошим выбором.

Студенческийт процесс

Для практических нужд регрессии и прогнозирования были введены процессы Стьюдента t  , которые являются обобщениями распределений Стьюдента t  для функций. Процесс Стьюдента t  строится из распределений Стьюдента t  , как гауссовский процесс строится из гауссовых распределений . Для гауссовского процесса все наборы значений имеют многомерное гауссовское распределение. Аналогично, является процессом Стьюдента t  на интервале , если соответствующие значения процесса ( ) имеют совместное многомерное  распределение Стьюдента t . [28] Эти процессы используются для регрессии, прогнозирования, байесовской оптимизации и связанных с ними задач. Для многомерной регрессии и многовыходного прогнозирования  вводятся и используются многомерные процессы Стьюдента t . [29] X ( t ) {\displaystyle X(t)} I = [ a , b ] {\displaystyle I=[a,b]}   X ( t 1 ) ,     , X ( t n )   {\displaystyle \ X(t_{1}),\ \ldots \ ,X(t_{n})\ } t i I {\displaystyle t_{i}\in I}

Таблица выбранных значений

В следующей таблице перечислены значения для  распределений t с ν степенями свободы для диапазона односторонних или двусторонних критических областей. Первый столбец — ν , проценты сверху — уровни достоверности , а числа в теле таблицы — факторы, описанные в разделе о доверительных интервалах.   α   , {\displaystyle \ \alpha \ ,} t α , n 1 {\displaystyle t_{\alpha ,n-1}}

Последняя строка с бесконечным ν дает критические точки для нормального распределения, поскольку t-  распределение с бесконечным числом степеней свободы является нормальным распределением. (См. Связанные распределения выше).

Односторонний75%80%85%90%95%97,5%99%99,5%99,75%99,9%99,95%
Двусторонний50%60%70%80%90%95%98%99%99,5%99,8%99,9%
11.0001.3761.9633.0786.31412.70631.82163.657127.321318.309636.619
20,8161.0611.3861.8862.9204.3036.9659.92514.08922.32731.599
30,7650,9781.2501.6382.3533.1824.5415.8417.45310.21512.924
40,7410,9411.1901.5332.1322.7763.7474.6045.5987.1738.610
50,7270,9201.1561.4762.0152.5713.3654.0324.7735.8936.869
60,7180,9061.1341.4401.9432.4473.1433.7074.3175.2085.959
70,7110,8961.1191.4151.8952.3652.9983.4994.0294.7855.408
80,7060,8891.1081.3971.8602.3062.8963.3553.8334.5015.041
90,7030,8831.1001.3831.8332.2622.8213.2503.6904.2974.781
100.7000,8791.0931.3721.8122.2282.7643.1693.5814.1444.587
110,6970,8761.0881.3631.7962.2012.7183.1063.4974.0254.437
120,6950,8731.0831.3561.7822.1792.6813.0553.4283.9304.318
130,6940,8701.0791.3501.7712.1602.6503.0123.3723.8524.221
140,6920,8681.0761.3451.7612.1452.6242.9773.3263.7874.140
150,6910,8661.0741.3411.7532.1312.6022.9473.2863.7334.073
160.6900,8651.0711.3371.7462.1202.5832.9213.2523.6864.015
170,6890,8631.0691.3331.7402.1102.5672.8983.2223.6463.965
180,6880,8621.0671.3301.7342.1012.5522.8783.1973.6103.922
190,6880,8611.0661.3281.7292.0932.5392.8613.1743.5793.883
200,6870,8601.0641.3251.7252.0862.5282.8453.1533.5523.850
210,6860,8591.0631.3231.7212.0802.5182.8313.1353.5273.819
220,6860,8581.0611.3211.7172.0742.5082.8193.1193.5053.792
230,6850,8581.0601.3191.7142.0692.5002.8073.1043.4853.767
240,6850,8571.0591.3181.7112.0642.4922.7973.0913.4673.745
250,6840,8561.0581.3161.7082.0602.4852.7873.0783.4503.725
260,6840,8561.0581.3151.7062.0562.4792.7793.0673.4353.707
270,6840,8551.0571.3141.7032.0522.4732.7713.0573.4213.690
280,6830,8551.0561.3131.7012.0482.4672.7633.0473.4083.674
290,6830,8541.0551.3111.6992.0452.4622.7563.0383.3963.659
300,6830,8541.0551.3101.6972.0422.4572.7503.0303.3853.646
400,6810,8511.0501.3031.6842.0212.4232.7042.9713.3073.551
500,6790,8491.0471.2991.6762.0092.4032.6782.9373.2613.496
600,6790,8481.0451.2961.6712.0002.3902.6602.9153.2323.460
800,6780,8461.0431.2921.6641.9902.3742.6392.8873.1953.416
1000,6770,8451.0421.2901.6601.9842.3642.6262.8713.1743.390
1200,6770,8451.0411.2891.6581.9802.3582.6172.8603.1603.373
0,6740,8421.0361.2821.6451.9602.3262.5762.8073.0903.291
Односторонний75%80%85%90%95%97,5%99%99,5%99,75%99,9%99,95%
Двусторонний50%60%70%80%90%95%98%99%99,5%99,8%99,9%
Расчет доверительного интервала

Допустим, у нас есть выборка размером 11, выборочное среднее значение 10 и выборочная дисперсия 2. Для 90%-ной достоверности с 10 степенями свободы одностороннее значение t  из таблицы равно 1,372. Тогда с доверительным интервалом, рассчитанным из

  X ¯ n ± t α , ν   S n   n       , {\displaystyle \ {\overline {X}}_{n}\pm t_{\alpha ,\nu }\ {\frac {S_{n}}{\ {\sqrt {n\ }}\ }}\ ,}

мы определяем, что с 90% уверенностью мы имеем истинное среднее значение, лежащее ниже

  10 + 1.372   2     11     = 10.585   . {\displaystyle \ 10+1.372\ {\frac {\sqrt {2\ }}{\ {\sqrt {11\ }}\ }}=10.585~.}

Другими словами, в 90% случаев, когда верхний порог рассчитывается этим методом на основе конкретных образцов, этот верхний порог превышает истинное среднее значение.

И с 90% уверенностью мы имеем истинное среднее значение, лежащее выше

  10 1.372   2     11     = 9.414   . {\displaystyle \ 10-1.372\ {\frac {\sqrt {2\ }}{\ {\sqrt {11\ }}\ }}=9.414~.}

Другими словами, в 90% случаев, когда нижний порог рассчитывается этим методом на основе конкретных образцов, этот нижний порог лежит ниже истинного среднего значения.

Таким образом, при 80%-ной достоверности (рассчитанной как 100% − 2 × (1 − 90%) = 80%) мы имеем истинное среднее значение, лежащее в интервале

(   10 1.372   2     11     ,   10 + 1.372   2     11       ) = (   9.414 ,   10.585   )   . {\displaystyle \left(\ 10-1.372\ {\frac {\sqrt {2\ }}{\ {\sqrt {11\ }}\ }},\ 10+1.372\ {\frac {\sqrt {2\ }}{\ {\sqrt {11\ }}\ }}\ \right)=(\ 9.414,\ 10.585\ )~.}

Утверждение, что в 80% случаев, когда верхний и нижний пороги вычисляются этим методом из заданной выборки, истинное среднее значение оказывается как ниже верхнего порога, так и выше нижнего порога, не то же самое, что утверждение, что существует 80%-ная вероятность того, что истинное среднее значение лежит между конкретной парой верхних и нижних порогов, которые были вычислены этим методом; см. доверительный интервал и ошибка прокурора .

В настоящее время статистическое программное обеспечение, такое как язык программирования R , и функции, доступные во многих программах для работы с электронными таблицами, вычисляют значения t-  распределения и его обратной функции без таблиц.

Смотрите также

Примечания

  1. ^ Херст, Саймон. "Характерная функция распределения Стьюдента". Отчет по исследованию финансовой математики. Отчет по исследованию статистики № SRR044-95. Архивировано из оригинала 18 февраля 2010 г.
  2. ^ Нортон, Мэтью; Хохлов, Валентин; Урясев, Стэн (2019). «Расчет CVaR и bPOE для общих распределений вероятностей с применением к оптимизации портфеля и оценке плотности» (PDF) . Annals of Operations Research . 299 (1–2). Springer: 1281–1315. arXiv : 1811.11301 . doi :10.1007/s10479-019-03373-1. S2CID  254231768 . Получено 27.02.2023 .
  3. ^ Гельмерт ФР (1875). «Über die Berechnung des wahrscheinlichen Fehlers aus einer endlichen Anzahl wahrer Beobachtungsfehler». Zeitschrift für Angewandte Mathematik und Physik (на немецком языке). 20 : 300–303.
  4. ^ Гельмерт ФР (1876). «Über die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und uber einige damit in Zusammenhang stehende Fragen». Zeitschrift für Angewandte Mathematik und Physik (на немецком языке). 21 : 192–218.
  5. ^ Гельмерт ФР (1876). «Die Genauigkeit der Formel von Peters zur Berechnung des wahrscheinlichen Beobachtungsfehlers Directer Beobachtungen gleicher Genauigkeit» [Точность формулы Петерса для расчета вероятной ошибки наблюдения прямых наблюдений одинаковой точности]. Astronomische Nachrichten (на немецком языке). 88 (8–9): 113–132. Бибкод : 1876AN.....88..113H. дои : 10.1002/asna.18760880802.
  6. ^ Люрот Дж (1876). «Vergleichung von zwei Werten des wahrscheinlichen Fehlers». Astronomische Nachrichten (на немецком языке). 87 (14): 209–220. Бибкод : 1876AN.....87..209L. дои : 10.1002/asna.18760871402.
  7. ^ Pfanzagl J, Sheynin O (1996). «Исследования по истории вероятности и статистики. XLIV. Предшественник распределения t  ». Biometrika . 83 (4): 891–898. doi :10.1093/biomet/83.4.891. MR  1766040.
  8. ^ Шейнин О (1995). «Работы Гельмерта по теории ошибок». Архив журнала «История точных наук» . 49 (1): 73–104. doi :10.1007/BF00374700. S2CID  121241599.
  9. ^ Пирсон, К. (1895). «Вклад в математическую теорию эволюции. II. Перекос вариации в однородном материале». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 186 (374): 343–414. Bibcode : 1895RSPTA.186..343P. doi : 10.1098/rsta.1895.0010 . ISSN  1364-503X.
  10. ^ "Студент" [ псевдоним. Уильям Сили Госсет ] (1908). "Вероятная ошибка среднего" (PDF) . Biometrika . 6 (1): 1–25. doi :10.1093/biomet/6.1.1. hdl :10338.dmlcz/143545. JSTOR  2331554. {{cite journal}}: CS1 maint: numeric names: authors list (link)
  11. ^ Wendl MC (2016). «Псевдонимная слава». Science . 351 (6280): 1406. Bibcode :2016Sci...351.1406W. doi :10.1126/science.351.6280.1406. PMID  27013722.
  12. ^ Мортимер РГ (2005). Математика для физической химии (3-е изд.). Берлингтон, Массачусетс: Elsevier. стр. 326. ISBN 9780080492889. OCLC  156200058.
  13. ^ ab Fisher RA (1925). "Применение распределения "Стьюдента"" (PDF) . Metron . 5 : 90–104. Архивировано из оригинала (PDF) 5 марта 2016 г.
  14. ^ Уолпол RE, Майерс R, Майерс S, Йе K (2006). Вероятность и статистика для инженеров и ученых (7-е изд.). Нью-Дели, Индиана: Pearson. стр. 237. ISBN 9788177584042. OCLC  818811849.
  15. ^ Крушке, Дж. К. (2015). Выполнение байесовского анализа данных (2-е изд.). Academic Press. ISBN 9780124058880. OCLC  959632184.
  16. ^ Casella G, Berger RL (1990). Статистический вывод . Центр ресурсов Даксбери. стр. 56. ISBN 9780534119584.
  17. ^ ab Jackman, S. (2009). Байесовский анализ для социальных наук . Wiley Series in Probability and Statistics. Wiley. стр. 507. doi :10.1002/9780470686621. ISBN 9780470011546.
  18. ^ Джонсон Н. Л., Коц С., Балакришнан Н. (1995). "Глава 28". Непрерывные одномерные распределения . Том 2 (2-е изд.). Wiley. ISBN 9780471584940.
  19. ^ Hogg RV , Craig AT (1978). Введение в математическую статистику (4-е изд.). Нью-Йорк: Macmillan. ASIN  B010WFO0SA. Разделы 4.4 и 4.8{{cite book}}: CS1 maint: postscript (link)
  20. ^ Cochran WG (1934). «Распределение квадратичных форм в нормальной системе с приложениями к анализу ковариации». Math. Proc. Camb. Philos. Soc. 30 (2): 178–191. Bibcode :1934PCPS...30..178C. doi :10.1017/S0305004100016595. S2CID  122547084.
  21. ^ Gelman AB, Carlin JS, Rubin DB, Stern HS (1997). Байесовский анализ данных (2-е изд.). Boca Raton, FL: Chapman & Hal lp 68. ISBN 9780412039911.
  22. ^ Park SY, Bera AK (2009). "Модель авторегрессии с максимальной энтропией и условной гетероскедастичностью". J. Econom. 150 (2): 219–230. doi :10.1016/j.jeconom.2008.12.014.
  23. ^ ab Bailey RW (1994). "Полярная генерация случайных величин с распределением t  ". Mathematics of Computation . 62 (206): 779–781. Bibcode : 1994MaCom..62..779B. doi : 10.2307/2153537. JSTOR  2153537. S2CID  120459654.
  24. ^ Ord JK (1972). Семейства частотных распределений . Лондон, Великобритания: Griffin. Таблица 5.1. ISBN 9780852641378.
  25. ^ Ord JK (1972). Семейства частотных распределений . Лондон, Великобритания: Griffin. Глава 5. ISBN 9780852641378.
  26. ^ Ланге К. Л., Литтл Р. Дж., Тейлор Дж. М. (1989). «Надежное статистическое моделирование с использованием t-распределения» (PDF) . J. Am. Stat. Assoc. 84 (408): 881–896. doi :10.1080/01621459.1989.10478852. JSTOR  2290063.
  27. ^ Gelman AB, Carlin JB, Stern HS и др. (2014). «Вычислительно эффективное моделирование цепей Маркова». Байесовский анализ данных . Бока-Ратон, Флорида: CRC Press. стр. 293. ISBN 9781439898208.
  28. ^ Шах, Амар; Уилсон, Эндрю Гордон; Гахрамани, Зубин (2014). «Процессы Стьюдента t как альтернативы гауссовым процессам» (PDF) . JMLR . 33 (Труды 17-й Международной конференции по искусственному интеллекту и статистике (AISTATS) 2014, Рейкьявик, Исландия): 877–885. arXiv : 1402.4306 .
  29. ^ Чэнь, Цзэсюнь; Ван, Бо; Горбань, Александр Н. (2019). «Многомерная регрессия гауссовских и t-процессов Стьюдента для многовыходного прогнозирования». Нейронные вычисления и приложения . 32 (8): 3005–3028. arXiv : 1703.04455 . doi : 10.1007/s00521-019-04687-8 .
  30. ^ Сан, Цзинчао; Конг, Майин; Пал, Субхадип (22 июня 2021 г.). «Модифицированное полунормальное распределение: свойства и эффективная схема выборки». Communications in Statistics - Theory and Methods . 52 (5): 1591–1613. doi :10.1080/03610926.2021.1934700. ISSN  0361-0926. S2CID  237919587.

Ссылки

  • Сенн, С.; Ричардсон, В. (1994). «Первый t-  тест». Статистика в медицине . 13 (8): 785–803. doi :10.1002/sim.4780130802. PMID  8047737.
  • Хогг Р.В. , Крейг А.Т. (1978). Введение в математическую статистику (4-е изд.). Нью-Йорк: Macmillan. ASIN  B010WFO0SA.
  • Венейблс, В. Н.; Рипли, Б. Д. (2002). Современная прикладная статистика с S (четвертое издание). Springer.
  • Гельман, Эндрю; Джон Б. Карлин; Хэл С. Стерн; Дональд Б. Рубин (2003). Байесовский анализ данных (второе издание). CRC/Chapman & Hall. ISBN 1-58488-388-X.
  • «Распределение студентов», Энциклопедия математики , EMS Press , 2001 [1994]
  • Самые ранние известные случаи использования некоторых слов из математики (S) (Замечания по истории термина «распределение Стьюдента»)
  • Руо, М. (2013), Вероятность, статистика и оценка (PDF) (краткое издание)Первые студенты на странице 112.
  • Распределение Стьюдента, архив 2021-04-10 на Wayback Machine
Retrieved from "https://en.wikipedia.org/w/index.php?title=Student%27s_t-distribution&oldid=1257291963"