Отрицательное биномиальное распределение

Распределение вероятностей
Различные тексты (и даже различные части этой статьи) принимают немного разные определения для отрицательного биномиального распределения. Их можно отличить по тому, начинается ли поддержка с k  = 0 или с k = r , обозначает ли p вероятность успеха или неудачи и представляет ли r успех или неудачу, [1] поэтому определение конкретной используемой параметризации имеет решающее значение в любом данном тексте.
Функция массы вероятности

Оранжевая линия представляет собой среднее значение, которое на каждом из этих графиков равно 10; зеленая линия показывает стандартное отклонение.
Обозначение Н Б ( г , п ) {\displaystyle \mathrm {NB} (г,\,р)}
Параметрыr > 0 — количество успехов до остановки эксперимента ( целое число , но определение можно распространить и на действительные числа )
p ∈ [0,1] — вероятность успеха в каждом эксперименте (действительное число)
Поддерживатьk ∈ { 0, 1, 2, 3, … } — количество отказов
ПМФ к ( к + г 1 к ) ( 1 п ) к п г , {\displaystyle k\mapsto {k+r-1 \выберите k}\cdot (1-p)^{k}p^{r},} с участием биномиального коэффициента
СДФ к я п ( г , к + 1 ) , {\displaystyle k\mapsto I_ {p}(r,\,k+1),} регуляризованная неполная бета-функция
Иметь в виду г ( 1 п ) п {\displaystyle {\frac {r(1-p)}{p}}}
Режим { ( г 1 ) ( 1 п ) п если  г > 1 0 если  г 1 {\displaystyle {\begin{cases}\left\lfloor {\frac {(r-1)(1-p)}{p}}\right\rfloor &{\text{if }}r>1\\0&{\text{if }}r\leq 1\end{cases}}}
Дисперсия г ( 1 п ) п 2 {\displaystyle {\frac {r(1-p)}{p^{2}}}}
Асимметрия 2 п ( 1 п ) г {\displaystyle {\frac {2-p}{\sqrt {(1-p)r}}}}
Избыточный эксцесс 6 г + п 2 ( 1 п ) г {\displaystyle {\frac {6}{r}}+{\frac {p^{2}}{(1-p)r}}}
МГФ ( п 1 ( 1 п ) е т ) г  для  т < бревно ( 1 п ) {\displaystyle {\biggl (}{\frac {p}{1-(1-p)e^{t}}}{\biggr )}^{\!r}{\text{ для }}t<-\log(1-p)}
CF ( п 1 ( 1 п ) е я т ) г  с  т Р {\displaystyle {\biggl (}{\frac {p}{1-(1-p)e^{i\,t}}}{\biggr )}^{\!r}{\text{ с }}t\in \mathbb {R} }
ПГФ ( п 1 ( 1 п ) з ) г  для  | з | < 1 п {\displaystyle {\biggl (}{\frac {p}{1-(1-p)z}}{\biggr )}^{\!r}{\text{ для }}|z|<{\frac {1}{p}}}
Информация о Фишере г п 2 ( 1 п ) {\displaystyle {\frac {r}{p^{2}(1-p)}}}
Метод моментов г = Э [ Х ] 2 В [ Х ] Э [ Х ] {\displaystyle r={\frac {E[X]^{2}}{V[X]-E[X]}}}
п = Э [ Х ] В [ Х ] {\displaystyle p={\frac {E[X]}{V[X]}}}

В теории вероятностей и статистике отрицательное биномиальное распределение — это дискретное распределение вероятностей , которое моделирует количество неудач в последовательности независимых и одинаково распределенных испытаний Бернулли до того, как произойдет определенное/постоянное/фиксированное количество успехов . [2] Например, мы можем определить выпадение 6 на некоторых костях как успех, а выпадение любого другого числа — как неудачу, и спросить, сколько неудачных бросков произойдет, прежде чем мы увидим третий успех ( ). В таком случае распределение вероятностей количества неудач, которые появятся, будет отрицательным биномиальным распределением. г {\displaystyle r} г = 3 {\displaystyle r=3}

Альтернативная формулировка — моделировать общее количество попыток (вместо количества неудач). Фактически, для определенного (неслучайного) количества успехов ( r ), количество неудач ( n  −  r ) является случайным, поскольку общее количество попыток ( n ) является случайным. Например, мы могли бы использовать отрицательное биномиальное распределение для моделирования количества дней n (случайных), в течение которых определенная машина работает (задается r ), прежде чем сломается.

Распределение Паскаля (в честь Блеза Паскаля ) и распределение Полиа (в честь Джорджа Полиа ) являются частными случаями отрицательного биномиального распределения. Среди инженеров, климатологов и других специалистов принято использовать «отрицательный бином» или «Паскаль» для случая целочисленного параметра времени остановки ( ) и использовать «Полиа» для случая действительного значения. г {\displaystyle r}

Для случаев связанных дискретных событий, таких как вспышки торнадо, распределения Полиа могут использоваться для получения более точных моделей, чем распределение Пуассона , позволяя среднему значению и дисперсии быть разными, в отличие от Пуассона. Отрицательное биномиальное распределение имеет дисперсию , при этом распределение становится идентичным Пуассону в пределе для заданного среднего значения (т. е. когда сбои становятся все более редкими). ​​Это может сделать распределение полезной сверхдисперсной альтернативой распределению Пуассона, например, для надежной модификации регрессии Пуассона . В эпидемиологии оно использовалось для моделирования передачи заболеваний для инфекционных заболеваний, где вероятное число последующих инфекций может значительно различаться от человека к человеку и от обстановки к обстановке. [3] В более общем плане оно может быть уместным, когда события имеют положительно коррелированные события, вызывающие большую дисперсию , чем если бы события были независимыми, из-за положительного ковариационного члена. μ / п {\displaystyle \мю /п} п 1 {\displaystyle p\to 1} μ {\displaystyle \мю}

Термин «отрицательный биномиальный», вероятно, связан с тем, что определенный биномиальный коэффициент , который появляется в формуле для функции массы вероятности распределения, можно записать проще с отрицательными числами. [4]

Определения

Представьте себе последовательность независимых испытаний Бернулли : каждое испытание имеет два потенциальных результата, называемых «успех» и «неудача». В каждом испытании вероятность успеха равна , а неудачи — . Мы наблюдаем эту последовательность до тех пор, пока не произойдет предопределенное количество успехов. Затем случайное количество наблюдаемых неудач, , следует отрицательному биномиальному (или Паскалевскому ) распределению: п {\displaystyle p} 1 п {\displaystyle 1-п} г {\displaystyle r} Х {\displaystyle X}

Х Примечание. ( г , п ) {\displaystyle X\sim \operatorname {NB} (r,p)}

Функция массы вероятности

Функция массы вероятности отрицательного биномиального распределения равна

ф ( к ; г , п ) Пр ( Х = к ) = ( к + г 1 к ) ( 1 п ) к п г {\displaystyle f(k;r,p)\equiv \Pr(X=k)={\binom {k+r-1}{k}}(1-p)^{k}p^{r}}

где r — количество успехов, k — количество неудач, а p — вероятность успеха в каждой попытке.

Здесь величина в скобках является биномиальным коэффициентом и равна

( к + г 1 к ) = ( к + г 1 ) ! ( г 1 ) ! ( к ) ! = ( к + г 1 ) ( к + г 2 ) ( г ) к ! = Г ( к + г ) к !   Г ( г ) . {\displaystyle {\binom {k+r-1}{k}}={\frac {(k+r-1)!}{(r-1)!\,(k)!}}={\frac {(k+r-1)(k+r-2)\dotsm (r)}{k!}}={\frac {\Gamma (k+r)}{k!\ \Gamma (r)}}.}

Обратите внимание, что Γ(r) — это гамма-функция .

Из k  +  r − 1 испытаний выбираются k неудач  , а не k  +  r, поскольку последнее из k  +  r испытаний по определению является успехом.

Эту величину можно также записать следующим образом, что объясняет название «отрицательный бином»:

( к + г 1 ) ( г ) к ! = ( 1 ) к ( г ) ( г 1 ) ( г 2 ) ( г к + 1 ) к  факторы к ! = ( 1 ) к ( г к ) . {\displaystyle {\begin{align}&{\frac {(k+r-1)\dotsm (r)}{k!}}\\[10pt]={}&(-1)^{k}{\frac {\overbrace {(-r)(-r-1)(-r-2)\dotsm (-r-k+1)} ^{k{\text{ factors}}}}{k!}}=(-1)^{k}{\binom {-r}{{\phantom {-}}k}}.\end{align}}}

Обратите внимание, что согласно последнему выражению и биномиальному ряду для любого 0 ≤ p < 1 и , д = 1 п {\displaystyle q=1-p}

п г = ( 1 д ) г = к = 0 ( г к ) ( д ) к = к = 0 ( к + г 1 к ) д к {\displaystyle p^{-r}=(1-q)^{-r}=\sum _{k=0}^{\infty }{\binom {-r}{{\phantom {-}}k}}(-q)^{k}=\sum _{k=0}^{\infty }{\binom {k+r-1}{k}}q^{k}}

следовательно, члены функции массы вероятности действительно дают в сумме единицу, как показано ниже.

к = 0 ( к + г 1 к ) ( 1 п ) к п г = п г п г = 1 {\displaystyle \sum _{k=0}^{\infty }{\binom {k+r-1}{k}}(1-p)^{k}p^{r}=p^{-r}p^{r}=1}

Чтобы понять приведенное выше определение функции массы вероятности, обратите внимание, что вероятность для каждой конкретной последовательности из r  успехов и k  неудач равна p r (1 − p ) k , поскольку предполагается, что результаты испытаний k  +  r происходят независимо . Поскольку r -й успех всегда наступает последним, остается выбрать k  испытаний с неудачами из оставшихся k  +  r  − 1 испытаний. Вышеуказанный биномиальный коэффициент, благодаря своей комбинаторной интерпретации, дает точное число всех этих последовательностей длины k  +  r  − 1.

Кумулятивная функция распределения

Кумулятивную функцию распределения можно выразить через регуляризованную неполную бета-функцию : [2] [5]

Ф ( к ; г , п ) Пр ( Х к ) = я п ( г , к + 1 ) . {\displaystyle F(k;r,p)\equiv \Pr(X\leq k)=I_{p}(r,k+1).}

(Эта формула использует ту же параметризацию, что и в таблице статьи, где r — число успехов, а также среднее значение.) п = г / ( г + μ ) {\displaystyle p=r/(r+\mu )} μ {\displaystyle \мю}

Его также можно выразить через кумулятивную функцию распределения биномиального распределения : [6]

Ф ( к ; г , п ) = Ф биномиальный ( к ; н = к + г , 1 п ) . {\displaystyle F(k;r,p)=F_{\text{binomial}}(k;n=k+r,1-p).}

Альтернативные формулировки

Некоторые источники могут определять отрицательное биномиальное распределение немного иначе, чем первичное здесь. Наиболее распространенные вариации — это когда случайная величина X учитывает разные вещи. Эти вариации можно увидеть в таблице здесь:

X имеет значение...Функция массы вероятностиФормулаАльтернативная формула

(используя эквивалентный бином)

Альтернативная формула

(упрощенно с использованием: ) n = k + r {\textstyle n=k+r}

Поддерживать
1k неудач, учитывая r успехов f ( k ; r , p ) Pr ( X = k ) = {\textstyle f(k;r,p)\equiv \Pr(X=k)=} ( k + r 1 k ) p r ( 1 p ) k {\textstyle {\binom {k+r-1}{k}}p^{r}(1-p)^{k}} [7] [5] [8] ( k + r 1 r 1 ) p r ( 1 p ) k {\textstyle {\binom {k+r-1}{r-1}}p^{r}(1-p)^{k}} [2]

[9] [10] [11]

( n 1 k ) p r ( 1 p ) k {\textstyle {\binom {n-1}{k}}p^{r}(1-p)^{k}} for  k = 0 , 1 , 2 , {\displaystyle {\text{for }}k=0,1,2,\ldots }
2n испытаний, учитывая r успехов f ( n ; r , p ) Pr ( X = n ) = {\textstyle f(n;r,p)\equiv \Pr(X=n)=} ( n 1 r 1 ) p r ( 1 p ) n r {\textstyle {\binom {n-1}{r-1}}p^{r}(1-p)^{n-r}} [5] [11] [12] [13] [14] ( n 1 n r ) p r ( 1 p ) n r {\textstyle {\binom {n-1}{n-r}}p^{r}(1-p)^{n-r}} for  n = r , r + 1 , r + 2 , {\displaystyle {\text{for }}n=r,r+1,r+2,\dotsc }
3n испытаний, учитывая r неудач f ( n ; r , p ) Pr ( X = n ) = {\textstyle f(n;r,p)\equiv \Pr(X=n)=} ( n 1 r 1 ) p n r ( 1 p ) r {\textstyle {\binom {n-1}{r-1}}p^{n-r}(1-p)^{r}} ( n 1 n r ) p n r ( 1 p ) r {\textstyle {\binom {n-1}{n-r}}p^{n-r}(1-p)^{r}} ( n 1 k ) p k ( 1 p ) r {\textstyle {\binom {n-1}{k}}p^{k}(1-p)^{r}}
4k успехов, учитывая r неудач f ( k ; r , p ) Pr ( X = k ) = {\textstyle f(k;r,p)\equiv \Pr(X=k)=} ( k + r 1 k ) p k ( 1 p ) r {\textstyle {\binom {k+r-1}{k}}p^{k}(1-p)^{r}} ( k + r 1 r 1 ) p k ( 1 p ) r {\textstyle {\binom {k+r-1}{r-1}}p^{k}(1-p)^{r}} for  k = 0 , 1 , 2 , {\displaystyle {\text{for }}k=0,1,2,\ldots }
-k успехов, учитывая n попыток f ( k ; n , p ) Pr ( X = k ) = {\textstyle f(k;n,p)\equiv \Pr(X=k)=} Это биномиальное распределение, а не отрицательное биномиальное: ( n k ) p k ( 1 p ) n k = ( n n k ) p k ( 1 p ) n k = ( n k ) p k ( 1 p ) r {\textstyle {\binom {n}{k}}p^{k}(1-p)^{n-k}={\binom {n}{n-k}}p^{k}(1-p)^{n-k}={\binom {n}{k}}p^{k}(1-p)^{r}} for  k = 0 , 1 , 2 , , n {\displaystyle {\text{for }}k=0,1,2,\dotsc ,n}

Каждое из четырех определений отрицательного биномиального распределения может быть выражено немного разными, но эквивалентными способами. Первая альтернативная формулировка — это просто эквивалентная форма биномиального коэффициента, то есть: . Вторая альтернативная формулировка несколько упрощает выражение, признавая, что общее число попыток — это просто число успехов и неудач, то есть: . Эти вторые формулировки могут быть более интуитивными для понимания, однако они, возможно, менее практичны, поскольку имеют больше терминов. ( a b ) = ( a a b ) for    0 b a {\textstyle {\binom {a}{b}}={\binom {a}{a-b}}\quad {\text{for }}\ 0\leq b\leq a} n = r + k {\textstyle n=r+k}

  • Определение, где X — это число n попыток , которые происходят для заданного числа r успехов , похоже на первичное определение, за исключением того, что вместо числа неудач указывается число попыток. Это добавляет r к значению случайной величины, смещая ее поддержку и среднее значение.
  • Определение, где X — это число k успехов (или n попыток ), которые происходят для заданного числа r неудач , похоже на основное определение, используемое в этой статье, за исключением того, что числа неудач и успехов меняются местами при рассмотрении того, что подсчитывается, и того, что дано. Обратите внимание, однако, что p по-прежнему относится к вероятности «успеха».
  • Определение отрицательного биномиального распределения можно распространить на случай, когда параметр r может принимать положительное действительное значение. Хотя невозможно визуализировать нецелое число «неудач», мы все равно можем формально определить распределение через его функцию массы вероятности. Проблема распространения определения на действительные (положительные) r сводится к распространению биномиального коэффициента на его действительный аналог на основе гамма-функции :
( k + r 1 k ) = ( k + r 1 ) ( k + r 2 ) ( r ) k ! = Γ ( k + r ) k ! Γ ( r ) {\displaystyle {\binom {k+r-1}{k}}={\frac {(k+r-1)(k+r-2)\dotsm (r)}{k!}}={\frac {\Gamma (k+r)}{k!\,\Gamma (r)}}}
Подставив это выражение в исходное определение, мы говорим, что X имеет отрицательное биномиальное (или распределение Полиа ) распределение, если оно имеет функцию массы вероятности :
f ( k ; r , p ) Pr ( X = k ) = Γ ( k + r ) k ! Γ ( r ) ( 1 p ) k p r for  k = 0 , 1 , 2 , {\displaystyle f(k;r,p)\equiv \Pr(X=k)={\frac {\Gamma (k+r)}{k!\,\Gamma (r)}}(1-p)^{k}p^{r}\quad {\text{for }}k=0,1,2,\dotsc }
Здесь r — действительное положительное число.

В отрицательной биномиальной регрессии [15] распределение определяется в терминах его среднего значения, , которое затем соотносится с объясняющими переменными, как в линейной регрессии или других обобщенных линейных моделях . Из выражения для среднего значения m можно вывести и . Затем, подставляя эти выражения в выражение для функции массы вероятности, когда r имеет действительное значение, получаем эту параметризацию функции массы вероятности в терминах  m : m = r ( 1 p ) p {\textstyle m={\frac {r(1-p)}{p}}} p = r m + r {\textstyle p={\frac {r}{m+r}}} 1 p = m m + r {\textstyle 1-p={\frac {m}{m+r}}}

Pr ( X = k ) = Γ ( r + k ) k ! Γ ( r ) ( r r + m ) r ( m r + m ) k for  k = 0 , 1 , 2 , {\displaystyle \Pr(X=k)={\frac {\Gamma (r+k)}{k!\,\Gamma (r)}}\left({\frac {r}{r+m}}\right)^{r}\left({\frac {m}{r+m}}\right)^{k}\quad {\text{for }}k=0,1,2,\dotsc }

Тогда дисперсию можно записать как . Некоторые авторы предпочитают устанавливать и выражать дисперсию как . В этом контексте и в зависимости от автора либо параметр r , либо его обратная величина α упоминаются как «параметр дисперсии», «параметр формы» или «коэффициент кластеризации» [16] или параметр «неоднородности» [15] или «агрегации». [10] Термин «агрегация» в частности используется в экологии при описании количества отдельных организмов. Уменьшение параметра агрегации r к нулю соответствует увеличению агрегации организмов; увеличение r к бесконечности соответствует отсутствию агрегации, что можно описать регрессией Пуассона . m + m 2 r {\textstyle m+{\frac {m^{2}}{r}}} α = 1 r {\textstyle \alpha ={\frac {1}{r}}} m + α m 2 {\textstyle m+\alpha m^{2}}

Альтернативные параметризации

Иногда распределение параметризуется через его среднее значение μ и дисперсию σ 2 :

p = μ σ 2 , r = μ 2 σ 2 μ , Pr ( X = k ) = ( k + μ 2 σ 2 μ 1 k ) ( 1 μ σ 2 ) k ( μ σ 2 ) μ 2 / ( σ 2 μ ) E ( X ) = μ Var ( X ) = σ 2 . {\displaystyle {\begin{aligned}&p={\frac {\mu }{\sigma ^{2}}},\\[6pt]&r={\frac {\mu ^{2}}{\sigma ^{2}-\mu }},\\[3pt]&\Pr(X=k)={k+{\frac {\mu ^{2}}{\sigma ^{2}-\mu }}-1 \choose k}\left(1-{\frac {\mu }{\sigma ^{2}}}\right)^{k}\left({\frac {\mu }{\sigma ^{2}}}\right)^{\mu ^{2}/(\sigma ^{2}-\mu )}\\&\operatorname {E} (X)=\mu \\&\operatorname {Var} (X)=\sigma ^{2}.\end{aligned}}}

Другая популярная параметризация использует r и вероятность отказа β :

p = 1 1 + β Pr ( X = k ) = ( k + r 1 k ) ( β 1 + β ) k ( 1 1 + β ) r E ( X ) = r β Var ( X ) = r β ( 1 + β ) . {\displaystyle {\begin{aligned}&p={\frac {1}{1+\beta }}\\&\Pr(X=k)={k+r-1 \choose k}\left({\frac {\beta }{1+\beta }}\right)^{k}\left({\frac {1}{1+\beta }}\right)^{r}\\&\operatorname {E} (X)=r\beta \\&\operatorname {Var} (X)=r\beta (1+\beta ).\end{aligned}}}

Примеры

Продолжительность пребывания в больнице

Продолжительность пребывания в больнице является примером реальных данных, которые можно хорошо смоделировать с помощью отрицательного биномиального распределения посредством отрицательной биномиальной регрессии . [17] [18]

Продажа конфет

Пэт Коллис должен продать шоколадные батончики, чтобы собрать деньги на экскурсию для 6-го класса. Пэту (довольно грубо) не положено возвращаться домой, пока не будет продано пять шоколадных батончиков. Поэтому ребенок ходит от двери к двери, продавая шоколадные батончики. В каждом доме вероятность продать один шоколадный батончик составляет 0,6, а вероятность не продать ничего — 0,4.

Какова вероятность продать последний шоколадный батончик в nдоме?

Успешная продажа конфет достаточное количество раз определяет наш критерий остановки (в отличие от неспособности продать их), поэтому k в этом случае представляет собой количество неудач, а r представляет собой количество успехов. Напомним, что распределение NB( r , p ) описывает вероятность k неудач и r успехов в k  +  r испытаниях Бернулли( p ) с успехом в последнем испытании. Продажа пяти шоколадных батончиков означает получение пяти успехов. Количество испытаний (т. е. домов), которое для этого требуется, составляет k  + 5 =  n . Случайная величина, которая нас интересует, — это количество домов, поэтому мы подставляем k  =  n  − 5 в функцию масс NB(5, 0,4) и получаем следующую функцию масс распределения домов (для n  ≥ 5):

f ( n ) = ( ( n 5 ) + 5 1 n 5 ) ( 1 0.4 ) 5 0.4 n 5 = ( n 1 n 5 ) 3 5 2 n 5 5 n . {\displaystyle f(n)={(n-5)+5-1 \choose n-5}\;(1-0.4)^{5}\;0.4^{n-5}={n-1 \choose n-5}\;3^{5}\;{\frac {2^{n-5}}{5^{n}}}.}

Какова вероятность того, что Пэт закончит в десятом доме?

f ( 10 ) = 0.1003290624. {\displaystyle f(10)=0.1003290624.\,}

Какова вероятность того, что Пэт доберется до восьмого дома или раньше?

Чтобы закончить в восьмом доме или раньше, Пэт должен закончить в пятом, шестом, седьмом или восьмом доме. Сложите эти вероятности:

f ( 5 ) = 0.07776 {\displaystyle f(5)=0.07776\,}
f ( 6 ) = 0.15552 {\displaystyle f(6)=0.15552\,}
f ( 7 ) = 0.18662 {\displaystyle f(7)=0.18662\,}
f ( 8 ) = 0.17418 {\displaystyle f(8)=0.17418\,}
j = 5 8 f ( j ) = 0.59408. {\displaystyle \sum _{j=5}^{8}f(j)=0.59408.}

Какова вероятность того, что Пэт исчерпает все 30 домов, которые окажутся в этом районе?

Это можно выразить как вероятность того, что Пэт не закончит в домах с пятого по тридцатый:

1 j = 5 30 f ( j ) = 1 I 0.4 ( 5 , 30 5 + 1 ) 1 0.99999342 = 0.00000658. {\displaystyle 1-\sum _{j=5}^{30}f(j)=1-I_{0.4}(5,30-5+1)\approx 1-0.99999342=0.00000658.}

Из-за довольно высокой вероятности того, что Пэт продаст дом каждому дому (60 процентов), вероятность того, что она не выполнит свое задание, ничтожно мала.

Характеристики

Ожидание

Ожидаемое общее число попыток, необходимое для получения r успехов, равно . Таким образом, ожидаемое число неудач будет равно этому значению за вычетом успехов: r p {\displaystyle {\frac {r}{p}}}

E [ NB ( r , p ) ] = r p r = r ( 1 p ) p {\displaystyle E[\operatorname {NB} (r,p)]={\frac {r}{p}}-r={\frac {r(1-p)}{p}}}

Ожидание успеха

Ожидаемое общее число неудач в отрицательном биномиальном распределении с параметрами ( r , p ) равно r (1 −  p )/ p . Чтобы увидеть это, представьте, что эксперимент, имитирующий отрицательное биномиальное распределение, выполняется много раз. То есть выполняется набор испытаний до тех пор, пока не будет получено r успехов, затем еще один набор испытаний, затем еще один и т. д. Запишите количество испытаний, выполненных в каждом эксперименте: a , b , c , ... и установите a  +  b  +  c  + ... =  N . Теперь мы ожидаем около Np успехов в общей сложности. Допустим, эксперимент был выполнен n раз. Тогда всего будет nr успехов. Поэтому мы ожидаем nr = Np , поэтому N / nr / p . Видите, что N / n — это просто среднее число испытаний на эксперимент. Вот что мы подразумеваем под «ожиданием». Среднее число неудач на эксперимент равно N / n  −  rr / p  −  r = r (1 −  p )/ p . Это соответствует среднему значению, указанному в поле с правой стороны этой страницы.

Строгий вывод можно сделать, представив отрицательное биномиальное распределение как сумму времен ожидания. Пусть с соглашением представляет собой количество неудач, наблюдаемых до успехов с вероятностью успеха . И пусть где представляет собой количество неудач до того, как будет достигнут успех. Мы можем думать о как о времени ожидания (количество неудач) между th и th успехом. Таким образом X r NB ( r , p ) {\displaystyle X_{r}\sim \operatorname {NB} (r,p)} X {\displaystyle X} r {\displaystyle r} p {\displaystyle p} Y i G e o m ( p ) {\displaystyle Y_{i}\sim Geom(p)} Y i {\displaystyle Y_{i}} Y i {\displaystyle Y_{i}} i {\displaystyle i} ( i 1 ) {\displaystyle (i-1)}

X r = Y 1 + Y 2 + + Y r . {\displaystyle X_{r}=Y_{1}+Y_{2}+\cdots +Y_{r}.}

Среднее значение равно

E [ X r ] = E [ Y 1 ] + E [ Y 2 ] + + E [ Y r ] = r ( 1 p ) p , {\displaystyle E[X_{r}]=E[Y_{1}]+E[Y_{2}]+\cdots +E[Y_{r}]={\frac {r(1-p)}{p}},}

что следует из факта . E [ Y i ] = ( 1 p ) / p {\displaystyle E[Y_{i}]=(1-p)/p}

Дисперсия

При подсчете числа неудач до r -го успеха дисперсия равна  r (1 −  p )/ p 2 . При подсчете числа успехов до r -го провала, как в альтернативной формулировке (3) выше, дисперсия равна  rp /(1 −  p ) 2 .

Связь с биномиальной теоремой

Предположим, что Y — случайная величина с биномиальным распределением с параметрами n и p . Предположим, что p  +  q  = 1, причем pq  ≥ 0, тогда

1 = 1 n = ( p + q ) n . {\displaystyle 1=1^{n}=(p+q)^{n}.}

Используя биномиальную теорему Ньютона , это можно записать так:

( p + q ) n = k = 0 ( n k ) p k q n k , {\displaystyle (p+q)^{n}=\sum _{k=0}^{\infty }{\binom {n}{k}}p^{k}q^{n-k},}

в котором верхняя граница суммирования бесконечна. В этом случае биномиальный коэффициент

( n k ) = n ( n 1 ) ( n 2 ) ( n k + 1 ) k ! . {\displaystyle {\binom {n}{k}}={n(n-1)(n-2)\cdots (n-k+1) \over k!}.}

определяется, когда n — действительное число, а не просто положительное целое число. Но в нашем случае биномиального распределения оно равно нулю, когда k > n . Тогда мы можем сказать, например,

( p + q ) 8.3 = k = 0 ( 8.3 k ) p k q 8.3 k . {\displaystyle (p+q)^{8.3}=\sum _{k=0}^{\infty }{\binom {8.3}{k}}p^{k}q^{8.3-k}.}

Теперь предположим, что r > 0, и мы используем отрицательную экспоненту:

1 = p r p r = p r ( 1 q ) r = p r k = 0 ( r k ) ( q ) k . {\displaystyle 1=p^{r}\cdot p^{-r}=p^{r}(1-q)^{-r}=p^{r}\sum _{k=0}^{\infty }{\binom {-r}{k}}(-q)^{k}.}

Тогда все члены положительны, а член

p r ( r k ) ( q ) k = ( k + r 1 k ) p r q k {\displaystyle p^{r}{\binom {-r}{k}}(-q)^{k}={\binom {k+r-1}{k}}p^{r}q^{k}}

— это просто вероятность того, что количество неудач до r -го успеха равно k , при условии, что r — целое число. (Если r — отрицательное нецелое число, так что показатель степени — положительное нецелое число, то некоторые члены в сумме выше отрицательны, поэтому у нас нет распределения вероятностей на множестве всех неотрицательных целых чисел.)

Теперь мы также допускаем нецелые значения r . Тогда у нас есть правильное отрицательное биномиальное распределение, которое является обобщением распределения Паскаля, совпадающим с распределением Паскаля, когда r оказывается положительным целым числом.

Напомним, что вышеизложенное

Сумма независимых отрицательно-биномиально распределенных случайных величин r 1 и r 2 с одинаковым значением параметра p распределена отрицательно-биномиально с тем же p, но со значением  r r 1  +  r 2 .

Это свойство сохраняется, когда определение обобщено таким образом, и дает быстрый способ увидеть, что отрицательное биномиальное распределение бесконечно делимо .

Рекуррентные соотношения

Имеют место следующие рекуррентные соотношения :

Для функции массы вероятности

{ ( k + 1 ) Pr ( X = k + 1 ) p Pr ( X = k ) ( k + r ) = 0 , Pr ( X = 0 ) = ( 1 p ) r . {\displaystyle {\begin{cases}(k+1)\Pr(X=k+1)-p\Pr(X=k)(k+r)=0,\\[5pt]\Pr(X=0)=(1-p)^{r}.\end{cases}}}

Для моментов m k = E ( X k ) , {\displaystyle m_{k}=\mathbb {E} (X^{k}),}

m k + 1 = r P m k + ( P 2 + P ) d m k d P , P := ( 1 p ) / p , m 0 = 1. {\displaystyle m_{k+1}=rPm_{k}+(P^{2}+P){dm_{k} \over dP},\quad P:=(1-p)/p,\quad m_{0}=1.}

Для кумулянтов

κ k + 1 = ( Q 1 ) Q d κ k d Q , Q := 1 / p , κ 1 = r ( Q 1 ) . {\displaystyle \kappa _{k+1}=(Q-1)Q{d\kappa _{k} \over dQ},\quad Q:=1/p,\quad \kappa _{1}=r(Q-1).}
  • Геометрическое распределение (по {0, 1, 2, 3, ...}) является частным случаем отрицательного биномиального распределения, при этом
Geom ( p ) = NB ( 1 , p ) . {\displaystyle \operatorname {Geom} (p)=\operatorname {NB} (1,\,p).\,}

Распределение Пуассона

Рассмотрим последовательность отрицательных биномиальных случайных величин, где параметр остановки r стремится к бесконечности, а вероятность успеха p в каждом испытании стремится к единице, таким образом, чтобы сохранить среднее значение распределения (т.е. ожидаемое число неудач) постоянным. Обозначая это среднее значение как λ , параметр p будет p  =  r /( r  +  λ )

Mean: λ = ( 1 p ) r p p = r r + λ , Variance: λ ( 1 + λ r ) > λ , thus always overdispersed . {\displaystyle {\begin{aligned}{\text{Mean:}}\quad &\lambda ={\frac {(1-p)r}{p}}\quad \Rightarrow \quad p={\frac {r}{r+\lambda }},\\{\text{Variance:}}\quad &\lambda \left(1+{\frac {\lambda }{r}}\right)>\lambda ,\quad {\text{thus always overdispersed}}.\end{aligned}}}

При этой параметризации функция массы вероятности будет иметь вид

f ( k ; r , p ) = Γ ( k + r ) k ! Γ ( r ) ( 1 p ) k p r = λ k k ! Γ ( r + k ) Γ ( r ) ( r + λ ) k 1 ( 1 + λ r ) r {\displaystyle f(k;r,p)={\frac {\Gamma (k+r)}{k!\cdot \Gamma (r)}}(1-p)^{k}p^{r}={\frac {\lambda ^{k}}{k!}}\cdot {\frac {\Gamma (r+k)}{\Gamma (r)\;(r+\lambda )^{k}}}\cdot {\frac {1}{\left(1+{\frac {\lambda }{r}}\right)^{r}}}}

Теперь, если рассмотреть предел при r → ∞, второй множитель будет сходиться к единице, а третий — к показательной функции:

lim r f ( k ; r , p ) = λ k k ! 1 1 e λ , {\displaystyle \lim _{r\to \infty }f(k;r,p)={\frac {\lambda ^{k}}{k!}}\cdot 1\cdot {\frac {1}{e^{\lambda }}},}

которая является функцией массы случайной величины , распределенной по закону Пуассона, с ожидаемым значением  λ .

Другими словами, альтернативно параметризованное отрицательное биномиальное распределение сходится к распределению Пуассона, а r контролирует отклонение от Пуассона. Это делает отрицательное биномиальное распределение подходящим в качестве надежной альтернативы Пуассону, которая приближается к Пуассону при больших r , но имеет большую дисперсию, чем Пуассон при малых r .

Poisson ( λ ) = lim r NB ( r , r r + λ ) . {\displaystyle \operatorname {Poisson} (\lambda )=\lim _{r\to \infty }\operatorname {NB} \left(r,{\frac {r}{r+\lambda }}\right).}

Гамма-Пуассоновская смесь

Отрицательное биномиальное распределение также возникает как непрерывная смесь распределений Пуассона (т. е. сложное распределение вероятностей ), где смешанное распределение скорости Пуассона является гамма-распределением . То есть, мы можем рассматривать отрицательное биномиальное распределение как распределение Пуассона ( λ ) , где λ сама по себе является случайной величиной, распределенной как гамма-распределение с формой r и масштабом θ = (1 − p )/ p или соответственно скоростью β = p /(1 − p ) .

Чтобы продемонстрировать интуицию, стоящую за этим утверждением, рассмотрим два независимых процесса Пуассона, «Успех» и «Неудача», с интенсивностями p и 1 −  p . Вместе процессы Успех и Неудача эквивалентны одному процессу Пуассона с интенсивностью 1, где возникновение процесса является успехом, если соответствующее независимое подбрасывание монеты выпадает орлом с вероятностью p ; в противном случае это неудача. Если r — счетное число, подбрасывания монеты показывают, что количество успехов до r -й неудачи следует отрицательному биномиальному распределению с параметрами r и p . Однако это количество также является количеством процесса Успех Пуассона в случайное время T r -го появления в процессе Неудачи Пуассона. Количество Успехов следует распределению Пуассона со средним значением pT , где T — время ожидания для r вхождений в процессе Пуассона с интенсивностью 1 −  p , т. е. T является гамма-распределением с параметром формы r и интенсивностью 1 −  p . Таким образом, отрицательное биномиальное распределение эквивалентно распределению Пуассона со средним pT , где случайная величина T является гамма-распределенной с параметром формы r и интенсивностью (1 − p ) . Предыдущий абзац следует, поскольку λ  =  pT является гамма-распределенной с параметром формы r и интенсивностью (1 − p )/ p .

Следующий формальный вывод (который не зависит от того, является ли r счетным числом) подтверждает интуицию.

0 f Poisson ( λ ) ( k ) × f Gamma ( r , p 1 p ) ( λ ) d λ = 0 λ k k ! e λ × 1 Γ ( r ) ( p 1 p λ ) r 1 e p 1 p λ ( p 1 p ) d λ = ( p 1 p ) r 1 k ! Γ ( r ) 0 λ r + k 1 e λ p + 1 p 1 p d λ = ( p 1 p ) r 1 k ! Γ ( r ) Γ ( r + k ) ( 1 p ) k + r 0 f Gamma ( k + r , 1 1 p ) ( λ ) d λ = Γ ( r + k ) k ! Γ ( r ) ( 1 p ) k p r = f ( k ; r , p ) . {\displaystyle {\begin{aligned}&\int _{0}^{\infty }f_{\operatorname {Poisson} (\lambda )}(k)\times f_{\operatorname {Gamma} \left(r,\,{\frac {p}{1-p}}\right)}(\lambda )\,\mathrm {d} \lambda \\[8pt]={}&\int _{0}^{\infty }{\frac {\lambda ^{k}}{k!}}e^{-\lambda }\times {\frac {1}{\Gamma (r)}}\left({\frac {p}{1-p}}\lambda \right)^{r-1}e^{-{\frac {p}{1-p}}\lambda }\,\left({\frac {p}{1-p}}\,\right)\mathrm {d} \lambda \\[8pt]={}&\left({\frac {p}{1-p}}\right)^{r}{\frac {1}{k!\,\Gamma (r)}}\int _{0}^{\infty }\lambda ^{r+k-1}e^{-\lambda {\frac {p+1-p}{1-p}}}\;\mathrm {d} \lambda \\[8pt]={}&\left({\frac {p}{1-p}}\right)^{r}{\frac {1}{k!\,\Gamma (r)}}\Gamma (r+k)(1-p)^{k+r}\int _{0}^{\infty }f_{\operatorname {Gamma} \left(k+r,{\frac {1}{1-p}}\right)}(\lambda )\;\mathrm {d} \lambda \\[8pt]={}&{\frac {\Gamma (r+k)}{k!\;\Gamma (r)}}\;(1-p)^{k}\,p^{r}\\[8pt]={}&f(k;r,p).\end{aligned}}}

Из-за этого отрицательное биномиальное распределение также известно как распределение гамма-Пуассона (смесь) . Отрицательное биномиальное распределение изначально было получено как предельный случай распределения гамма-Пуассона. [19]

Распределение суммы геометрически распределенных случайных величин

Если Y r — случайная величина, следующая отрицательному биномиальному распределению с параметрами r и p и поддерживающая {0, 1, 2, ...}, то Y r — сумма r независимых переменных, следующих геометрическому распределению (по {0, 1, 2, ...}) с параметром p . В результате центральной предельной теоремы Y r ( правильно масштабированная и сдвинутая) является приблизительно нормальной для достаточно больших  r .

Более того, если B s + r — случайная величина, следующая биномиальному распределению с параметрами s  +  r и p , то

Pr ( Y r s ) = 1 I p ( s + 1 , r ) = 1 I p ( ( s + r ) ( r 1 ) , ( r 1 ) + 1 ) = 1 Pr ( B s + r r 1 ) = Pr ( B s + r r ) = Pr ( after  s + r  trials, there are at least  r  successes ) . {\displaystyle {\begin{aligned}\Pr(Y_{r}\leq s)&{}=1-I_{p}(s+1,r)\\[5pt]&{}=1-I_{p}((s+r)-(r-1),(r-1)+1)\\[5pt]&{}=1-\Pr(B_{s+r}\leq r-1)\\[5pt]&{}=\Pr(B_{s+r}\geq r)\\[5pt]&{}=\Pr({\text{after }}s+r{\text{ trials, there are at least }}r{\text{ successes}}).\end{aligned}}}

В этом смысле отрицательное биномиальное распределение является «обратным» биномиальному распределению.

Сумма независимых отрицательно-биномиально распределенных случайных величин r 1 и r 2 с одинаковым значением параметра p распределена отрицательно-биномиально с тем же p, но со значением  r r 1  +  r 2 .

Отрицательное биномиальное распределение бесконечно делимо , т. е. если Y имеет отрицательное биномиальное распределение, то для любого положительного целого числа n существуют независимые одинаково распределенные случайные величины Y 1 , ...,  Y n , сумма которых имеет то же распределение, что и Y.

Представление в виде сложного распределения Пуассона

Отрицательное биномиальное распределение NB( r , p ) можно представить в виде сложного распределения Пуассона : Пусть обозначает последовательность независимых и одинаково распределенных случайных величин , каждая из которых имеет логарифмическое распределение Log( p ), с функцией массы вероятности ( Y n ) n N {\textstyle (Y_{n})_{n\,\in \,\mathbb {N} }}

f ( k ; r , p ) = p k k ln ( 1 p ) , k N . {\displaystyle f(k;r,p)={\frac {-p^{k}}{k\ln(1-p)}},\qquad k\in {\mathbb {N} }.}

Пусть N — случайная величина, независимая от последовательности, и предположим, что N имеет распределение Пуассона со средним λ = − r ln(1 − p ) . Тогда случайная сумма

X = n = 1 N Y n {\displaystyle X=\sum _{n=1}^{N}Y_{n}}

распределено по закону NB( r , p ). Чтобы доказать это, мы вычисляем функцию генерации вероятности G X для X , которая является композицией функций генерации вероятности G N и G Y 1 . Используя

G N ( z ) = exp ( λ ( z 1 ) ) , z R , {\displaystyle G_{N}(z)=\exp(\lambda (z-1)),\qquad z\in \mathbb {R} ,}

и

G Y 1 ( z ) = ln ( 1 p z ) ln ( 1 p ) , | z | < 1 p , {\displaystyle G_{Y_{1}}(z)={\frac {\ln(1-pz)}{\ln(1-p)}},\qquad |z|<{\frac {1}{p}},}

мы получаем

G X ( z ) = G N ( G Y 1 ( z ) ) = exp ( λ ( ln ( 1 p z ) ln ( 1 p ) 1 ) ) = exp ( r ( ln ( 1 p z ) ln ( 1 p ) ) ) = ( 1 p 1 p z ) r , | z | < 1 p , {\displaystyle {\begin{aligned}G_{X}(z)&=G_{N}(G_{Y_{1}}(z))\\[4pt]&=\exp {\biggl (}\lambda {\biggl (}{\frac {\ln(1-pz)}{\ln(1-p)}}-1{\biggr )}{\biggr )}\\[4pt]&=\exp {\bigl (}-r(\ln(1-pz)-\ln(1-p)){\bigr )}\\[4pt]&={\biggl (}{\frac {1-p}{1-pz}}{\biggr )}^{r},\qquad |z|<{\frac {1}{p}},\end{aligned}}}

которая является функцией генерации вероятностей распределения NB( r , p ).

В следующей таблице описаны четыре распределения, связанные с количеством успехов в последовательности розыгрышей:

С заменойЗамены нет
Указанное количество розыгрышейбиномиальное распределениегипергеометрическое распределение
Приведенное количество отказовотрицательное биномиальное распределениеотрицательное гипергеометрическое распределение

(а,б,0) класс распределений

Отрицательное биномиальное распределение, наряду с распределением Пуассона и биномиальным распределением, является членом класса распределений ( a , b ,0) . Все три этих распределения являются частными случаями распределения Панджера. Они также являются членами естественного экспоненциального семейства .

Статистический вывод

Оценка параметров

МВУЭ дляп

Предположим, что p неизвестно и проводится эксперимент, в котором заранее решено, что выборка будет продолжаться до тех пор, пока не будет найдено r успехов. Достаточной статистикой для эксперимента является k , количество неудач.

При оценке p минимальная дисперсия несмещенной оценки равна

p ^ = r 1 r + k 1 . {\displaystyle {\widehat {p}}={\frac {r-1}{r+k-1}}.}

Оценка максимального правдоподобия

Когда r известно, оценка максимального правдоподобия p равна

p ~ = r r + k , {\displaystyle {\widetilde {p}}={\frac {r}{r+k}},}

но это смещенная оценка . Ее обратная величина ( r  +  k )/ r , однако, является несмещенной оценкой 1/ p . [20]

Когда r неизвестно, оценка максимального правдоподобия для p и r вместе существует только для выборок, для которых дисперсия выборки больше среднего значения выборки. [21] Функция правдоподобия для N iid наблюдений ( k 1 , ...,  k N ) имеет вид

L ( r , p ) = i = 1 N f ( k i ; r , p ) {\displaystyle L(r,p)=\prod _{i=1}^{N}f(k_{i};r,p)\,\!}

из которого мы вычисляем логарифмическую функцию правдоподобия

( r , p ) = i = 1 N ln ( Γ ( k i + r ) ) i = 1 N ln ( k i ! ) N ln ( Γ ( r ) ) + i = 1 N k i ln ( 1 p ) + N r ln ( p ) . {\displaystyle \ell (r,p)=\sum _{i=1}^{N}\ln(\Gamma (k_{i}+r))-\sum _{i=1}^{N}\ln(k_{i}!)-N\ln(\Gamma (r))+\sum _{i=1}^{N}k_{i}\ln(1-p)+Nr\ln(p).}

Чтобы найти максимум, берем частные производные по r и p и приравниваем их к нулю:

( r , p ) p = [ i = 1 N k i 1 1 p ] + N r 1 p = 0 {\displaystyle {\frac {\partial \ell (r,p)}{\partial p}}=-\left[\sum _{i=1}^{N}k_{i}{\frac {1}{1-p}}\right]+Nr{\frac {1}{p}}=0} и
( r , p ) r = [ i = 1 N ψ ( k i + r ) ] N ψ ( r ) + N ln ( p ) = 0 {\displaystyle {\frac {\partial \ell (r,p)}{\partial r}}=\left[\sum _{i=1}^{N}\psi (k_{i}+r)\right]-N\psi (r)+N\ln(p)=0}

где

ψ ( k ) = Γ ( k ) Γ ( k ) {\displaystyle \psi (k)={\frac {\Gamma '(k)}{\Gamma (k)}}\!} — это дигамма-функция .

Решение первого уравнения относительно p дает:

p = N r N r + i = 1 N k i {\displaystyle p={\frac {Nr}{Nr+\sum _{i=1}^{N}k_{i}}}}

Подставляя это во второе уравнение, получаем:

( r , p ) r = [ i = 1 N ψ ( k i + r ) ] N ψ ( r ) + N ln ( r r + i = 1 N k i / N ) = 0 {\displaystyle {\frac {\partial \ell (r,p)}{\partial r}}=\left[\sum _{i=1}^{N}\psi (k_{i}+r)\right]-N\psi (r)+N\ln \left({\frac {r}{r+\sum _{i=1}^{N}k_{i}/N}}\right)=0}

Это уравнение не может быть решено относительно r в замкнутой форме . Если требуется численное решение, можно использовать итерационный метод, такой как метод Ньютона . В качестве альтернативы можно использовать алгоритм ожиданий-максимизации . [21]

Возникновение и применение

Время ожидания в процессе Бернулли

Для особого случая, когда r — целое число, отрицательное биномиальное распределение известно как распределение Паскаля . Это распределение вероятностей определенного числа неудач и успехов в серии независимых и одинаково распределенных испытаний Бернулли. Для k  +  r испытаний Бернулли с вероятностью успеха p отрицательное биномиальное распределение дает вероятность k успехов и r неудач, с неудачей в последней попытке. Другими словами, отрицательное биномиальное распределение — это распределение вероятностей числа успехов до r -й неудачи в процессе Бернулли , с вероятностью p успехов в каждой попытке. Процесс Бернулли — это дискретный во времени процесс, и поэтому число испытаний, неудач и успехов является целыми числами.

Рассмотрим следующий пример. Предположим, что мы неоднократно бросаем игральную кость и считаем, что 1 — это неудача. Вероятность успеха в каждой попытке составляет 5/6. Количество успехов до третьей неудачи принадлежит бесконечному множеству {0, 1, 2, 3, ...}. Это количество успехов — отрицательно-биномиально распределенная случайная величина.

При r = 1 мы получаем распределение вероятностей числа успехов до первой неудачи (т.е. вероятность первой неудачи, произошедшей в ( k  + 1)-м испытании), которое является геометрическим распределением :

f ( k ; r , p ) = ( 1 p ) p k {\displaystyle f(k;r,p)=(1-p)\cdot p^{k}\!}

Сверхдисперсный Пуассон

Отрицательное биномиальное распределение, особенно в его альтернативной параметризации, описанной выше, может использоваться в качестве альтернативы распределению Пуассона. Оно особенно полезно для дискретных данных в неограниченном положительном диапазоне, выборочная дисперсия которых превышает выборочное среднее . В таких случаях наблюдения чрезмерно рассеяны относительно распределения Пуассона, для которого среднее равно дисперсии. Следовательно, распределение Пуассона не является подходящей моделью. Поскольку отрицательное биномиальное распределение имеет на один параметр больше, чем распределение Пуассона, второй параметр можно использовать для корректировки дисперсии независимо от среднего. См. Кумулянты некоторых дискретных распределений вероятностей .

Это можно применить к ежегодным подсчетам тропических циклонов в Северной Атлантике или к ежемесячным или полугодовым подсчетам зимних внетропических циклонов над Европой, для которых дисперсия больше среднего значения. [22] [23] [24] В случае умеренной избыточной дисперсии это может дать результаты, в значительной степени схожие с избыточно рассеянным распределением Пуассона. [25] [26]

Отрицательное биномиальное моделирование широко применяется в исследованиях экологии и биоразнообразия для анализа данных подсчетов, где избыточная дисперсия встречается очень часто. Это связано с тем, что избыточная дисперсия указывает на биологическую агрегацию, например, когда виды или сообщества образуют кластеры. Игнорирование избыточной дисперсии может привести к значительно завышенным параметрам модели, что приведет к вводящим в заблуждение статистическим выводам. Отрицательное биномиальное распределение эффективно решает проблемы избыточной дисперсии, позволяя дисперсии изменяться квадратично со средним значением. Дополнительный параметр дисперсии управляет наклоном квадратичного члена, определяя серьезность избыточной дисперсии. Квадратичная связь модели со средним значением и дисперсией оказывается реалистичным подходом для обработки избыточной дисперсии, что подтверждается эмпирическими данными многих исследований. В целом, модель NB предлагает две привлекательные особенности: (1) удобную интерпретацию параметра дисперсии как индекса кластеризации или агрегации и (2) ее послушную форму, включающую замкнутое выражение для функции массы вероятности. [27]

В генетике отрицательное биномиальное распределение обычно используется для моделирования данных в виде дискретных последовательностей считываемых чисел в высокопроизводительных экспериментах по секвенированию РНК и ДНК. [28] [29] [30] [31]

В эпидемиологии инфекционных заболеваний отрицательное биномиальное распределение использовалось как лучший вариант, чем распределение Пуассона, для моделирования чрезмерно разбросанных показателей вторичных инфекций от одного инфицированного случая (события сверхраспространения). [32]

Множественные наблюдения (физика)

Отрицательное биномиальное распределение было наиболее эффективной статистической моделью для широкого спектра наблюдений множественности в экспериментах по столкновению частиц , например, [33] [34] [35] [36] [37] (см. [38] для обзора), и утверждается, что это свойство материи, инвариантное к масштабу , [39] [40] обеспечивая наилучшее соответствие для астрономических наблюдений, где оно предсказывает количество галактик в области пространства. [41] [42] [43] [44] Феноменологическое обоснование эффективности отрицательного биномиального распределения в этих контекстах оставалось неизвестным в течение пятидесяти лет, с момента их первого наблюдения в 1973 году. [45] В 2023 году Скотт В. Тезлаф в конечном итоге продемонстрировал доказательство из первых принципов , где было показано, что отрицательное биномиальное распределение возникает из симметрий в динамических уравнениях канонического ансамбля частиц в пространстве Минковского . [46] Грубо говоря, учитывая ожидаемое количество попыток и ожидаемое количество успехов , где p p ¯ ,   h h ,   h A ,   A A ,   e + e {\displaystyle p{\bar {p}},\ hh,\ hA,\ AA,\ e^{+}e^{-}} n {\displaystyle \langle n\rangle } r {\displaystyle \langle r\rangle }

n r = k , p = r n n = k 1 p , r = k p 1 p , {\displaystyle \langle {\mathcal {n}}\rangle -\langle r\rangle =k,\quad \quad \langle p\rangle ={\frac {\langle r\rangle }{\langle {\mathcal {n}}\rangle }}\quad \quad \quad \implies \quad \quad \quad \langle {\mathcal {n}}\rangle ={\frac {k}{1-\langle p\rangle }},\quad \quad \langle {r}\rangle ={\frac {k\langle p\rangle }{1-\langle p\rangle }},}

изоморфный набор уравнений может быть отождествлен с параметрами релятивистской плотности тока канонического ансамбля массивных частиц, через

c 2 ρ 2 j 2 = c 2 ρ 0 2 , β v 2 = j 2 c 2 ρ 2 c 2 ρ 2 = c 2 ρ 0 2 1 β v 2 , j 2 = c 2 ρ 0 2 β v 2 1 β v 2 , {\displaystyle c^{2}\langle \rho ^{2}\rangle -\langle j^{2}\rangle =c^{2}\rho _{0}^{2},\quad \quad \quad \langle \beta _{v}^{2}\rangle ={\frac {\langle j^{2}\rangle }{c^{2}\langle \rho ^{2}\rangle }}\quad \quad \implies \quad \quad c^{2}\langle \rho ^{2}\rangle ={\frac {c^{2}\rho _{0}^{2}}{1-\langle \beta _{v}^{2}\rangle }},\quad \quad \quad \langle j^{2}\rangle ={\frac {c^{2}\rho _{0}^{2}\langle \beta _{v}^{2}\rangle }{1-\langle \beta _{v}^{2}\rangle }},}

где — плотность покоя , — релятивистская средняя квадратичная плотность, — релятивистская средняя квадратичная плотность тока, и , где — средняя квадратичная скорость ансамбля частиц, а — скорость света , — так что можно установить следующее биективное отображение : ρ 0 {\displaystyle \rho _{0}} ρ 2 {\displaystyle \langle \rho ^{2}\rangle } j 2 {\displaystyle \langle j^{2}\rangle } β v 2 = v 2 / c 2 {\displaystyle \langle \beta _{v}^{2}\rangle =\langle v^{2}\rangle /c^{2}} v 2 {\displaystyle \langle v^{2}\rangle } c {\displaystyle c}

c 2 ρ 0 2 k , β v 2 p , c 2 ρ 2 n , j 2 r . {\displaystyle c^{2}\rho _{0}^{2}\mapsto k,\quad \quad \langle \beta _{v}^{2}\rangle \mapsto \langle p\rangle ,\quad \quad c^{2}\langle \rho ^{2}\rangle \mapsto \langle {\mathcal {n}}\rangle ,\quad \quad \langle j^{2}\rangle \mapsto \langle r\rangle .}

Строгое альтернативное доказательство вышеуказанного соответствия было также продемонстрировано с помощью квантовой механики посредством интеграла Фейнмана по траекториям . [46]

История

Это распределение было впервые изучено в 1713 году Пьером Ремоном де Монмором в его «Essay d'analyse sur les jeux de hazard» как распределение числа испытаний, требуемых в эксперименте для получения заданного числа успехов. [47] Ранее оно упоминалось Паскалем . [48]

Смотрите также

Ссылки

  1. ^ ДеГрут, Моррис Х. (1986). Вероятность и статистика (Второе издание). Addison-Wesley. С.  258–259 . ISBN 0-201-11366-X. LCCN  84006269. OCLC  10605205.
  2. ^ abc Weisstein, Eric. "Отрицательное биномиальное распределение". Wolfram MathWorld . Wolfram Research . Получено 11 октября 2020 г. .
  3. ^ например , Ллойд-Смит, Дж. О.; Шрайбер, С. Дж.; Копп, П. Е.; Гетц, В. М. (2005). «Суперраспространение и влияние индивидуальных вариаций на возникновение заболеваний». Nature . 438 (7066): 355– 359. Bibcode :2005Natur.438..355L. doi : 10.1038/nature04153 . PMC 7094981 . PMID  16292310. 
    Параметр сверхдисперсии в эпидемиологии обычно обозначается буквой , а не как здесь. k {\displaystyle k} r {\displaystyle r}
  4. ^ Казелла, Джордж; Бергер, Роджер Л. (2002). Статистический вывод (2-е изд.). Thomson Learning. стр. 95. ISBN 0-534-24312-6.
  5. ^ abc Кук, Джон Д. «Заметки об отрицательном биномиальном распределении» (PDF) .
  6. ^ Моррис К. В. (1963), Заметка о прямой и обратной выборке, Biometrika, 50, 544–545.
  7. ^ «Mathworks: Отрицательное биномиальное распределение».
  8. ^ Саха, Абишек. «Введение в вероятность / Основы вероятности: Лекция 14» (PDF) .
  9. ^ Институт SAS , «Отрицательное биномиальное распределение», Функции SAS(R) 9.4 и процедуры CALL: Справочник, четвертое издание , Институт SAS, Кэри, Северная Каролина, 2016.
  10. ^ ab Crawley, Michael J. (2012). Книга R. Wiley. ISBN 978-1-118-44896-0.
  11. ^ ab "Теория множеств: Раздел 3.2.5 – Отрицательное биномиальное распределение" (PDF) .
  12. ^ "Randomservices.org, Глава 10: Испытания Бернулли, Раздел 4: Отрицательное биномиальное распределение".
  13. ^ «Stat Trek: Отрицательное биномиальное распределение».
  14. ^ Роутон, Жаклин. «Различение биномиального, гипергеометрического и отрицательного биномиального распределений» (PDF) .
  15. ^ ab Hilbe, Joseph M. (2011). Отрицательная биномиальная регрессия (второе издание). Кембридж, Великобритания: Cambridge University Press. ISBN 978-0-521-19815-8.
  16. ^ Ллойд-Смит, Дж. О. (2007). «Оценка максимального правдоподобия параметра отрицательной биномиальной дисперсии для сильно разбросанных данных с применением к инфекционным заболеваниям». PLoS ONE . 2 (2): e180. Bibcode : 2007PLoSO...2..180L. doi : 10.1371 /journal.pone.0000180 . PMC 1791715. PMID  17299582.  Значок открытого доступа
  17. ^ Картер, Э. М., Поттс, Х. У. В. (4 апреля 2014 г.). «Прогнозирование продолжительности пребывания в стационаре с помощью электронной системы учета пациентов: пример первичной полной замены коленного сустава». BMC Medical Informatics and Decision Making . 14 : 26. doi : 10.1186/1472-6947-14-26 . PMC 3992140. PMID  24708853 . {{cite journal}}: CS1 maint: multiple names: authors list (link) Значок открытого доступа
  18. ^ Orooji, Arezoo; Nazar, Eisa; Sadeghi, Masoumeh; Moradi, Ali; Jafari, Zahra; Esmaily, Habibollah (2021-04-30). «Факторы, связанные с продолжительностью пребывания в больнице среди пожилых пациентов с использованием моделей регрессии подсчета». Медицинский журнал Исламской Республики Иран . 35 : 5. doi : 10.47176/mjiri.35.5. PMC 8111647. PMID  33996656 . 
  19. ^ Гринвуд, М.; Юл, Г. У. (1920). «Исследование природы распределений частот, представляющих множественные события с особым акцентом на множественные приступы болезни или повторяющиеся несчастные случаи». JR Stat Soc . 83 (2): 255– 279. doi :10.2307/2341080. JSTOR  2341080.
  20. ^ Холдейн, Дж. Б. С. (1945). «О методе оценки частот». Biometrika . 33 (3): 222– 225. doi : 10.1093/biomet/33.3.222. hdl : 10338.dmlcz/102575 . JSTOR  2332299. PMID  21006837.
  21. ^ ab Арамидис, К. (1999). «Алгоритм EM для оценки отрицательных биномиальных параметров». Австралийский и новозеландский статистический журнал . 41 (2): 213– 221. doi : 10.1111/1467-842X.00075 . S2CID  118758171.
  22. ^ Вилларини, Г.; Векки, Г.А.; Смит, Дж.А. (2010). «Моделирование зависимости количества тропических штормов в Североатлантическом бассейне от климатических индексов». Monthly Weather Review . 138 (7): 2681– 2705. Bibcode : 2010MWRv..138.2681V. doi : 10.1175/2010MWR3315.1 .
  23. ^ Mailier, PJ; Stephenson, DB; Ferro, CAT; Hodges, KI (2006). «Серийное скопление внетропических циклонов». Monthly Weather Review . 134 (8): 2224– 2240. Bibcode : 2006MWRv..134.2224M. doi : 10.1175/MWR3160.1 .
  24. ^ Витоло, Р.; Стефенсон, ДБ; Кук, Иэн М.; Митчелл-Уоллес, К. (2009). «Серийное скопление интенсивных европейских штормов». Meteorologische Zeitschrift . 18 (4): 411– 424. Bibcode : 2009MetZe..18..411V. doi : 10.1127/0941-2948/2009/0393. S2CID  67845213.
  25. ^ МакКаллах, Питер ; Нелдер, Джон (1989). Обобщенные линейные модели (второе издание). Boca Raton: Chapman and Hall/CRC. ISBN 978-0-412-31760-6.
  26. ^ Кэмерон, Адриан С.; Триведи, Правин К. (1998). Регрессионный анализ данных подсчета . Cambridge University Press. ISBN 978-0-521-63567-7.
  27. ^ Стоклоза, Дж.; Блейки, Р.В.; Хуэй, Ф.К.К. (2022). «Обзор современных приложений отрицательного биномиального моделирования в экологии и биоразнообразии». Разнообразие . 14 (5): 320. doi : 10.3390/d14050320 .
  28. ^ Робинсон, MD; Смит, GK (2007). «Модерируемые статистические тесты для оценки различий в обилии тегов». Биоинформатика . 23 (21): 2881– 2887. doi : 10.1093/bioinformatics/btm453 . PMID  17881408.
  29. ^ «Дифференциальный анализ данных подсчета –» (PDF) .
  30. ^ Airoldi, EM; Cohen, WW; Fienberg, SE (июнь 2005 г.). «Байесовские модели для часто встречающихся терминов в тексте». Труды Классификационного общества Северной Америки и Ежегодные собрания INTERFACE . Т. 990. Сент-Луис, Миссури, США. стр. 991.
  31. ^ Чен, Юншунь; Дэвис, Маккарти (25 сентября 2014 г.). "edgeR: дифференциальный анализ экспрессии цифровых данных по экспрессии генов" (PDF) . Получено 14 октября 2014 г.
  32. ^ Ллойд-Смит, Дж. О.; Шрайбер, С. Дж.; Копп, П. Е.; Гетц, В. М. (2005). «Суперраспространение и влияние индивидуальных вариаций на возникновение заболеваний». Nature . 438 (7066): 355– 359. Bibcode :2005Natur.438..355L. doi :10.1038/nature04153. PMC 7094981 . PMID  16292310. 
  33. ^ Grosse-Oetringhaus, Jan Fiete; Reygers, Klaus (2010-08-01). "Множественность заряженных частиц в столкновениях протонов". Journal of Physics G: Nuclear and Particle Physics . 37 (8): 083001. arXiv : 0912.0023 . doi :10.1088/0954-3899/37/8/083001. ISSN  0954-3899. S2CID  119233810.
  34. ^ Рыбчинский, Мацей; Вилк, Гжегож; Влодарчик, Збигнев (31 мая 2019 г.). «Интригующие свойства распределений множественности». Физический обзор D . 99 (9): 094045. arXiv : 1811.07197 . Бибкод : 2019PhRvD..99i4045R. doi : 10.1103/PhysRevD.99.094045 . ISSN  2470-0010.
  35. ^ Tarnowsky, Terence J.; Westfall, Gary D. (2013-07-09). «Первое исследование отрицательного биномиального распределения, примененного к высшим моментам распределений суммарного заряда и суммарной множественности протонов». Physics Letters B . 724 (1): 51– 55. arXiv : 1210.8102 . Bibcode :2013PhLB..724...51T. doi : 10.1016/j.physletb.2013.05.064 . ISSN  0370-2693.
  36. ^ Derrick, M.; Gan, KK; Kooijman, P.; Loos, JS; Musgrave, B.; Price, LE; Repond, J.; Schlereth, J.; Sugano, K.; Weiss, JM; Wood, DE; Baranko, G.; Blockus, D.; Brabson, B.; Brom, JM (1986-12-01). "Исследование фрагментации кварков в аннигиляции ${e}^{+}$${e}^{\mathrm{\ensuremath{-}}}$ при 29 ГэВ: множественность заряженных частиц и распределения быстроты отдельных частиц". Physical Review D. 34 ( 11): 3304– 3320. doi :10.1103/PhysRevD.34.3304. hdl : 1808/15222 . PMID  9957066.
  37. ^ Зборовский, И. (2018-10-10). "Трехкомпонентное распределение множественности, осцилляция комбинантов и свойства кланов в столкновениях pp на LHC". The European Physical Journal C. 78 ( 10): 816. arXiv : 1811.11230 . Bibcode : 2018EPJC...78..816Z. doi : 10.1140/epjc/s10052-018-6287-x . ISSN  1434-6052.
  38. ^ Киттель, Вольфрам; Де Вольф, Эдди А. (2005). Мягкая мультихардонная динамика . World Scientific.
  39. ^ Шеффер, Р. (1984). "Определение функции корреляции N-точек галактики". Астрономия и астрофизика . 134 (2): L15. Bibcode : 1984A&A...134L..15S.
  40. ^ Шеффер, Р. (1985). «Функция генерации вероятности для кластеризации галактик». Астрономия и астрофизика . 144 (1): L1 – L4 . Bibcode : 1985A&A...144L...1S.
  41. ^ Перес, Люсия А.; Малхотра, Сангита; Роадс, Джеймс Э.; Тилви, Витал (2021-01-07). "Функция вероятности пустоты в моделируемых обзорах излучателей Ly α с высоким красным смещением". The Astrophysical Journal . 906 (1): 58. arXiv : 2011.03556 . Bibcode :2021ApJ...906...58P. doi : 10.3847/1538-4357/abc88b . ISSN  1538-4357.
  42. ^ Уртадо-Хил, Луис; Мартинес, Висент Дж.; Арналте-Мур, Пабло; Понс-Бордерия, Мария-Хесус; Пареха-Флорес, Кристобаль; Паредес, Сильвестр (01 мая 2017 г.). «Наилучшее соответствие наблюдаемой функции распределения количества галактик в ячейках». Астрономия и астрофизика . 601 : А40. arXiv : 1703.01087 . Бибкод : 2017A&A...601A..40H. дои : 10.1051/0004-6361/201629097 . ISSN  0004-6361.
  43. ^ Элизальде, Э.; Газтанага, Э. (январь 1992 г.). «Вероятность пустоты как функция формы пустоты и моделей, инвариантных к масштабу». Ежемесячные уведомления Королевского астрономического общества . 254 (2): 247–256 . doi : 10.1093/mnras/254.2.247 . hdl : 2060/19910019799 . ISSN  0035-8711.
  44. ^ Hameeda, M; Plastino, Angelo; Rocca, MC (2021-03-01). "Обобщенные распределения Пуассона для систем с двухчастичными взаимодействиями". IOP SciNotes . 2 (1): 015003. Bibcode : 2021IOPSN...2a5003H. doi : 10.1088/2633-1357/abec9f . hdl : 11336/181371 . ISSN  2633-1357.
  45. ^ Джованнини, А. (июнь 1973 г.). ««Тепловой хаос» и «когерентность» в распределениях множественности при высоких энергиях». Il Nuovo Cimento A . 15 (3): 543– 551. Bibcode :1973NCimA..15..543G. doi :10.1007/bf02734689. ISSN  0369-3546. S2CID  118805136.
  46. ^ ab Tezlaf, Scott V. (2023-09-29). "Значимость отрицательного биномиального распределения в явлениях множественности". Physica Scripta . 98 (11). arXiv : 2310.03776 . Bibcode : 2023PhyS...98k5310T. doi : 10.1088/1402-4896/acfead. ISSN  0031-8949. S2CID  263300385.
  47. ^ Montmort PR de (1713) Essai d'analyse sur les jeux de hasard. 2-е изд. Кийо, Париж
  48. ^ Паскаль Б (1679) Varia Opera Mathematica. Д. Петри де Ферма. Толосы
Retrieved from "https://en.wikipedia.org/w/index.php?title=Negative_binomial_distribution&oldid=1260464488"