Кумулянт

Множество величин в теории вероятностей

В теории вероятностей и статистике кумулянты κ n распределения вероятностей представляют собой набор величин, которые предоставляют альтернативу моментам распределения . Любые два распределения вероятностей, моменты которых идентичны, будут иметь также идентичные кумулянты, и наоборот.

Первый кумулянт — это среднее значение , второй кумулянт — это дисперсия , а третий кумулянт совпадает с третьим центральным моментом . Но кумулянты четвертого и более высокого порядка не равны центральным моментам. В некоторых случаях теоретические трактовки проблем в терминах кумулянтов проще, чем те, которые используют моменты. В частности, когда две или более случайных величин статистически независимы , кумулянт n -го порядка их суммы равен сумме их кумулянтов n -го порядка. Кроме того, кумулянты третьего и более высокого порядка нормального распределения равны нулю, и это единственное распределение с этим свойством.

Так же, как и для моментов, где совместные моменты используются для совокупностей случайных величин, можно определить совместные кумулянты .

Определение

Кумулянты случайной величины X определяются с помощью функции генерации кумулянтов K ( t ) , которая является натуральным логарифмом функции генерации моментов : К ( т ) = бревно Э [ е т Х ] . {\displaystyle K(t)=\log \operatorname {E} \left[e^{tX}\right].}

Кумулянты κ n получаются из разложения в степенной ряд функции, производящей кумулянты: К ( т ) = н = 1 к н т н н ! = к 1 т 1 ! + к 2 т 2 2 ! + к 3 т 3 3 ! + = μ т + σ 2 т 2 2 + . {\displaystyle K(t)=\sum _{n=1}^{\infty }\kappa _{n}{\frac {t^{n}}{n!}}=\kappa _{1}{\frac {t}{1!}}+\kappa _{2}{\frac {t^{2}}{2!}}+\kappa _{3}{\frac {t^{3}}{3!}}+\cdots =\mu t+\sigma ^{2}{\frac {t^{2}}{2}}+\cdots .}

Это разложение представляет собой ряд Маклорена , поэтому n- й кумулянт может быть получен путем дифференцирования приведенного выше разложения n раз и оценки результата при нуле: [1] к н = К ( н ) ( 0 ) . {\displaystyle \kappa _ {n}=K^{(n)}(0).}

Если функция, генерирующая моменты, не существует, кумулянты можно определить в терминах взаимосвязи между кумулянтами и моментами, обсуждаемой далее.

Альтернативное определение функции генерации кумулянта

Некоторые авторы [2] [3] предпочитают определять функцию, генерирующую кумулянт, как натуральный логарифм характеристической функции , которую иногда также называют второй характеристической функцией , [4] [5] ЧАС ( т ) = бревно Э [ е я т Х ] = н = 1 к н ( я т ) н н ! = μ я т σ 2 т 2 2 + {\displaystyle H(t)=\log \operatorname {E} \left[e^{itX}\right]=\sum _{n=1}^{\infty }\kappa _{n}{\frac {(it)^{n}}{n!}}=\mu it-\sigma ^{2}{\frac {t^{2}}{2}}+\cdots }

Преимущество H ( t ) — в некотором смысле функции K ( t ), оцененной для чисто мнимых аргументов — заключается в том, что E[ e itX ] хорошо определена для всех действительных значений t , даже когда E[ e tX ] не хорошо определена для всех действительных значений t , например, когда существует «слишком большая» вероятность того, что X имеет большую величину. Хотя функция H ( t ) будет хорошо определена, она, тем не менее, будет имитировать K ( t ) с точки зрения длины ее ряда Маклорена , который может не выходить за пределы (или, редко, даже до) линейного порядка по аргументу  t , и, в частности, число хорошо определенных кумулянтов не изменится. Тем не менее, даже когда H ( t ) не имеет длинного ряда Маклорена, ее можно использовать напрямую при анализе и, в частности, при добавлении случайных величин. Как распределение Коши (также называемое лоренцевым), так и, в более общем смысле, устойчивые распределения (связанные с распределением Леви) являются примерами распределений, для которых разложения в степенные ряды производящих функций имеют лишь конечное число четко определенных членов.

Некоторые основные свойства

Кумулянт (распределения) случайной величины обладает следующими свойствами: н {\textstyle н} к н ( Х ) {\textstyle \каппа _{n}(X)} Х {\textstyle X}

  • Если и является постоянным (т.е. не случайным), то т.е. кумулянт является трансляционно-инвариантным . (Если то мы имеем н > 1 {\textstyle n>1} с {\textstyle с} к н ( Х + с ) = к н ( Х ) , {\ textstyle \ каппа _ {n} (X + c) = \ каппа _ {n} (X),} н = 1 {\textstyle n=1} к 1 ( Х + с ) = к 1 ( Х ) + с . ) {\textstyle \kappa _{1}(X+c)=\kappa _{1}(X)+c.)}
  • Если является постоянным (т.е. не случайным), то т.е. й кумулянт является однородным степени  . с {\textstyle с} к н ( с Х ) = с н к н ( Х ) , {\ textstyle \ каппа _ {n} (cX) = c^ {n} \ каппа _ {n} (X),} н {\textstyle н} н {\textstyle н}
  • Если случайные величины независимы , то кумулянт является кумулятивным — отсюда и название. Х 1 , , Х м {\textstyle X_{1},\ldots ,X_{m}} к н ( Х 1 + + Х м ) = к н ( Х 1 ) + + к н ( Х м ) . {\displaystyle \каппа _{n}(X_{1}+\cdots +X_{m})=\каппа _{n}(X_{1})+\cdots +\каппа _{n}(X_{m})\,.}

Кумулятивное свойство быстро следует из рассмотрения функции генерации кумулянта: так что каждый кумулянт суммы независимых случайных величин является суммой соответствующих кумулянтов слагаемых . То есть, когда слагаемые статистически независимы, среднее значение суммы является суммой средних значений, дисперсия суммы является суммой дисперсий, третий кумулянт (который является третьим центральным моментом) суммы является суммой третьих кумулянтов, и так далее для каждого порядка кумулянта. К Х 1 + + Х м ( т ) = бревно Э [ е т ( Х 1 + + Х м ) ] = бревно ( Э [ е т Х 1 ] Э [ е т Х м ] ) = бревно Э [ е т Х 1 ] + + бревно Э [ е т Х м ] = К Х 1 ( т ) + + К Х м ( т ) , {\displaystyle {\begin{aligned}K_{X_{1}+\cdots +X_{m}}(t)&=\log \operatorname {E} \left[e^{t(X_{1}+\cdots +X_{m})}\right]\\[5pt]&=\log \left(\operatorname {E} \left[e^{tX_{1}}\right]\cdots \operatorname {E} \left[e^{tX_{m}}\right]\right)\\[5pt]&=\log \operatorname {E} \left[e^{tX_{1}}\right]+\cdots +\log \operatorname {E} \left[e^{tX_{m}}\right]\\[5pt]&=K_{X_{1}}(t)+\cdots +K_{X_{m}}(t),\end{aligned}}}

Распределение с заданными кумулянтами κ n можно аппроксимировать с помощью ряда Эджворта .

Первые несколько кумулянтов как функции моментов

Все высшие кумулянты являются полиномиальными функциями центральных моментов с целыми коэффициентами, но только в степенях 2 и 3 кумулянты фактически являются центральными моментами.

  • κ 1 ( X ) = E ( X ) = {\textstyle \kappa _{1}(X)=\operatorname {E} (X)={}} иметь в виду
  • κ 2 ( X ) = var ( X ) = E ( ( X E ( X ) ) 2 ) = {\textstyle \kappa _{2}(X)=\operatorname {var} (X)=\operatorname {E} {\big (}(X-\operatorname {E} (X))^{2}{\big )}={}} дисперсия, или второй центральный момент.
  • κ 3 ( X ) = E ( ( X E ( X ) ) 3 ) = {\textstyle \kappa _{3}(X)=\operatorname {E} {\big (}(X-\operatorname {E} (X))^{3}{\big )}={}} третий центральный момент.
  • κ 4 ( X ) = E ( ( X E ( X ) ) 4 ) 3 ( E ( ( X E ( X ) ) 2 ) ) 2 = {\textstyle \kappa _{4}(X)=\operatorname {E} {\big (}(X-\operatorname {E} (X))^{4}{\big )}-3\left(\operatorname {E} {\big (}(X-\operatorname {E} (X))^{2}{\big )}\right)^{2}={}} четвертый центральный момент минус три квадрата второго центрального момента. Таким образом, это первый случай, в котором кумулянты не являются просто моментами или центральными моментами. Центральные моменты степени больше 3 не обладают кумулятивным свойством.
  • κ 5 ( X ) = E ( ( X E ( X ) ) 5 ) 10 E ( ( X E ( X ) ) 3 ) E ( ( X E ( X ) ) 2 ) . {\textstyle \kappa _{5}(X)=\operatorname {E} {\big (}(X-\operatorname {E} (X))^{5}{\big )}-10\operatorname {E} {\big (}(X-\operatorname {E} (X))^{3}{\big )}\operatorname {E} {\big (}(X-\operatorname {E} (X))^{2}{\big )}.}

Кумулянты некоторых дискретных распределений вероятностей

  • Постоянные случайные величины X = µ . Кумулянтная производящая функция равна K ( t ) = µt . Первый кумулянт равен κ 1 = K ′(0) = µ , а остальные кумулянты равны нулю, κ 2 = κ 3 = κ 4 = ⋅⋅⋅ = 0 .
  • Распределение Бернулли (число успехов в одном испытании с вероятностью успеха p ). Функция генерации кумулянтов K ( t ) = log(1 − p + p e t ) . Первые кумулянты κ 1 = K '(0) = p и κ 2 = K′′ (0) = p ·(1 − p ) . Кумулянты удовлетворяют рекурсивной формуле κ n + 1 = p ( 1 p ) d κ n d p . {\displaystyle \kappa _{n+1}=p(1-p){\frac {d\kappa _{n}}{dp}}.}
  • Геометрические распределения (число неудач до одного успеха с вероятностью успеха p в каждой попытке). Функция генерации кумулянтов K ( t ) = log( p / (1 + ( p − 1)e t )) . Первые кумулянты κ 1 = K′ (0) = p −1 − 1 , и κ 2 = K′′ (0) = κ 1 p −1 . Подстановка p = ( μ + 1) −1 дает K ( t ) = −log(1 + μ (1−e t )) и κ 1 = μ .
  • Распределения Пуассона . Кумулянтная производящая функция равна K ( t ) = µ (e t - 1) . Все кумулянты равны параметру: κ 1 = κ 2 = κ 3 = ... = µ .
  • Биномиальные распределения (число успехов в n независимых испытаниях с вероятностью успеха p в каждом испытании). Частным случаем n = 1 является распределение Бернулли. Каждый кумулянт равен просто n раз соответствующему кумулянту соответствующего распределения Бернулли. Функция генерации кумулянта имеет вид K ( t ) = n log(1 − p + p e t ) . Первые кумулянты имеют вид κ 1 = K′ (0) = np и κ 2 = K′′ (0) = κ 1 (1 − p ) . Подстановка p = μ· n −1 дает K '( t ) = ((μ −1n −1 )·e t + n −1 ) −1 и κ 1 = μ . Предельный случай n −1 = 0 — распределение Пуассона.
  • Отрицательное биномиальное распределение (число неудач до r успехов с вероятностью p успеха в каждой попытке). Особый случай r = 1 — геометрическое распределение. Каждый кумулянт — это просто r , умноженное на соответствующий кумулянт соответствующего геометрического распределения. Производная функции, производящей кумулянт, равна K ′( t ) = r ·((1 − p ) −1 ·e t −1) −1 . Первые кумулянты равны κ 1 = K ′(0) = r ·( p −1 −1) , и κ 2 = K ′′(0) = κ 1 · p −1 . Подстановка p = (μ· r −1 +1) −1 дает K ′( t ) = (( μ −1 + r −1 ) e tr −1 ) −1 и κ 1 = μ . Сравнение этих формул с формулами биномиального распределения объясняет название «отрицательное биномиальное распределение». Предельный случай r −1 = 0 — это распределение Пуассона.

Вводя отношение дисперсии к среднему значению, приведенные выше распределения вероятностей получают единую формулу для производной кумулянтной производящей функции: [ необходима ссылка ] ε = μ 1 σ 2 = κ 1 1 κ 2 , {\displaystyle \varepsilon =\mu ^{-1}\sigma ^{2}=\kappa _{1}^{-1}\kappa _{2},} K ( t ) = ( 1 + ( e t 1 ) ε ) 1 μ {\displaystyle K'(t)=(1+(e^{-t}-1)\varepsilon )^{-1}\mu }

Вторая производная подтверждает, что первый кумулянт равен κ 1 = K′ (0) = μ , а второй кумулянт равен κ 2 = K′′ (0) = με . K ( t ) = ( ε ( ε 1 ) e t ) 2 μ ε e t {\displaystyle K''(t)=(\varepsilon -(\varepsilon -1)e^{t})^{-2}\mu \varepsilon e^{t}}

Постоянные случайные величины X = μ имеют ε = 0 .

Биномиальные распределения имеют ε = 1 − p , так что 0 < ε < 1 .

Распределения Пуассона имеют ε = 1 .

Отрицательные биномиальные распределения имеют ε = p −1, так что ε > 1 .

Обратите внимание на аналогию с классификацией конических сечений по эксцентриситету : окружности ε = 0 , эллипсы 0 < ε < 1 , параболы ε = 1 , гиперболы ε > 1 .

Кумулянты некоторых непрерывных распределений вероятностей

Некоторые свойства кумулянтной производящей функции

Функция, производящая кумулянт K ( t ) , если она существует, бесконечно дифференцируема и выпукла , и проходит через начало координат. Ее первая производная изменяется монотонно в открытом интервале от инфимума до супремума носителя распределения вероятностей, а ее вторая производная строго положительна всюду, где она определена, за исключением вырожденного распределения единственной точечной массы. Функция, производящая кумулянт, существует тогда и только тогда, когда хвосты распределения мажорируются экспоненциальным распадом , то есть ( см. обозначение Big O ), где — кумулятивная функция распределения . Функция, производящая кумулянт, будет иметь вертикальную асимптоту (s) в отрицательной супремуме такого c , если такой супремум существует, и в супремуме такого d , если такой супремум существует, в противном случае она будет определена для всех действительных чисел. c > 0 , F ( x ) = O ( e c x ) , x ;  and d > 0 , 1 F ( x ) = O ( e d x ) , x + ; {\displaystyle {\begin{aligned}&\exists c>0,\,\,F(x)=O(e^{cx}),x\to -\infty ;{\text{ and}}\\[4pt]&\exists d>0,\,\,1-F(x)=O(e^{-dx}),x\to +\infty ;\end{aligned}}} F {\textstyle F}

Если носитель случайной величины X имеет конечные верхние или нижние границы, то его кумулянтно-генерирующая функция y = K ( t ) , если она существует, стремится к асимптоте (s), наклон которой равен супремуму или инфимуму носителя, соответственно, лежа выше обеих этих линий всюду. (Интегралы дают y -пересечения этих асимптот, поскольку  K (0) = 0 .) y = ( t + 1 ) inf supp X μ ( X ) ,  and y = ( t 1 ) sup supp X + μ ( X ) , {\displaystyle {\begin{aligned}y&=(t+1)\inf \operatorname {supp} X-\mu (X),{\text{ and}}\\[5pt]y&=(t-1)\sup \operatorname {supp} X+\mu (X),\end{aligned}}} 0 [ t inf supp X K ( t ) ] d t , 0 [ t inf supp X K ( t ) ] d t {\displaystyle \int _{-\infty }^{0}\left[t\inf \operatorname {supp} X-K'(t)\right]\,dt,\qquad \int _{\infty }^{0}\left[t\inf \operatorname {supp} X-K'(t)\right]\,dt}

Для сдвига распределения на c , для вырожденной точечной массы в c , кумулянтная производящая функция является прямой линией , и, в более общем случае, тогда и только тогда, когда X и Y независимы и существуют их кумулянтные производящие функции; ( субиндепенденсация и существование вторых моментов достаточны для того, чтобы подразумевать независимость. [6] ) K X + c ( t ) = K X ( t ) + c t . {\textstyle K_{X+c}(t)=K_{X}(t)+ct.} K c ( t ) = c t {\textstyle K_{c}(t)=ct} K X + Y = K X + K Y {\textstyle K_{X+Y}=K_{X}+K_{Y}}

Естественное экспоненциальное семейство распределения может быть реализовано путем сдвига или переноса K ( t ) и вертикальной регулировки так, чтобы оно всегда проходило через начало координат: если f — это функция распределения с кумулянтной производящей функцией , а — ее естественное экспоненциальное семейство, то и K ( t ) = log M ( t ) , {\textstyle K(t)=\log M(t),} f | θ {\textstyle f|\theta } f ( x θ ) = 1 M ( θ ) e θ x f ( x ) , {\textstyle f(x\mid \theta )={\frac {1}{M(\theta )}}e^{\theta x}f(x),} K ( t θ ) = K ( t + θ ) K ( θ ) . {\textstyle K(t\mid \theta )=K(t+\theta )-K(\theta ).}

Если K ( t ) конечен для диапазона t 1 < Re( t ) < t 2 , то если t 1 < 0 < t 2 , то K ( t ) аналитичен и бесконечно дифференцируем для t 1 < Re( t ) < t 2 . Более того, для действительных t и t 1 < t < t 2 K ( t ) строго выпуклый, а K ′( t ) строго возрастает. [ необходима цитата ]

Дополнительные свойства кумулянтов

Отрицательный результат

Учитывая результаты для кумулянтов нормального распределения , можно было бы надеяться найти семейства распределений, для которых κ m = κ m +1 = ⋯ = 0 для некоторого m > 3 , с кумулянтами низшего порядка (порядки от 3 до m − 1 ), не равными нулю. Таких распределений не существует. [7] Основной результат здесь заключается в том, что функция генерации кумулянтов не может быть полиномом конечного порядка степени выше 2.

Кумулянты и моменты

Функция , производящая момент, определяется выражением: M ( t ) = 1 + n = 1 μ n t n n ! = exp ( n = 1 κ n t n n ! ) = exp ( K ( t ) ) . {\displaystyle M(t)=1+\sum _{n=1}^{\infty }{\frac {\mu '_{n}t^{n}}{n!}}=\exp \left(\sum _{n=1}^{\infty }{\frac {\kappa _{n}t^{n}}{n!}}\right)=\exp(K(t)).}

Таким образом, функция генерации кумулянта является логарифмом функции генерации момента. K ( t ) = log M ( t ) . {\displaystyle K(t)=\log M(t).}

Первый кумулянт — это ожидаемое значение ; второй и третий кумулянты — это соответственно второй и третий центральные моменты (второй центральный момент — это дисперсия ); но более высокие кумулянты не являются ни моментами, ни центральными моментами, а скорее более сложными полиномиальными функциями моментов.

Моменты можно восстановить в терминах кумулянтов, оценив n -ю производную от , exp ( K ( t ) ) {\textstyle \exp(K(t))} t = 0 {\displaystyle t=0} μ n = M ( n ) ( 0 ) = d n exp ( K ( t ) ) d t n | t = 0 . {\displaystyle \mu '_{n}=M^{(n)}(0)=\left.{\frac {\mathrm {d} ^{n}\exp(K(t))}{\mathrm {d} t^{n}}}\right|_{t=0}.}

Аналогично, кумулянты можно восстановить в терминах моментов, оценив n - ю производную от ⁠ , log M ( t ) {\textstyle \log M(t)} t = 0 {\displaystyle t=0} κ n = K ( n ) ( 0 ) = d n log M ( t ) d t n | t = 0 . {\displaystyle \kappa _{n}=K^{(n)}(0)=\left.{\frac {\mathrm {d} ^{n}\log M(t)}{\mathrm {d} t^{n}}}\right|_{t=0}.}

Явное выражение для n- го момента в терминах первых n кумулянтов, и наоборот, можно получить, используя формулу Фаа ди Бруно для высших производных сложных функций. В общем случае мы имеем где — неполные (или частичные) полиномы Белла . μ n = k = 1 n B n , k ( κ 1 , , κ n k + 1 ) {\displaystyle \mu '_{n}=\sum _{k=1}^{n}B_{n,k}(\kappa _{1},\ldots ,\kappa _{n-k+1})} κ n = k = 1 n ( 1 ) k 1 ( k 1 ) ! B n , k ( μ 1 , , μ n k + 1 ) , {\displaystyle \kappa _{n}=\sum _{k=1}^{n}(-1)^{k-1}(k-1)!B_{n,k}(\mu '_{1},\ldots ,\mu '_{n-k+1}),} B n , k {\textstyle B_{n,k}}

Аналогично, если среднее значение задано как , то функция, генерирующая центральный момент, задана как и n- й центральный момент получается в терминах кумулянтов как μ {\textstyle \mu } C ( t ) = E [ e t ( x μ ) ] = e μ t M ( t ) = exp ( K ( t ) μ t ) , {\displaystyle C(t)=\operatorname {E} [e^{t(x-\mu )}]=e^{-\mu t}M(t)=\exp(K(t)-\mu t),} μ n = C ( n ) ( 0 ) = d n d t n exp ( K ( t ) μ t ) | t = 0 = k = 1 n B n , k ( 0 , κ 2 , , κ n k + 1 ) . {\displaystyle \mu _{n}=C^{(n)}(0)=\left.{\frac {\mathrm {d} ^{n}}{\mathrm {d} t^{n}}}\exp(K(t)-\mu t)\right|_{t=0}=\sum _{k=1}^{n}B_{n,k}(0,\kappa _{2},\ldots ,\kappa _{n-k+1}).}

Кроме того, для n > 1 n -й кумулянт в терминах центральных моментов равен κ n = K ( n ) ( 0 ) = d n d t n ( log C ( t ) + μ t ) | t = 0 = k = 1 n ( 1 ) k 1 ( k 1 ) ! B n , k ( 0 , μ 2 , , μ n k + 1 ) . {\displaystyle {\begin{aligned}\kappa _{n}&=K^{(n)}(0)=\left.{\frac {\mathrm {d} ^{n}}{\mathrm {d} t^{n}}}(\log C(t)+\mu t)\right|_{t=0}\\[4pt]&=\sum _{k=1}^{n}(-1)^{k-1}(k-1)!B_{n,k}(0,\mu _{2},\ldots ,\mu _{n-k+1}).\end{aligned}}}

N -й момент μ n является полиномом n -й степени в первых n кумулянтах. Первые несколько выражений:

μ 1 = κ 1 μ 2 = κ 2 + κ 1 2 μ 3 = κ 3 + 3 κ 2 κ 1 + κ 1 3 μ 4 = κ 4 + 4 κ 3 κ 1 + 3 κ 2 2 + 6 κ 2 κ 1 2 + κ 1 4 μ 5 = κ 5 + 5 κ 4 κ 1 + 10 κ 3 κ 2 + 10 κ 3 κ 1 2 + 15 κ 2 2 κ 1 + 10 κ 2 κ 1 3 + κ 1 5 μ 6 = κ 6 + 6 κ 5 κ 1 + 15 κ 4 κ 2 + 15 κ 4 κ 1 2 + 10 κ 3 2 + 60 κ 3 κ 2 κ 1 + 20 κ 3 κ 1 3 + 15 κ 2 3 + 45 κ 2 2 κ 1 2 + 15 κ 2 κ 1 4 + κ 1 6 . {\displaystyle {\begin{aligned}\mu '_{1}={}&\kappa _{1}\\[5pt]\mu '_{2}={}&\kappa _{2}+\kappa _{1}^{2}\\[5pt]\mu '_{3}={}&\kappa _{3}+3\kappa _{2}\kappa _{1}+\kappa _{1}^{3}\\[5pt]\mu '_{4}={}&\kappa _{4}+4\kappa _{3}\kappa _{1}+3\kappa _{2}^{2}+6\kappa _{2}\kappa _{1}^{2}+\kappa _{1}^{4}\\[5pt]\mu '_{5}={}&\kappa _{5}+5\kappa _{4}\kappa _{1}+10\kappa _{3}\kappa _{2}+10\kappa _{3}\kappa _{1}^{2}+15\kappa _{2}^{2}\kappa _{1}+10\kappa _{2}\kappa _{1}^{3}+\kappa _{1}^{5}\\[5pt]\mu '_{6}={}&\kappa _{6}+6\kappa _{5}\kappa _{1}+15\kappa _{4}\kappa _{2}+15\kappa _{4}\kappa _{1}^{2}+10\kappa _{3}^{2}+60\kappa _{3}\kappa _{2}\kappa _{1}+20\kappa _{3}\kappa _{1}^{3}\\&{}+15\kappa _{2}^{3}+45\kappa _{2}^{2}\kappa _{1}^{2}+15\kappa _{2}\kappa _{1}^{4}+\kappa _{1}^{6}.\end{aligned}}}

«Штрих» отличает моменты μn от центральных моментов μ n . Чтобы выразить центральные моменты как функции кумулянтов, просто отбросьте из этих полиномов все члены, в которых κ 1 появляется как множитель: μ 1 = 0 μ 2 = κ 2 μ 3 = κ 3 μ 4 = κ 4 + 3 κ 2 2 μ 5 = κ 5 + 10 κ 3 κ 2 μ 6 = κ 6 + 15 κ 4 κ 2 + 10 κ 3 2 + 15 κ 2 3 . {\displaystyle {\begin{aligned}\mu _{1}&=0\\[4pt]\mu _{2}&=\kappa _{2}\\[4pt]\mu _{3}&=\kappa _{3}\\[4pt]\mu _{4}&=\kappa _{4}+3\kappa _{2}^{2}\\[4pt]\mu _{5}&=\kappa _{5}+10\kappa _{3}\kappa _{2}\\[4pt]\mu _{6}&=\kappa _{6}+15\kappa _{4}\kappa _{2}+10\kappa _{3}^{2}+15\kappa _{2}^{3}.\end{aligned}}}

Аналогично, n- й кумулянт κ n является полиномом n -й степени в первых n нецентральных моментах. Первые несколько выражений: κ 1 = μ 1 κ 2 = μ 2 μ 1 2 κ 3 = μ 3 3 μ 2 μ 1 + 2 μ 1 3 κ 4 = μ 4 4 μ 3 μ 1 3 μ 2 2 + 12 μ 2 μ 1 2 6 μ 1 4 κ 5 = μ 5 5 μ 4 μ 1 10 μ 3 μ 2 + 20 μ 3 μ 1 2 + 30 μ 2 2 μ 1 60 μ 2 μ 1 3 + 24 μ 1 5 κ 6 = μ 6 6 μ 5 μ 1 15 μ 4 μ 2 + 30 μ 4 μ 1 2 10 μ 3 2 + 120 μ 3 μ 2 μ 1 120 μ 3 μ 1 3 + 30 μ 2 3 270 μ 2 2 μ 1 2 + 360 μ 2 μ 1 4 120 μ 1 6 . {\displaystyle {\begin{aligned}\kappa _{1}={}&\mu '_{1}\\[4pt]\kappa _{2}={}&\mu '_{2}-{\mu '_{1}}^{2}\\[4pt]\kappa _{3}={}&\mu '_{3}-3\mu '_{2}\mu '_{1}+2{\mu '_{1}}^{3}\\[4pt]\kappa _{4}={}&\mu '_{4}-4\mu '_{3}\mu '_{1}-3{\mu '_{2}}^{2}+12\mu '_{2}{\mu '_{1}}^{2}-6{\mu '_{1}}^{4}\\[4pt]\kappa _{5}={}&\mu '_{5}-5\mu '_{4}\mu '_{1}-10\mu '_{3}\mu '_{2}+20\mu '_{3}{\mu '_{1}}^{2}+30{\mu '_{2}}^{2}\mu '_{1}-60\mu '_{2}{\mu '_{1}}^{3}+24{\mu '_{1}}^{5}\\[4pt]\kappa _{6}={}&\mu '_{6}-6\mu '_{5}\mu '_{1}-15\mu '_{4}\mu '_{2}+30\mu '_{4}{\mu '_{1}}^{2}-10{\mu '_{3}}^{2}+120\mu '_{3}\mu '_{2}\mu '_{1}\\&{}-120\mu '_{3}{\mu '_{1}}^{3}+30{\mu '_{2}}^{3}-270{\mu '_{2}}^{2}{\mu '_{1}}^{2}+360\mu '_{2}{\mu '_{1}}^{4}-120{\mu '_{1}}^{6}\,.\end{aligned}}}

В общем случае [8] кумулянт является определителем матрицы: κ l = ( 1 ) l + 1 | μ 1 1 0 0 0 0 0 μ 2 μ 1 1 0 0 0 0 μ 3 μ 2 ( 2 1 ) μ 1 1 0 0 0 μ 4 μ 3 ( 3 1 ) μ 2 ( 3 2 ) μ 1 1 0 0 μ 5 μ 4 ( 4 1 ) μ 3 ( 4 2 ) μ 2 ( 4 3 ) μ 1 1 0 μ l 1 μ l 2 1 μ l μ l 1 ( l 1 l 2 ) μ 1 | {\displaystyle \kappa _{l}=(-1)^{l+1}\left|{\begin{array}{cccccccc}\mu '_{1}&1&0&0&0&0&\ldots &0\\\mu '_{2}&\mu '_{1}&1&0&0&0&\ldots &0\\\mu '_{3}&\mu '_{2}&\left({\begin{array}{l}2\\1\end{array}}\right)\mu '_{1}&1&0&0&\ldots &0\\\mu '_{4}&\mu '_{3}&\left({\begin{array}{l}3\\1\end{array}}\right)\mu '_{2}&\left({\begin{array}{l}3\\2\end{array}}\right)\mu '_{1}&1&0&\ldots &0\\\mu '_{5}&\mu '_{4}&\left({\begin{array}{l}4\\1\end{array}}\right)\mu '_{3}&\left({\begin{array}{l}4\\2\end{array}}\right)\mu '_{2}&\left({\begin{array}{c}4\\3\end{array}}\right)\mu '_{1}&1&\ldots &0\\\vdots &\vdots &\vdots &\vdots &\vdots &\ddots &\ddots &\vdots \\\mu '_{l-1}&\mu '_{l-2}&\ldots &\ldots &\ldots &\ldots &\ddots &1\\\mu '_{l}&\mu '_{l-1}&\ldots &\ldots &\ldots &\ldots &\ldots &\left({\begin{array}{l}l-1\\l-2\end{array}}\right)\mu '_{1}\end{array}}\right|}

Чтобы выразить кумулянты κ n для n > 1 как функции центральных моментов, отбросим из этих полиномов все члены, в которых μ' 1 появляется как множитель: κ 2 = μ 2 {\displaystyle \kappa _{2}=\mu _{2}\,} κ 3 = μ 3 {\displaystyle \kappa _{3}=\mu _{3}\,} κ 4 = μ 4 3 μ 2 2 {\displaystyle \kappa _{4}=\mu _{4}-3{\mu _{2}}^{2}\,} κ 5 = μ 5 10 μ 3 μ 2 {\displaystyle \kappa _{5}=\mu _{5}-10\mu _{3}\mu _{2}\,} κ 6 = μ 6 15 μ 4 μ 2 10 μ 3 2 + 30 μ 2 3 . {\displaystyle \kappa _{6}=\mu _{6}-15\mu _{4}\mu _{2}-10{\mu _{3}}^{2}+30{\mu _{2}}^{3}\,.}

Кумулянты могут быть связаны с моментами путем дифференцирования отношения log M ( t ) = K ( t ) относительно t , что дает M′ ( t ) = K′ ( t ) M ( t ) , которое удобно не содержит экспонент или логарифмов. Приравнивая коэффициент t n −1 / ( n −1)! в левой и правой частях и используя μ′ 0 = 1, получаем следующие формулы для n ≥ 1 : [9] Они позволяют вычислять либо или из другого, используя знание кумулянтов и моментов низшего порядка. Соответствующие формулы для центральных моментов для формируются из этих формул путем установки и замены каждой на для : μ 1 = κ 1 μ 2 = κ 1 μ 1 + κ 2 μ 3 = κ 1 μ 2 + 2 κ 2 μ 1 + κ 3 μ 4 = κ 1 μ 3 + 3 κ 2 μ 2 + 3 κ 3 μ 1 + κ 4 μ 5 = κ 1 μ 4 + 4 κ 2 μ 3 + 6 κ 3 μ 2 + 4 κ 4 μ 1 + κ 5 μ 6 = κ 1 μ 5 + 5 κ 2 μ 4 + 10 κ 3 μ 3 + 10 κ 4 μ 2 + 5 κ 5 μ 1 + κ 6 μ n = m = 1 n 1 ( n 1 m 1 ) κ m μ n m + κ n . {\displaystyle {\begin{aligned}\mu '_{1}={}&\kappa _{1}\\[1pt]\mu '_{2}={}&\kappa _{1}\mu '_{1}+\kappa _{2}\\[1pt]\mu '_{3}={}&\kappa _{1}\mu '_{2}+2\kappa _{2}\mu '_{1}+\kappa _{3}\\[1pt]\mu '_{4}={}&\kappa _{1}\mu '_{3}+3\kappa _{2}\mu '_{2}+3\kappa _{3}\mu '_{1}+\kappa _{4}\\[1pt]\mu '_{5}={}&\kappa _{1}\mu '_{4}+4\kappa _{2}\mu '_{3}+6\kappa _{3}\mu '_{2}+4\kappa _{4}\mu '_{1}+\kappa _{5}\\[1pt]\mu '_{6}={}&\kappa _{1}\mu '_{5}+5\kappa _{2}\mu '_{4}+10\kappa _{3}\mu '_{3}+10\kappa _{4}\mu '_{2}+5\kappa _{5}\mu '_{1}+\kappa _{6}\\[1pt]\mu '_{n}={}&\sum _{m=1}^{n-1}{n-1 \choose m-1}\kappa _{m}\mu '_{n-m}+\kappa _{n}\,.\end{aligned}}} κ n {\textstyle \kappa _{n}} μ n {\textstyle \mu '_{n}} μ n {\textstyle \mu _{n}} n 2 {\textstyle n\geq 2} μ 1 = κ 1 = 0 {\textstyle \mu '_{1}=\kappa _{1}=0} μ n {\textstyle \mu '_{n}} μ n {\textstyle \mu _{n}} n 2 {\textstyle n\geq 2} μ 2 = κ 2 μ 3 = κ 3 μ n = m = 2 n 2 ( n 1 m 1 ) κ m μ n m + κ n . {\displaystyle {\begin{aligned}\mu _{2}={}&\kappa _{2}\\[1pt]\mu _{3}={}&\kappa _{3}\\[1pt]\mu _{n}={}&\sum _{m=2}^{n-2}{n-1 \choose m-1}\kappa _{m}\mu _{n-m}+\kappa _{n}\,.\end{aligned}}}

Кумулянты и множества-разделы

Эти многочлены имеют замечательную комбинаторную интерпретацию: коэффициенты подсчитывают определенные разбиения множеств . Общая форма этих многочленов такова: где μ n = π Π B π κ | B | {\displaystyle \mu '_{n}=\sum _{\pi \,\in \,\Pi }\prod _{B\,\in \,\pi }\kappa _{|B|}}

  • π пробегает список всех разделов множества размера n ;
  • « Bπ » означает, что B является одним из «блоков», на которые разбито множество; и
  • | B | — размер множества B.

Таким образом, каждый моном является константой, умноженной на произведение кумулянтов, в котором сумма индексов равна n (например, в члене κ 3 κ 2 2 κ 1 сумма индексов равна 3 + 2 + 2 + 1 = 8; это появляется в полиноме, который выражает 8-й момент как функцию первых восьми кумулянтов). Разбиение целого числа n соответствует каждому члену. Коэффициент в каждом члене является числом разбиений набора из n членов, которые схлопываются к этому разбиению целого числа n, когда члены набора становятся неразличимыми.

Кумулянты и комбинаторика

Дальнейшую связь между кумулянтами и комбинаторикой можно найти в работе Джан-Карло Рота , где связи с теорией инвариантов , симметричными функциями и биномиальными последовательностями изучаются с помощью теневого исчисления . [10]

Совместные кумулянты

Совместный кумулянт κ нескольких случайных величин X 1 , ..., X n определяется как коэффициент κ 1,...,1 ( X 1 , ..., X n ) в ряду Маклорена многомерной кумулянтной производящей функции, см. раздел 3.1 в [11]. Обратите внимание, что и, в частности, как и в случае с одной переменной, производящая функция и кумулянт могут быть определены посредством в этом случае и G ( t 1 , , t n ) = log E ( e j = 1 n t j X j ) = k 1 , , k n κ k 1 , , k n t 1 k 1 t n k n k 1 ! k n ! . {\displaystyle G(t_{1},\dots ,t_{n})=\log \mathrm {E} (\mathrm {e} ^{\sum _{j=1}^{n}t_{j}X_{j}})=\sum _{k_{1},\ldots ,k_{n}}\kappa _{k_{1},\ldots ,k_{n}}{\frac {t_{1}^{k_{1}}\cdots t_{n}^{k_{n}}}{k_{1}!\cdots k_{n}!}}\,.} κ k 1 , , k n = ( d d t 1 ) k 1 ( d d t n ) k n G ( t 1 , , t n ) | t 1 = = t n = 0 , {\displaystyle \kappa _{k_{1},\dots ,k_{n}}=\left.\left({\frac {\mathrm {d} }{\mathrm {d} t_{1}}}\right)^{k_{1}}\cdots \left({\frac {\mathrm {d} }{\mathrm {d} t_{n}}}\right)^{k_{n}}G(t_{1},\dots ,t_{n})\right|_{t_{1}=\dots =t_{n}=0}\,,} κ ( X 1 , , X n ) = d n d t 1 d t n G ( t 1 , , t n ) | t 1 = = t n = 0 . {\displaystyle \kappa (X_{1},\ldots ,X_{n})=\left.{\frac {\mathrm {d} ^{n}}{\mathrm {d} t_{1}\cdots \mathrm {d} t_{n}}}G(t_{1},\dots ,t_{n})\right|_{t_{1}=\dots =t_{n}=0}\,.} H ( t 1 , , t n ) = log E ( e j = 1 n i t j X j ) = k 1 , , k n κ k 1 , , k n i k 1 + + k n t 1 k 1 t n k n k 1 ! k n ! , {\displaystyle H(t_{1},\dots ,t_{n})=\log \mathrm {E} (\mathrm {e} ^{\sum _{j=1}^{n}it_{j}X_{j}})=\sum _{k_{1},\ldots ,k_{n}}\kappa _{k_{1},\ldots ,k_{n}}i^{k_{1}+\cdots +k_{n}}{\frac {t_{1}^{k_{1}}\cdots t_{n}^{k_{n}}}{k_{1}!\cdots k_{n}!}}\,,} κ k 1 , , k n = ( i ) k 1 + + k n ( d d t 1 ) k 1 ( d d t n ) k n H ( t 1 , , t n ) | t 1 = = t n = 0 , {\displaystyle \kappa _{k_{1},\dots ,k_{n}}=(-i)^{k_{1}+\cdots +k_{n}}\left.\left({\frac {\mathrm {d} }{\mathrm {d} t_{1}}}\right)^{k_{1}}\cdots \left({\frac {\mathrm {d} }{\mathrm {d} t_{n}}}\right)^{k_{n}}H(t_{1},\dots ,t_{n})\right|_{t_{1}=\dots =t_{n}=0}\,,} κ ( X 1 , , X n ) = ( i ) n d n d t 1 d t n H ( t 1 , , t n ) | t 1 = = t n = 0 . {\displaystyle \kappa (X_{1},\ldots ,X_{n})=\left.(-i)^{n}{\frac {\mathrm {d} ^{n}}{\mathrm {d} t_{1}\cdots \mathrm {d} t_{n}}}H(t_{1},\dots ,t_{n})\right|_{t_{1}=\dots =t_{n}=0}\,.}

Повторяющиеся случайные величины и связь между коэффициентамикк 1 , ..., к н

Заметим, что можно также записать в виде , из чего следует, что Например , и В частности, последнее равенство показывает, что кумулянты одной случайной величины являются совместными кумулянтами нескольких копий этой случайной величины. κ k 1 , , k n ( X 1 , , X n ) {\textstyle \kappa _{k_{1},\dots ,k_{n}}(X_{1},\ldots ,X_{n})} κ k 1 , , k n = d k 1 d t 1 , 1 d t 1 , k 1 d k n d t n , 1 d t n , k n G ( j = 1 k 1 t 1 , j , , j = 1 k n t n , j ) | t i , j = 0 , {\displaystyle \kappa _{k_{1},\dots ,k_{n}}=\left.{\frac {\mathrm {d} ^{k_{1}}}{\mathrm {d} t_{1,1}\cdots \mathrm {d} t_{1,k_{1}}}}\cdots {\frac {\mathrm {d} ^{k_{n}}}{\mathrm {d} t_{n,1}\cdots \mathrm {d} t_{n,k_{n}}}}G\left(\sum _{j=1}^{k_{1}}t_{1,j},\dots ,\sum _{j=1}^{k_{n}}t_{n,j}\right)\right|_{t_{i,j}=0},} κ k 1 , , k n ( X 1 , , X n ) = κ 1 , , 1 ( X 1 , , X 1 k 1 , , X n , , X n k n ) . {\displaystyle \kappa _{k_{1},\dots ,k_{n}}(X_{1},\ldots ,X_{n})=\kappa _{1,\ldots ,1}(\underbrace {X_{1},\dots ,X_{1}} _{k_{1}},\ldots ,\underbrace {X_{n},\dots ,X_{n}} _{k_{n}}).} κ 2 , 0 , 1 ( X , Y , Z ) = κ ( X , X , Z ) , {\displaystyle \kappa _{2,0,1}(X,Y,Z)=\kappa (X,X,Z),\,} κ 0 , 0 , n , 0 ( X , Y , Z , T ) = κ n ( Z ) = κ ( Z , , Z n ) . {\displaystyle \kappa _{0,0,n,0}(X,Y,Z,T)=\kappa _{n}(Z)=\kappa (\underbrace {Z,\dots ,Z} _{n}).\,}

Связь со смешанными моментами

Совместный кумулянт или случайные величины могут быть выражены как альтернативная сумма произведений их смешанных моментов , см. уравнение (3.2.7) в [11] , где  π пробегает список всех разделов {1, ..., n } ; где  B пробегает список всех блоков раздела  π ; и где  | π | - число частей в разделе. κ ( X 1 , , X n ) = π ( | π | 1 ) ! ( 1 ) | π | 1 B π E ( i B X i ) {\displaystyle \kappa (X_{1},\dots ,X_{n})=\sum _{\pi }(|\pi |-1)!(-1)^{|\pi |-1}\prod _{B\in \pi }E\left(\prod _{i\in B}X_{i}\right)}

Например, — ожидаемое значение , — ковариация и , а κ ( X ) = E ( X ) , {\displaystyle \kappa (X)=\operatorname {E} (X),} X {\textstyle X} κ ( X , Y ) = E ( X Y ) E ( X ) E ( Y ) , {\displaystyle \kappa (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y),} X {\textstyle X} Y {\textstyle Y} κ ( X , Y , Z ) = E ( X Y Z ) E ( X Y ) E ( Z ) E ( X Z ) E ( Y ) E ( Y Z ) E ( X ) + 2 E ( X ) E ( Y ) E ( Z ) . {\displaystyle \kappa (X,Y,Z)=\operatorname {E} (XYZ)-\operatorname {E} (XY)\operatorname {E} (Z)-\operatorname {E} (XZ)\operatorname {E} (Y)-\operatorname {E} (YZ)\operatorname {E} (X)+2\operatorname {E} (X)\operatorname {E} (Y)\operatorname {E} (Z).\,}

Для случайных величин с нулевым средним любой смешанный момент формы исчезает, если является разбиением, которое содержит синглтон . Следовательно, выражение их совместного кумулянта в терминах смешанных моментов упрощается. Например, если X,Y,Z,W являются случайными величинами с нулевым средним, то мы имеем X 1 , , X n {\textstyle X_{1},\ldots ,X_{n}} B π E ( i B X i ) {\textstyle \prod _{B\in \pi }E\left(\prod _{i\in B}X_{i}\right)} π {\textstyle \pi } { 1 , , n } {\textstyle \{1,\ldots ,n\}} B = { k } {\textstyle B=\{k\}} κ ( X , Y , Z ) = E ( X Y Z ) . {\displaystyle \kappa (X,Y,Z)=\operatorname {E} (XYZ).\,} κ ( X , Y , Z , W ) = E ( X Y Z W ) E ( X Y ) E ( Z W ) E ( X Z ) E ( Y W ) E ( X W ) E ( Y Z ) . {\displaystyle \kappa (X,Y,Z,W)=\operatorname {E} (XYZW)-\operatorname {E} (XY)\operatorname {E} (ZW)-\operatorname {E} (XZ)\operatorname {E} (YW)-\operatorname {E} (XW)\operatorname {E} (YZ).\,}

В более общем смысле любой коэффициент ряда Маклорена также может быть выражен в терминах смешанных моментов, хотя кратких формул не существует. Действительно, как отмечено выше, можно записать его как совместный кумулянт, повторяя случайные величины соответствующим образом, а затем применить приведенную выше формулу, чтобы выразить его в терминах смешанных моментов. Например κ 201 ( X , Y , Z ) = κ ( X , X , Z ) = E ( X 2 Z ) 2 E ( X Z ) E ( X ) E ( X 2 ) E ( Z ) + 2 E ( X ) 2 E ( Z ) . {\displaystyle \kappa _{201}(X,Y,Z)=\kappa (X,X,Z)=\operatorname {E} (X^{2}Z)-2\operatorname {E} (XZ)\operatorname {E} (X)-\operatorname {E} (X^{2})\operatorname {E} (Z)+2\operatorname {E} (X)^{2}\operatorname {E} (Z).\,}

Если некоторые случайные величины независимы от всех остальных, то любой кумулянт, включающий две (или более) независимых случайных величины, равен нулю. [ необходима ссылка ]

Комбинаторный смысл выражения смешанных моментов через кумулянты понять легче, чем смысл кумулянтов через смешанные моменты, см. уравнение (3.2.6) в: [11] E ( X 1 X n ) = π B π κ ( X i : i B ) . {\displaystyle \operatorname {E} (X_{1}\cdots X_{n})=\sum _{\pi }\prod _{B\in \pi }\kappa (X_{i}:i\in B).}

Например: E ( X Y Z ) = κ ( X , Y , Z ) + κ ( X , Y ) κ ( Z ) + κ ( X , Z ) κ ( Y ) + κ ( Y , Z ) κ ( X ) + κ ( X ) κ ( Y ) κ ( Z ) . {\displaystyle \operatorname {E} (XYZ)=\kappa (X,Y,Z)+\kappa (X,Y)\kappa (Z)+\kappa (X,Z)\kappa (Y)+\kappa (Y,Z)\kappa (X)+\kappa (X)\kappa (Y)\kappa (Z).\,}

Дополнительные свойства

Другим важным свойством совместных кумулянтов является мультилинейность: κ ( X + Y , Z 1 , Z 2 , ) = κ ( X , Z 1 , Z 2 , ) + κ ( Y , Z 1 , Z 2 , ) . {\displaystyle \kappa (X+Y,Z_{1},Z_{2},\dots )=\kappa (X,Z_{1},Z_{2},\ldots )+\kappa (Y,Z_{1},Z_{2},\ldots ).\,}

Так же, как второй кумулянт является дисперсией, совместный кумулянт всего двух случайных величин является ковариацией . Знакомое тождество обобщается на кумулянты: var ( X + Y ) = var ( X ) + 2 cov ( X , Y ) + var ( Y ) {\displaystyle \operatorname {var} (X+Y)=\operatorname {var} (X)+2\operatorname {cov} (X,Y)+\operatorname {var} (Y)\,} κ n ( X + Y ) = j = 0 n ( n j ) κ ( X , , X j , Y , , Y n j ) . {\displaystyle \kappa _{n}(X+Y)=\sum _{j=0}^{n}{n \choose j}\kappa (\,\underbrace {X,\dots ,X} _{j},\underbrace {Y,\dots ,Y} _{n-j}\,).\,}

Условные кумулянты и закон полной кумулянтности

Закон полного ожидания и закон полной дисперсии естественным образом обобщаются на условные кумулянты. Случай n = 3 , выраженный на языке (центральных) моментов , а не на языке кумулянтов, говорит: μ 3 ( X ) = E ( μ 3 ( X Y ) ) + μ 3 ( E ( X Y ) ) + 3 cov ( E ( X Y ) , var ( X Y ) ) . {\displaystyle \mu _{3}(X)=\operatorname {E} (\mu _{3}(X\mid Y))+\mu _{3}(\operatorname {E} (X\mid Y))+3\operatorname {cov} (\operatorname {E} (X\mid Y),\operatorname {var} (X\mid Y)).}

В общем случае, [12] где κ ( X 1 , , X n ) = π κ ( κ ( X π 1 Y ) , , κ ( X π b Y ) ) {\displaystyle \kappa (X_{1},\dots ,X_{n})=\sum _{\pi }\kappa (\kappa (X_{\pi _{1}}\mid Y),\dots ,\kappa (X_{\pi _{b}}\mid Y))}

  • сумма берется по всем разбиениям  π набора {1, ..., n } индексов, и
  • π 1 , ...,  π b — все «блоки» разбиения π ; выражение κ ( X π m ) указывает на совместный кумулянт случайных величин, индексы которых находятся в этом блоке разбиения.

Условные кумулянты и условное ожидание

Для определенных настроек можно установить производное тождество между условным кумулянтом и условным ожиданием. Например, предположим, что Y = X + Z , где Z — стандартное нормальное распределение, независимое от X , тогда для любого X выполняется следующее [13] Результаты также можно распространить на экспоненциальное семейство. [14] κ n + 1 ( X Y = y ) = d n d y n E ( X Y = y ) , n N , y R . {\displaystyle \kappa _{n+1}(X\mid Y=y)={\frac {\mathrm {d} ^{n}}{\mathrm {d} y^{n}}}\operatorname {E} (X\mid Y=y),\,n\in \mathbb {N} ,\,y\in \mathbb {R} .}

Связь со статистической физикой

В статистической физике многие экстенсивные величины – то есть величины, пропорциональные объему или размеру данной системы – связаны с кумулянтами случайных величин. Глубокая связь заключается в том, что в большой системе экстенсивную величину, такую ​​как энергия или число частиц, можно рассматривать как сумму (скажем) энергии, связанной с рядом почти независимых областей. Тот факт, что кумулянты этих почти независимых случайных величин будут (почти) складываться, делает разумным ожидать, что экстенсивные величины будут связаны с кумулянтами.

Система, находящаяся в равновесии с термальной ванной при температуре T, имеет флуктуирующую внутреннюю энергию E , которую можно считать случайной величиной, взятой из распределения . Статистическая сумма системы равна где β1/( kT ) , а kпостоянная Больцмана , и обозначение было использовано вместо ожидаемого значения, чтобы избежать путаницы с энергией E . Следовательно, первый и второй кумулянты для энергии E дают среднюю энергию и теплоемкость. E p ( E ) {\textstyle E\sim p(E)} Z ( β ) = i e β E i , {\displaystyle Z(\beta )=\sum _{i}e^{-\beta E_{i}},} A {\textstyle \langle A\rangle } E [ A ] {\textstyle \operatorname {E} [A]} E c = log Z ( β ) = E E 2 c = E c ( β ) = k T 2 E T = k T 2 C {\displaystyle {\begin{aligned}\langle E\rangle _{c}&={\frac {\partial \log Z}{\partial (-\beta )}}=\langle E\rangle \\[6pt]\langle E^{2}\rangle _{c}&={\frac {\partial \langle E\rangle _{c}}{\partial (-\beta )}}=kT^{2}{\frac {\partial \langle E\rangle }{\partial T}}=kT^{2}C\end{aligned}}}

Свободная энергия Гельмгольца, выраженная в терминах, далее связывает термодинамические величины с функцией генерации кумулянта для энергии. Термодинамические свойства, которые являются производными свободной энергии, такие как ее внутренняя энергия , энтропия и удельная теплоемкость, могут быть легко выражены в терминах этих кумулянтов. Другая свободная энергия может быть функцией других переменных, таких как магнитное поле или химический потенциал , например, где N — число частиц, а — большой потенциал. Опять же, тесная связь между определением свободной энергии и функцией генерации кумулянта подразумевает, что различные производные этой свободной энергии могут быть записаны в терминах совместных кумулянтов E и N. F ( β ) = β 1 log Z ( β ) {\displaystyle F(\beta )=-\beta ^{-1}\log Z(\beta )\,} μ {\textstyle \mu } Ω = β 1 log ( exp ( β E β μ N ) ) , {\displaystyle \Omega =-\beta ^{-1}\log(\langle \exp(-\beta E-\beta \mu N)\rangle ),\,} Ω {\textstyle \Omega }

История

Историю кумулянтов обсуждает Андерс Хальд . [15] [16]

Кумулянты были впервые введены Торвальдом Н. Тиле в 1889 году, который назвал их полуинвариантами . [17] Впервые они были названы кумулянтами в статье 1932 года Рональда Фишера и Джона Уишарта . [18] Фишеру публично напомнил о работе Тиле Нейман, который также отмечает предыдущие опубликованные цитаты Тиле, доведенные до сведения Фишера. [19] Стивен Стиглер сказал [ требуется цитата ] , что название кумулянт было предложено Фишеру в письме от Гарольда Хотеллинга . В статье, опубликованной в 1929 году, Фишер назвал их кумулятивными моментными функциями . [20]

Разделительная функция в статистической физике была введена Джозайей Уиллардом Гиббсом в 1901 году. [ требуется ссылка ] Свободная энергия часто называется свободной энергией Гиббса. В статистической механике кумулянты также известны как функции Урселла, относящиеся к публикации 1927 года. [ требуется ссылка ]

Кумулянты в обобщенных условиях

Формальные кумулянты

В более общем смысле, кумулянты последовательности { m n  : n = 1, 2, 3, ... } , не обязательно моменты любого распределения вероятностей, по определению находятся там, где значения κ n для n = 1, 2, 3, ... находятся формально, т. е. только с помощью алгебры, без учета вопросов о том, сходится ли какой-либо ряд. Все трудности «проблемы кумулянтов» отсутствуют, когда работаешь формально. Простейшим примером является то, что второй кумулянт распределения вероятностей всегда должен быть неотрицательным и равен нулю, только если все более высокие кумулянты равны нулю. Формальные кумулянты не подчиняются таким ограничениям. 1 + n = 1 m n t n n ! = exp ( n = 1 κ n t n n ! ) , {\displaystyle 1+\sum _{n=1}^{\infty }{\frac {m_{n}t^{n}}{n!}}=\exp \left(\sum _{n=1}^{\infty }{\frac {\kappa _{n}t^{n}}{n!}}\right),}

Номера колоколов

В комбинаторике n- ое число Белла — это число разбиений множества размера n . Все кумулянты последовательности чисел Белла равны 1. Числа Белла — это моменты распределения Пуассона с ожидаемым значением 1 .

Кумулянты полиномиальной последовательности биномиального типа

Для любой последовательности { κ n  : n = 1, 2, 3, ... } скаляров в поле характеристики нуль, рассматриваемых как формальные кумулянты, существует соответствующая последовательность { μ : n = 1, 2, 3, ... } формальных моментов, заданных вышеприведенными полиномами. [ необходимо разъяснение ] [ необходима цитата ] Для этих полиномов постройте полиномиальную последовательность следующим образом. Из полинома сделайте новый полином от этих плюс одну дополнительную переменную x : и затем обобщите шаблон. Шаблон заключается в том, что числа блоков в вышеупомянутых разбиениях являются показателями степеней от x . Каждый коэффициент является полиномом от кумулянтов; это полиномы Белла , названные в честь Эрика Темпла Белла . [ необходима цитата ] μ 6 = κ 6 + 6 κ 5 κ 1 + 15 κ 4 κ 2 + 15 κ 4 κ 1 2 + 10 κ 3 2 + 60 κ 3 κ 2 κ 1 + 20 κ 3 κ 1 3 + 15 κ 2 3 + 45 κ 2 2 κ 1 2 + 15 κ 2 κ 1 4 + κ 1 6 {\displaystyle {\begin{aligned}\mu '_{6}={}&\kappa _{6}+6\kappa _{5}\kappa _{1}+15\kappa _{4}\kappa _{2}+15\kappa _{4}\kappa _{1}^{2}+10\kappa _{3}^{2}+60\kappa _{3}\kappa _{2}\kappa _{1}+20\kappa _{3}\kappa _{1}^{3}\\&{}+15\kappa _{2}^{3}+45\kappa _{2}^{2}\kappa _{1}^{2}+15\kappa _{2}\kappa _{1}^{4}+\kappa _{1}^{6}\end{aligned}}} p 6 ( x ) = κ 6 x + ( 6 κ 5 κ 1 + 15 κ 4 κ 2 + 10 κ 3 2 ) x 2 + ( 15 κ 4 κ 1 2 + 60 κ 3 κ 2 κ 1 + 15 κ 2 3 ) x 3 + ( 45 κ 2 2 κ 1 2 ) x 4 + ( 15 κ 2 κ 1 4 ) x 5 + ( κ 1 6 ) x 6 , {\displaystyle {\begin{aligned}p_{6}(x)={}&\kappa _{6}\,x+(6\kappa _{5}\kappa _{1}+15\kappa _{4}\kappa _{2}+10\kappa _{3}^{2})\,x^{2}+(15\kappa _{4}\kappa _{1}^{2}+60\kappa _{3}\kappa _{2}\kappa _{1}+15\kappa _{2}^{3})\,x^{3}\\&{}+(45\kappa _{2}^{2}\kappa _{1}^{2})\,x^{4}+(15\kappa _{2}\kappa _{1}^{4})\,x^{5}+(\kappa _{1}^{6})\,x^{6},\end{aligned}}}

Эта последовательность полиномов имеет биномиальный тип . Фактически, не существует других последовательностей биномиального типа; каждая полиномиальная последовательность биномиального типа полностью определяется своей последовательностью формальных кумулянтов. [ необходима цитата ]

Бесплатные кумулянты

В приведенной выше формуле момент-кумулянт для совместных кумулянтов суммирование производится по всем разбиениям множества { 1, ..., n } . Если вместо этого суммирование производится только по непересекающимся разбиениям , то, решая эти формулы для в терминах моментов, мы получаем свободные кумулянты, а не обычные кумулянты, рассмотренные выше. Эти свободные кумулянты были введены Роландом Шпайхером и играют центральную роль в свободной теории вероятностей . [21] [22] В этой теории вместо рассмотрения независимости случайных величин , определяемой в терминах тензорных произведений алгебр случайных величин, вместо этого рассматривается свободная независимость случайных величин, определяемая в терминах свободных произведений алгебр. [22] E ( X 1 X n ) = π B π κ ( X i : i B ) {\displaystyle \operatorname {E} (X_{1}\cdots X_{n})=\sum _{\pi }\prod _{B\,\in \,\pi }\kappa (X_{i}:i\in B)} κ {\textstyle \kappa }

Обычные кумулянты степени выше 2 нормального распределения равны нулю. Свободные кумулянты степени выше 2 полукругового распределения Вигнера равны нулю. [22] Это одно из отношений, в котором роль распределения Вигнера в свободной теории вероятностей аналогична роли нормального распределения в обычной теории вероятностей.

Смотрите также

Ссылки

  1. ^ Weisstein, Eric W. "Cumulant". Из MathWorld – A Wolfram Web Resource. http://mathworld.wolfram.com/Cumulant.html
  2. ^ Кендалл, МГ, Стюарт, А. (1969) Продвинутая теория статистики , том 1 (3-е издание). Гриффин, Лондон. (Раздел 3.12)
  3. ^ Лукач, Э. (1970) Характеристические функции (2-е издание). Гриффин, Лондон. (стр. 27)
  4. ^ Лукач, Э. (1970) Характеристические функции (2-е издание). Гриффин, Лондон. (Раздел 2.4)
  5. ^ Аапо Хиваринен, Юха Кархунен и Эркки Оя (2001) Независимый анализ компонентов , John Wiley & Sons . (раздел 2.7.2)
  6. ^ Хамедани, Г.Г.; Фолькмер, Ганс; Бехбудиан, Дж. (01 марта 2012 г.). «Заметка о субнезависимых случайных величинах и классе двумерных смесей». Studia Scientiarum Mathematicarum Hungarica . 49 (1): 19–25 . doi :10.1556/SScMath.2011.1183.
  7. ^ Лукач, Э. (1970) Характеристические функции (2-е издание), Гриффин, Лондон. (Теорема 7.3.5)
  8. ^ Базант, Мартин (4 февраля 2005 г.). "MIT 18.366 | Осень 2006 г. | Выпускник | Случайные блуждания и диффузия, Лекция 2: Моменты, кумулянты и масштабирование". MIT OpenCourseWare . Архивировано из оригинала 2022-10-07 . Получено 2023-09-03 .
  9. ^ Смит, Питер Дж. (май 1995 г.). «Рекурсивная формулировка старой проблемы получения моментов из кумулянтов и наоборот». The American Statistician . 49 (2): 217– 218. doi :10.2307/2684642. JSTOR  2684642.
  10. ^ Рота, Г.-Ч.; Шен, Дж. (2000). «О комбинаторике кумулянтов». Журнал комбинаторной теории, Серия A. 91 ( 1–2 ) : 283–304 . doi : 10.1006/jcta.1999.3017 .
  11. ^ abc Peccati , Giovanni; Taqqu, Murad S. (2011). "Wiener Chaos: Moments, Cumulants and Diagrams". Bocconi & Springer Series . 1. doi :10.1007/978-88-470-1679-8. ISBN 978-88-470-1678-1. ISSN  2039-1471.
  12. ^ Brillinger, DR (1969). «Вычисление кумулянтов через обусловливание». Annals of the Institute of Statistical Mathematics . 21 : 215– 218. doi :10.1007/bf02532246. S2CID  122673823.
  13. ^ Dytso, Alex; Poor, H. Vincent; Shamai Shitz, Shlomo (2023). «Условная оценка среднего в гауссовском шуме: метапроизводная идентичность с приложениями». IEEE Transactions on Information Theory . 69 (3): 1883– 1898. doi : 10.1109/TIT.2022.3216012. S2CID  253308274.
  14. ^ Дитсо, Алекс; Кардоне, Мартина; Зидер, Ян (2023). «Метапроизводное тождество для условного ожидания». Труды IEEE по теории информации . 69 (7): 4284– 4302. doi :10.1109/TIT.2023.3249163. S2CID  257247930.
  15. ^ Hald, A. (2000) «Ранняя история кумулянтов и рядов Грама–Шарлье » International Statistical Review , 68 (2): 137–153. (Перепечатано в Lauritzen, Steffen L. , ed. (2002). Thiele: Pioneer in Statistics . Oxford UP ISBN 978-0-19-850972-1.)
  16. ^ Хальд, Андерс (1998). История математической статистики с 1750 по 1930 год . Нью-Йорк: Wiley. ISBN 978-0-471-17912-2.
  17. ^ Х. Крамер (1946) Математические методы статистики, Princeton University Press, Раздел 15.10, стр. 186.
  18. ^ Фишер, РА , Джон Уишарт, Дж. (1932) Вывод формул шаблонов двусторонних разбиений из формул более простых шаблонов, Труды Лондонского математического общества , Серия 2, т. 33, стр. 195–208 doi :10.1112/plms/s2-33.1.195
  19. ^ Нейман, Дж. (1956): «Заметка о статье сэра Рональда Фишера», Журнал Королевского статистического общества , Серия B (Методологическая), 18, стр. 288–94.
  20. ^ Фишер, РА (1929). "Моменты и моменты произведений выборочных распределений" (PDF) . Труды Лондонского математического общества . 30 : 199–238 . doi :10.1112/plms/s2-30.1.199. hdl : 2440/15200 .
  21. ^ Шпайхер, Роланд (1994). «Мультипликативные функции на решетке непересекающихся разбиений и свободная свертка». Mathematische Annalen . 298 (4): 611– 628. doi :10.1007/BF01459754. S2CID  123022311.
  22. ^ abc Новак, Джонатан; Сняди, Петр (2011). «Что такое свободный кумулянт?». Notices of the American Mathematical Society . 58 (2): 300– 301. ISSN  0002-9920.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Cumulant&oldid=1272439671"