Логнормальное распределение

Распределение вероятностей
Логнормальное распределение
Функция плотности вероятности
График логнормального распределения PDF
Идентичный параметр , но разные параметры   μ   {\displaystyle \ \mu \ } σ {\displaystyle \сигма}
Кумулятивная функция распределения
График логнормального распределения CDF
  μ = 0   {\displaystyle \ \mu =0\ }
Обозначение   Логнормальный (   μ , σ 2   )   {\displaystyle \ \operatorname {Логнормальный} \left(\ \mu ,\,\sigma ^{2}\ \right)\ }
Параметры   μ (   , +   )   {\displaystyle \ \mu \in (\ -\infty,+\infty \)\ } (логарифм местоположения ), (логарифм масштаба )
  σ > 0   {\displaystyle \ \сигма >0\ }
Поддерживать   х (   0 , +   )   {\displaystyle \ x\in (\ 0,+\infty \ )\ }
PDF   1   х σ 2 π       опыт ( ( вн х μ   ) 2 2 σ 2 ) {\displaystyle \ {\frac {1}{\ x\sigma {\sqrt {2\pi \ }}\ }}\ \exp \left(-{\frac {\left(\ln x-\mu \ \right)^{2}}{2\sigma ^{2}}}\right)}
СДФ     1   2 [ 1 + ерф (   вн х μ   σ 2   ) ] = Ф ( вн ( х ) μ σ ) {\displaystyle \ {\frac {\ 1\ }{2}}\left[1+\operatorname {erf} \left({\frac {\ \ln x-\mu \ }{\sigma {\sqrt {2\ }}}}\right)\right]=\Phi \left({\frac {\ln(x)-\mu }{\sigma }}\right)}
Квантиль   опыт ( μ + 2 σ 2 ерф 1 ( 2 п 1 ) )   {\displaystyle \ \exp \left(\mu +{\sqrt {2\sigma ^{2}}}\operatorname {erf} ^{-1}(2p-1)\right)\ }

= опыт ( μ + σ Ф 1 ( п ) ) {\displaystyle =\exp(\mu +\sigma \Phi ^{-1}(p))}
Иметь в виду   опыт (   μ + σ 2 2   )   {\displaystyle \ \exp \left(\ \mu +{\frac {\sigma ^{2}}{2}}\ \right)\ }
Медиана   опыт (   μ   )   {\displaystyle \ \exp(\ \mu \ )\ }
Режим   опыт (   μ σ 2   )   {\displaystyle \ \exp \left(\ \mu -\sigma ^{2}\ \right)\ }
Дисперсия   [   опыт ( σ 2 ) 1   ]   опыт ( 2   μ + σ 2 )   {\displaystyle \ \left[\ \exp(\sigma ^{2})-1\ \right]\ \exp \left(2\ \mu +\sigma ^{2}\right)\ }
Асимметрия   [   опыт ( σ 2 ) + 2   ] опыт ( σ 2 ) 1 {\displaystyle \ \left[\ \exp \left(\sigma ^{2}\right)+2\ \right]{\sqrt {\exp(\sigma ^{2})-1\;}}}
Избыточный эксцесс   1   опыт ( 4   σ 2 ) + 2   опыт ( 3   σ 2 ) + 3   опыт ( 2 σ 2 ) 6   {\displaystyle \ 1\ \exp \left(4\ \sigma ^{2}\right)+2\ \exp \left(3\ \sigma ^{2}\right)+3\ \exp \left(2\sigma ^{2}\right)-6\ }
Энтропия   бревно 2 (   2 π     σ   е μ + 1 2   )   {\displaystyle \ \log _{2}\left(\ {\sqrt {2\pi \ }}\ \sigma \ e^{\mu +{\tfrac {1}{2}}}\ \right)\ }
МГФ определено только для чисел с
 неположительной действительной частью, см. текст
CF представление  асимптотически расходится, но подходит  для большинства числовых целей   н = 0   ( я   т ) н   н ! е   н μ + н 2 σ 2 / 2   {\displaystyle \ \sum _{n=0}^{\infty }{\frac {\ (i\ t)^{n}\ }{n!}}e^{\ n\mu +n^{2 }\сигма ^{2}/2}\ }

Информация о Фишере   ( 1   σ 2   0 0 2   σ 2   )   {\displaystyle \ {\begin{pmatrix}{\frac {1}{\ \sigma ^{2}\ }}&0\\0&{\frac {2}{\ \sigma ^{2}\ }}\end{pmatrix}}\ }
Метод моментов   μ = бревно ( Э [ Х ]       Вар [ Х ]       Э [ Х ] 2   + 1     )   , {\displaystyle \ \mu =\log \left({\frac {\operatorname {\mathbb {E} } [X]\ }{\ {\sqrt {{\frac {\ \operatorname {Var} [X]~~}{\ \operatorname {\mathbb {E} } [X]^{2}\ }}+1\ }}\ }}\right)\ ,}

  σ = бревно (   Вар [ Х ]       Э [ Х ] 2   + 1   )   {\displaystyle \ \sigma ={\sqrt {\log \left({\frac {\ \operatorname {Var} [X]~~}{\ \operatorname {\mathbb {E} } [X]^{2}\ }}+1\ \right)\ }}}
Ожидаемый дефицит

  1 2 e μ + σ 2 2   1 + erf ( σ   2     + erf 1 ( 2 p 1 ) )   p {\displaystyle \ {\frac {1}{2}}e^{\mu +{\frac {\sigma ^{2}}{2}}}{\frac {\ 1+\operatorname {erf} \left({\frac {\sigma }{\ {\sqrt {2\ }}\ }}+\operatorname {erf} ^{-1}(2p-1)\right)\ }{p}}} [1]



  = e μ + σ 2 2 1 1 p ( 1 Φ ( Φ 1 ( p ) σ ) ) {\displaystyle \ =e^{\mu +{\frac {\sigma ^{2}}{2}}}{\frac {1}{1-p}}(1-\Phi (\Phi ^{-1}(p)-\sigma ))}

В теории вероятностей логнормальное (или логнормальное ) распределение — это непрерывное распределение вероятностей случайной величины , логарифм которой распределен нормально . Таким образом, если случайная величина X распределена логнормально, то Y = ln( X ) имеет нормальное распределение. [2] [3] Эквивалентно, если Y имеет нормальное распределение, то экспоненциальная функция Y , X = exp( Y ) , имеет логнормальное распределение. Случайная величина, которая распределена логнормально, принимает только положительные действительные значения. Это удобная и полезная модель для измерений в точных и технических науках , а также в медицине , экономике и других областях (например, энергии, концентрации, длины, цены финансовых инструментов и другие метрики).

Распределение иногда называют распределением Гальтона или распределением Гальтона , в честь Фрэнсиса Гальтона . [4] Логнормальное распределение также было связано с другими именами, такими как Макалистер , Жибра и Кобб-Дуглас . [4]

Логнормальный процесс — это статистическая реализация мультипликативного произведения многих независимых случайных величин , каждая из которых положительна. Это обосновывается рассмотрением центральной предельной теоремы в логарифмической области (иногда называемой законом Жибра ). Логнормальное распределение — это распределение вероятности максимальной энтропии для случайной величины X — для которой указаны среднее значение и дисперсия ln( X ) . [5]

Определения

Генерация и параметры

Пусть будет стандартной нормальной переменной , и пусть и будут двумя действительными числами, причем . Тогда распределение случайной величины   Z   {\displaystyle \ Z\ } μ {\displaystyle \mu } σ {\displaystyle \sigma } σ > 0 {\displaystyle \sigma >0}

X = e μ + σ Z {\displaystyle X=e^{\mu +\sigma Z}}

называется логнормальным распределением с параметрами и . Это ожидаемое значение (или среднее значение ) и стандартное отклонение натурального логарифма переменной , а не ожидание и стандартное отклонение самой переменной. μ {\displaystyle \mu } σ {\displaystyle \sigma }   X   {\displaystyle \ X\ }

Связь между нормальным и логнормальным распределением. Если распределено нормально, то распределено логнормально.   Y = μ + σ Z   {\displaystyle \ Y=\mu +\sigma Z\ }   X e Y   {\displaystyle \ X\sim e^{Y}\ }

Это соотношение справедливо независимо от основания логарифмической или показательной функции: Если распределено нормально, то так же обстоит дело и с любыми двумя положительными числами . Аналогично, если распределено логарифмически нормально, то так же и с любыми двумя положительными числами, где .   log a ( X )   {\displaystyle \ \log _{a}(X)\ }   log b ( X )   {\displaystyle \ \log _{b}(X)\ }   a , b 1   . {\displaystyle \ a,b\neq 1~.}   e Y   {\displaystyle \ e^{Y}\ }   a Y   , {\displaystyle \ a^{Y}\ ,} 0 < a 1 {\displaystyle 0<a\neq 1}

Чтобы получить распределение с желаемым средним значением и дисперсией, используются и μ X {\displaystyle \mu _{X}}   σ X 2   , {\displaystyle \ \sigma _{X}^{2}\ ,}   μ = ln ( μ X 2   μ X 2 + σ X 2     )   {\displaystyle \ \mu =\ln \left({\frac {\mu _{X}^{2}}{\ {\sqrt {\mu _{X}^{2}+\sigma _{X}^{2}\ }}\ }}\right)\ }   σ 2 = ln ( 1 +   σ X 2   μ X 2 )   . {\displaystyle \ \sigma ^{2}=\ln \left(1+{\frac {\ \sigma _{X}^{2}\ }{\mu _{X}^{2}}}\right)~.}

В качестве альтернативы можно использовать «мультипликативные» или «геометрические» параметры и . Они имеют более прямую интерпретацию: является медианой распределения и полезна для определения интервалов «разброса», см. ниже.   μ = e μ   {\displaystyle \ \mu ^{*}=e^{\mu }\ }   σ = e σ   {\displaystyle \ \sigma ^{*}=e^{\sigma }\ }   μ   {\displaystyle \ \mu ^{*}\ }   σ   {\displaystyle \ \sigma ^{*}\ }

Функция плотности вероятности

Положительная случайная величина распределена логарифмически нормально (т.е. ), если натуральный логарифм распределен нормально со средним значением и дисперсией   X   {\displaystyle \ X\ }   X Lognormal (   μ , σ 2   )   {\displaystyle \ X\sim \operatorname {Lognormal} \left(\ \mu ,\sigma ^{2}\ \right)\ }   X   {\displaystyle \ X\ } μ {\displaystyle \mu }   σ 2   : {\displaystyle \ \sigma ^{2}\ :}

ln ( X ) N ( μ , σ 2 ) {\displaystyle \ln(X)\sim {\mathcal {N}}(\mu ,\sigma ^{2})}

Пусть и будут соответственно кумулятивной функцией распределения вероятностей и функцией плотности вероятности стандартного нормального распределения, тогда имеем, что [2] [4] функция плотности вероятности логарифмически нормального распределения определяется выражением:   Φ   {\displaystyle \ \Phi \ }   φ   {\displaystyle \ \varphi \ }   N (   0 , 1   )   {\displaystyle \ {\mathcal {N}}(\ 0,1\ )\ }

f X ( x ) = d d x   P X [   X x   ] = d d x   P X [   ln X ln x   ] = d d x Φ (   ln x μ   σ ) = φ ( ln x μ σ ) d d x (   ln x μ   σ ) = φ (   ln x μ   σ ) 1   σ   x   = 1   x   σ 2   π     exp (   ( ln x μ ) 2   2   σ 2 )   . {\displaystyle {\begin{aligned}f_{X}(x)&={\frac {\rm {d}}{{\rm {d}}x}}\ \operatorname {\mathbb {P} _{\mathit {X}}} \,\!{\bigl [}\ X\leq x\ {\bigr ]}\\[6pt]&={\frac {\rm {d}}{{\rm {d}}x}}\ \operatorname {\mathbb {P} _{\mathit {X}}} \,\!{\bigl [}\ \ln X\leq \ln x\ {\bigr ]}\\[6pt]&={\frac {\rm {d}}{{\rm {d}}x}}\operatorname {\Phi } \!\!\left({\frac {\ \ln x-\mu \ }{\sigma }}\right)\\[6pt]&=\operatorname {\varphi } \!\left({\frac {\ln x-\mu }{\sigma }}\right){\frac {\rm {d}}{{\rm {d}}x}}\left({\frac {\ \ln x-\mu \ }{\sigma }}\right)\\[6pt]&=\operatorname {\varphi } \!\left({\frac {\ \ln x-\mu \ }{\sigma }}\right){\frac {1}{\ \sigma \ x\ }}\\[6pt]&={\frac {1}{\ x\ \sigma {\sqrt {2\ \pi \ }}\ }}\exp \left(-{\frac {\ (\ln x-\mu )^{2}\ }{2\ \sigma ^{2}}}\right)~.\end{aligned}}}

Кумулятивная функция распределения

Кумулятивная функция распределения имеет вид

F X ( x ) = Φ ( ( ln x ) μ σ ) {\displaystyle F_{X}(x)=\Phi \left({\frac {(\ln x)-\mu }{\sigma }}\right)}

где — кумулятивная функция распределения стандартного нормального распределения (т.е. ).   Φ   {\displaystyle \ \Phi \ }   N (   0 ,   1 )   {\displaystyle \ \operatorname {\mathcal {N}} (\ 0,\ 1)\ }

Это также можно выразить следующим образом: [2]

1 2 [ 1 + erf ( ln x μ σ 2 ) ] = 1 2 erfc ( ln x μ σ 2 ) {\displaystyle {\frac {1}{2}}\left[1+\operatorname {erf} \left({\frac {\ln x-\mu }{\sigma {\sqrt {2}}}}\right)\right]={\frac {1}{2}}\operatorname {erfc} \left(-{\frac {\ln x-\mu }{\sigma {\sqrt {2}}}}\right)}

где erfcдополнительная функция ошибок .

Многомерный логнормальный

Если — многомерное нормальное распределение , то имеет многомерное логнормальное распределение. [6] [7] Экспонента применяется поэлементно к случайному вектору . Среднее значение равно X N ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})} Y i = exp ( X i ) {\displaystyle Y_{i}=\exp(X_{i})} X {\displaystyle {\boldsymbol {X}}} Y {\displaystyle {\boldsymbol {Y}}}

E [ Y ] i = e μ i + 1 2 Σ i i , {\displaystyle \operatorname {E} [{\boldsymbol {Y}}]_{i}=e^{\mu _{i}+{\frac {1}{2}}\Sigma _{ii}},}

и его ковариационная матрица

Var [ Y ] i j = e μ i + μ j + 1 2 ( Σ i i + Σ j j ) ( e Σ i j 1 ) . {\displaystyle \operatorname {Var} [{\boldsymbol {Y}}]_{ij}=e^{\mu _{i}+\mu _{j}+{\frac {1}{2}}(\Sigma _{ii}+\Sigma _{jj})}(e^{\Sigma _{ij}}-1).}

Поскольку многомерное логнормальное распределение не используется широко, остальная часть этой статьи посвящена только одномерному распределению .

Характеристическая функция и функция создания момента

Все моменты логнормального распределения существуют и

E [ X n ] = e n μ + n 2 σ 2 / 2 {\displaystyle \operatorname {E} [X^{n}]=e^{n\mu +n^{2}\sigma ^{2}/2}}

Это можно вывести, допустив внутри интеграла. Однако логнормальное распределение не определяется своими моментами. [8] Это означает, что оно не может иметь определенную функцию, производящую моменты в окрестности нуля. [9] Действительно, ожидаемое значение не определено для любого положительного значения аргумента , поскольку определяющий интеграл расходится. z = ln ( x ) ( μ + n σ 2 ) σ {\displaystyle z={\tfrac {\ln(x)-(\mu +n\sigma ^{2})}{\sigma }}} E [ e t X ] {\displaystyle \operatorname {E} [e^{tX}]} t {\displaystyle t}

Характеристическая функция определена для действительных значений t , но не определена для любого комплексного значения t , имеющего отрицательную мнимую часть, и, следовательно, характеристическая функция не является аналитической в ​​начале координат. Следовательно, характеристическая функция логнормального распределения не может быть представлена ​​в виде бесконечного сходящегося ряда. [10] В частности, ее формальный ряд Тейлора расходится: E [ e i t X ] {\displaystyle \operatorname {E} [e^{itX}]}

n = 0 ( i t ) n n ! e n μ + n 2 σ 2 / 2 {\displaystyle \sum _{n=0}^{\infty }{\frac {(it)^{n}}{n!}}e^{n\mu +n^{2}\sigma ^{2}/2}}

Однако было получено несколько альтернативных представлений расходящихся рядов . [10] [11] [12] [13]

Формула замкнутой формы для характеристической функции с в области сходимости не известна. Относительно простая аппроксимирующая формула доступна в замкнутой форме и задается как [14] φ ( t ) {\displaystyle \varphi (t)} t {\displaystyle t}

φ ( t ) exp ( W 2 ( i t σ 2 e μ ) + 2 W ( i t σ 2 e μ ) 2 σ 2 ) 1 + W ( i t σ 2 e μ ) {\displaystyle \varphi (t)\approx {\frac {\exp \left(-{\frac {W^{2}(-it\sigma ^{2}e^{\mu })+2W(-it\sigma ^{2}e^{\mu })}{2\sigma ^{2}}}\right)}{\sqrt {1+W(-it\sigma ^{2}e^{\mu })}}}}

где — функция Ламберта W. Это приближение получено с помощью асимптотического метода, но оно остается точным во всей области сходимости . W {\displaystyle W} φ {\displaystyle \varphi }

Характеристики

а. является логнормальной переменной с . вычисляется путем преобразования в нормальную переменную , а затем интегрирования ее плотности по области, определенной (синие области), с использованием численного метода трассировки лучей. [15] б и в. PDF и cdf функции логнормальной переменной также могут быть вычислены таким же образом. y {\displaystyle y} μ = 1 , σ = 0.5 {\displaystyle \mu =1,\sigma =0.5} p ( sin y > 0 ) {\displaystyle p(\sin y>0)} x = ln y {\displaystyle x=\ln y} sin e x > 0 {\displaystyle \sin e^{x}>0} sin y {\displaystyle \sin y}

Вероятность в различных областях

Вероятностное содержание логнормального распределения в любой произвольной области можно вычислить с желаемой точностью, сначала преобразовав переменную в нормальное распределение, а затем численно проинтегрировав с использованием метода трассировки лучей. [15] (код Matlab)

Вероятности функций логнормальной переменной

Поскольку вероятность логнормального распределения может быть вычислена в любой области, это означает, что cdf (и, следовательно, pdf и обратная cdf) любой функции логнормальной переменной также могут быть вычислены. [15] (код Matlab)

Геометрические или мультипликативные моменты

Геометрическое или мультипликативное среднее логнормального распределения равно . Оно равно медиане. Геометрическое или мультипликативное стандартное отклонение равно . [16] [17] GM [ X ] = e μ = μ {\displaystyle \operatorname {GM} [X]=e^{\mu }=\mu ^{*}} GSD [ X ] = e σ = σ {\displaystyle \operatorname {GSD} [X]=e^{\sigma }=\sigma ^{*}}

По аналогии с арифметической статистикой можно определить геометрическую дисперсию , и был предложен геометрический коэффициент вариации , [16] . Этот термин был задуман как аналог коэффициента вариации, для описания мультипликативной вариации в логнормальных данных, но это определение GCV не имеет теоретической основы в качестве оценки самого себя (см. также Коэффициент вариации ). GVar [ X ] = e σ 2 {\displaystyle \operatorname {GVar} [X]=e^{\sigma ^{2}}} GCV [ X ] = e σ 1 {\displaystyle \operatorname {GCV} [X]=e^{\sigma }-1} CV {\displaystyle \operatorname {CV} }

Обратите внимание, что геометрическое среднее меньше арифметического среднего. Это происходит из-за неравенства AM–GM и является следствием того, что логарифм является вогнутой функцией . Фактически,

E [ X ] = e μ + 1 2 σ 2 = e μ e σ 2 = GM [ X ] GVar [ X ] . {\displaystyle \operatorname {E} [X]=e^{\mu +{\frac {1}{2}}\sigma ^{2}}=e^{\mu }\cdot {\sqrt {e^{\sigma ^{2}}}}=\operatorname {GM} [X]\cdot {\sqrt {\operatorname {GVar} [X]}}.} [18]

В финансах этот термин иногда интерпретируется как поправка на выпуклость . С точки зрения стохастического исчисления это тот же поправочный термин, что и в лемме Ито для геометрического броуновского движения . e 1 2 σ 2 {\displaystyle e^{-{\frac {1}{2}}\sigma ^{2}}}

Арифметические моменты

Для любого действительного или комплексного числа n nмомент логарифмически нормально распределенной переменной X определяется по формуле [4]

E [ X n ] = e n μ + 1 2 n 2 σ 2 . {\displaystyle \operatorname {E} [X^{n}]=e^{n\mu +{\frac {1}{2}}n^{2}\sigma ^{2}}.}

В частности, среднее арифметическое, ожидаемый квадрат, арифметическая дисперсия и арифметическое стандартное отклонение логарифмически нормально распределенной переменной X соответственно определяются следующим образом: [2]

E [ X ] = e μ + 1 2 σ 2 , E [ X 2 ] = e 2 μ + 2 σ 2 , Var [ X ] = E [ X 2 ] E [ X ] 2 = ( E [ X ] ) 2 ( e σ 2 1 ) = e 2 μ + σ 2 ( e σ 2 1 ) , SD [ X ] = Var [ X ] = E [ X ] e σ 2 1 = e μ + 1 2 σ 2 e σ 2 1 , {\displaystyle {\begin{aligned}\operatorname {E} [X]&=e^{\mu +{\tfrac {1}{2}}\sigma ^{2}},\\[4pt]\operatorname {E} [X^{2}]&=e^{2\mu +2\sigma ^{2}},\\[4pt]\operatorname {Var} [X]&=\operatorname {E} [X^{2}]-\operatorname {E} [X]^{2}=(\operatorname {E} [X])^{2}(e^{\sigma ^{2}}-1)=e^{2\mu +\sigma ^{2}}(e^{\sigma ^{2}}-1),\\[4pt]\operatorname {SD} [X]&={\sqrt {\operatorname {Var} [X]}}=\operatorname {E} [X]{\sqrt {e^{\sigma ^{2}}-1}}=e^{\mu +{\tfrac {1}{2}}\sigma ^{2}}{\sqrt {e^{\sigma ^{2}}-1}},\end{aligned}}}

Арифметический коэффициент вариации — это отношение . Для логнормального распределения оно равно [3] CV [ X ] {\displaystyle \operatorname {CV} [X]} SD [ X ] E [ X ] {\displaystyle {\tfrac {\operatorname {SD} [X]}{\operatorname {E} [X]}}}

CV [ X ] = e σ 2 1 . {\displaystyle \operatorname {CV} [X]={\sqrt {e^{\sigma ^{2}}-1}}.}

Эту оценку иногда называют «геометрическим CV» (GCV), [19] [20] из-за использования геометрической дисперсии. В отличие от арифметического стандартного отклонения, арифметический коэффициент вариации не зависит от среднего арифметического.

Параметры μ и σ можно получить, если известны среднее арифметическое и арифметическая дисперсия:

μ = ln ( E [ X ] 2 E [ X 2 ] ) = ln ( E [ X ] 2 Var [ X ] + E [ X ] 2 ) , σ 2 = ln ( E [ X 2 ] E [ X ] 2 ) = ln ( 1 + Var [ X ] E [ X ] 2 ) . {\displaystyle {\begin{aligned}\mu &=\ln \left({\frac {\operatorname {E} [X]^{2}}{\sqrt {\operatorname {E} [X^{2}]}}}\right)=\ln \left({\frac {\operatorname {E} [X]^{2}}{\sqrt {\operatorname {Var} [X]+\operatorname {E} [X]^{2}}}}\right),\\[4pt]\sigma ^{2}&=\ln \left({\frac {\operatorname {E} [X^{2}]}{\operatorname {E} [X]^{2}}}\right)=\ln \left(1+{\frac {\operatorname {Var} [X]}{\operatorname {E} [X]^{2}}}\right).\end{aligned}}}

Распределение вероятностей не определяется однозначно моментами E[ X n ] = e + 1/2n 2 σ 2 для n ≥ 1.То есть существуют и другие распределения с тем же набором моментов.[4]Фактически, существует целое семейство распределений с теми же моментами, что и логнормальное распределение.[ необходима цитата ]

Мода, медиана, квантили

Сравнение среднего значения , медианы и моды двух логнормальных распределений с различной асимметрией .

Мода — это точка глобального максимума функции плотности вероятности. В частности, решая уравнение , получаем, что: ( ln f ) = 0 {\displaystyle (\ln f)'=0}

Mode [ X ] = e μ σ 2 . {\displaystyle \operatorname {Mode} [X]=e^{\mu -\sigma ^{2}}.}

Поскольку логарифмически преобразованная переменная имеет нормальное распределение, а квантили сохраняются при монотонных преобразованиях, то квантили равны Y = ln X {\displaystyle Y=\ln X} X {\displaystyle X}

q X ( α ) = e μ + σ q Φ ( α ) = μ ( σ ) q Φ ( α ) , {\displaystyle q_{X}(\alpha )=e^{\mu +\sigma q_{\Phi }(\alpha )}=\mu ^{*}(\sigma ^{*})^{q_{\Phi }(\alpha )},}

где — квантиль стандартного нормального распределения. q Φ ( α ) {\displaystyle q_{\Phi }(\alpha )}

В частности, медиана логнормального распределения равна его мультипликативному среднему, [21]

Med [ X ] = e μ = μ   . {\displaystyle \operatorname {Med} [X]=e^{\mu }=\mu ^{*}~.}

Частичное ожидание

Частичное ожидание случайной величины относительно порога определяется как X {\displaystyle X} k {\displaystyle k}

g ( k ) = k x f X ( x X > k ) d x . {\displaystyle g(k)=\int _{k}^{\infty }xf_{X}(x\mid X>k)\,dx.}

В качестве альтернативы, используя определение условного ожидания , его можно записать как . Для логнормальной случайной величины частное ожидание определяется как: g ( k ) = E [ X X > k ] P ( X > k ) {\displaystyle g(k)=\operatorname {E} [X\mid X>k]P(X>k)}

g ( k ) = k x f X ( x X > k ) d x = e μ + 1 2 σ 2 Φ ( μ + σ 2 ln k σ ) {\displaystyle g(k)=\int _{k}^{\infty }xf_{X}(x\mid X>k)\,dx=e^{\mu +{\tfrac {1}{2}}\sigma ^{2}}\,\Phi \!\left({\frac {\mu +\sigma ^{2}-\ln k}{\sigma }}\right)}

где — нормальная кумулятивная функция распределения . Вывод формулы представлен на странице обсуждения . Формула частичного ожидания применяется в страховании и экономике , она используется при решении уравнения в частных производных, приводящего к формуле Блэка–Шоулза . Φ {\displaystyle \Phi }

Условное ожидание

Условное ожидание логнормальной случайной величины — относительно порогового значения — равно ее частному ожиданию, деленному на кумулятивную вероятность нахождения в этом диапазоне: X {\displaystyle X} k {\displaystyle k}

E [ X X < k ] = e μ + σ 2 2 Φ [ ln ( k ) μ σ 2 σ ] Φ [ ln ( k ) μ σ ] E [ X X k ] = e μ + σ 2 2 Φ [ μ + σ 2 ln ( k ) σ ] 1 Φ [ ln ( k ) μ σ ] E [ X X [ k 1 , k 2 ] ] = e μ + σ 2 2 Φ [ ln ( k 2 ) μ σ 2 σ ] Φ [ ln ( k 1 ) μ σ 2 σ ] Φ [ ln ( k 2 ) μ σ ] Φ [ ln ( k 1 ) μ σ ] {\displaystyle {\begin{aligned}E[X\mid X<k]&=e^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\frac {\Phi \left[{\frac {\ln(k)-\mu -\sigma ^{2}}{\sigma }}\right]}{\Phi \left[{\frac {\ln(k)-\mu }{\sigma }}\right]}}\\[8pt]E[X\mid X\geqslant k]&=e^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\frac {\Phi \left[{\frac {\mu +\sigma ^{2}-\ln(k)}{\sigma }}\right]}{1-\Phi \left[{\frac {\ln(k)-\mu }{\sigma }}\right]}}\\[8pt]E[X\mid X\in [k_{1},k_{2}]]&=e^{\mu +{\frac {\sigma ^{2}}{2}}}\cdot {\frac {\Phi \left[{\frac {\ln(k_{2})-\mu -\sigma ^{2}}{\sigma }}\right]-\Phi \left[{\frac {\ln(k_{1})-\mu -\sigma ^{2}}{\sigma }}\right]}{\Phi \left[{\frac {\ln(k_{2})-\mu }{\sigma }}\right]-\Phi \left[{\frac {\ln(k_{1})-\mu }{\sigma }}\right]}}\end{aligned}}}

Альтернативные параметризации

В дополнение к характеристике с помощью или , вот несколько способов параметризации логнормального распределения. ProbOnto , база знаний и онтология вероятностных распределений [22] [23] перечисляет семь таких форм: μ , σ {\displaystyle \mu ,\sigma } μ , σ {\displaystyle \mu ^{*},\sigma ^{*}}

Обзор параметризаций логнормальных распределений.
  • LogNormal1(μ,σ) со средним значением µ и стандартным отклонением σ, оба в логарифмическом масштабе [24]
    P ( x ; μ , σ ) = 1 x σ 2 π exp [ ( ln x μ ) 2 2 σ 2 ] {\displaystyle P(x;{\boldsymbol {\mu }},{\boldsymbol {\sigma }})={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left[-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right]}
  • LogNormal2(μ,υ) со средним значением μ и дисперсией υ, оба в логарифмическом масштабе.
    P ( x ; μ , v ) = 1 x v 2 π exp [ ( ln x μ ) 2 2 v ] {\displaystyle P(x;{\boldsymbol {\mu }},{\boldsymbol {v}})={\frac {1}{x{\sqrt {v}}{\sqrt {2\pi }}}}\exp \left[-{\frac {(\ln x-\mu )^{2}}{2v}}\right]}
  • LogNormal3(m,σ) с медианой , m, в натуральном масштабе и стандартным отклонением, σ, в логарифмическом масштабе [24]
    P ( x ; m , σ ) = 1 x σ 2 π exp [ ln 2 ( x / m ) 2 σ 2 ] {\displaystyle P(x;{\boldsymbol {m}},{\boldsymbol {\sigma }})={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left[-{\frac {\ln ^{2}(x/m)}{2\sigma ^{2}}}\right]}
  • LogNormal4(m,cv) с медианой m и коэффициентом вариации cv, оба в натуральном масштабе
    P ( x ; m , c v ) = 1 x ln ( c v 2 + 1 ) 2 π exp [ ln 2 ( x / m ) 2 ln ( c v 2 + 1 ) ] {\displaystyle P(x;{\boldsymbol {m}},{\boldsymbol {cv}})={\frac {1}{x{\sqrt {\ln(cv^{2}+1)}}{\sqrt {2\pi }}}}\exp \left[-{\frac {\ln ^{2}(x/m)}{2\ln(cv^{2}+1)}}\right]}
  • LogNormal5(μ,τ) со средним значением μ и точностью τ, оба в логарифмическом масштабе [25]
    P ( x ; μ , τ ) = τ 2 π 1 x exp [ τ 2 ( ln x μ ) 2 ] {\displaystyle P(x;{\boldsymbol {\mu }},{\boldsymbol {\tau }})={\sqrt {\frac {\tau }{2\pi }}}{\frac {1}{x}}\exp \left[-{\frac {\tau }{2}}(\ln x-\mu )^{2}\right]}
  • LogNormal6(m,σ g ) с медианой m и геометрическим стандартным отклонением σ g , оба в естественном масштабе [26]
    P ( x ; m , σ g ) = 1 x ln ( σ g ) 2 π exp [ ln 2 ( x / m ) 2 ln 2 ( σ g ) ] {\displaystyle P(x;{\boldsymbol {m}},{\boldsymbol {\sigma _{g}}})={\frac {1}{x\ln(\sigma _{g}){\sqrt {2\pi }}}}\exp \left[-{\frac {\ln ^{2}(x/m)}{2\ln ^{2}(\sigma _{g})}}\right]}
  • LogNormal7(μ NN ) со средним значением μ N и стандартным отклонением σ N в естественной шкале [27]
    P ( x ; μ N , σ N ) = 1 x 2 π ln ( 1 + σ N 2 / μ N 2 ) exp ( [ ln x ln μ N 1 + σ N 2 / μ N 2 ] 2 2 ln ( 1 + σ N 2 / μ N 2 ) ) {\displaystyle P(x;{\boldsymbol {\mu _{N}}},{\boldsymbol {\sigma _{N}}})={\frac {1}{x{\sqrt {2\pi \ln \left(1+\sigma _{N}^{2}/\mu _{N}^{2}\right)}}}}\exp \left(-{\frac {{\Big [}\ln x-\ln {\frac {\mu _{N}}{\sqrt {1+\sigma _{N}^{2}/\mu _{N}^{2}}}}{\Big ]}^{2}}{2\ln(1+\sigma _{N}^{2}/\mu _{N}^{2})}}\right)}

Примеры повторной параметризации

Рассмотрим ситуацию, когда кто-то хочет запустить модель с использованием двух различных оптимальных инструментов проектирования, например PFIM [28] и PopED. [29] Первый поддерживает параметризацию LN2, последний — LN7 соответственно. Поэтому требуется повторная параметризация, иначе два инструмента дадут разные результаты.

Для перехода справедливы следующие формулы и . LN2 ( μ , v ) LN7 ( μ N , σ N ) {\displaystyle \operatorname {LN2} (\mu ,v)\to \operatorname {LN7} (\mu _{N},\sigma _{N})} μ N = exp ( μ + v / 2 ) {\textstyle \mu _{N}=\exp(\mu +v/2)} σ N = exp ( μ + v / 2 ) exp ( v ) 1 {\textstyle \sigma _{N}=\exp(\mu +v/2){\sqrt {\exp(v)-1}}}

Для перехода справедливы следующие формулы и . LN7 ( μ N , σ N ) LN2 ( μ , v ) {\displaystyle \operatorname {LN7} (\mu _{N},\sigma _{N})\to \operatorname {LN2} (\mu ,v)} μ = ln ( μ N / 1 + σ N 2 / μ N 2 ) {\textstyle \mu =\ln \left(\mu _{N}/{\sqrt {1+\sigma _{N}^{2}/\mu _{N}^{2}}}\right)} v = ln ( 1 + σ N 2 / μ N 2 ) {\textstyle v=\ln(1+\sigma _{N}^{2}/\mu _{N}^{2})}

Все остальные формулы перепараметризации можно найти в спецификации на веб-сайте проекта. [30]

Множественный, взаимный, мощность

  • Умножение на константу: Если тогда для X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} a X Lognormal ( μ + ln a ,   σ 2 ) {\displaystyle aX\sim \operatorname {Lognormal} (\mu +\ln a,\ \sigma ^{2})} a > 0. {\displaystyle a>0.}
  • Взаимно: Если тогда X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} 1 X Lognormal ( μ ,   σ 2 ) . {\displaystyle {\tfrac {1}{X}}\sim \operatorname {Lognormal} (-\mu ,\ \sigma ^{2}).}
  • Мощность: Если тогда для X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} X a Lognormal ( a μ ,   a 2 σ 2 ) {\displaystyle X^{a}\sim \operatorname {Lognormal} (a\mu ,\ a^{2}\sigma ^{2})} a 0. {\displaystyle a\neq 0.}

Умножение и деление независимых логнормальных случайных величин

Если две независимые , логнормальные переменные и умножаются [делятся], то произведение [отношение] снова будет логнормальным, с параметрами [ ] и , где . Это легко обобщается на произведение таких переменных. X 1 {\displaystyle X_{1}} X 2 {\displaystyle X_{2}} μ = μ 1 + μ 2 {\displaystyle \mu =\mu _{1}+\mu _{2}} μ = μ 1 μ 2 {\displaystyle \mu =\mu _{1}-\mu _{2}} σ {\displaystyle \sigma } σ 2 = σ 1 2 + σ 2 2 {\displaystyle \sigma ^{2}=\sigma _{1}^{2}+\sigma _{2}^{2}} n {\displaystyle n}

В более общем случае, если являются независимыми, логарифмически нормально распределенными переменными, то X j Lognormal ( μ j , σ j 2 ) {\displaystyle X_{j}\sim \operatorname {Lognormal} (\mu _{j},\sigma _{j}^{2})} n {\displaystyle n} Y = j = 1 n X j Lognormal ( j = 1 n μ j ,   j = 1 n σ j 2 ) . {\displaystyle Y=\textstyle \prod _{j=1}^{n}X_{j}\sim \operatorname {Lognormal} {\Big (}\textstyle \sum _{j=1}^{n}\mu _{j},\ \sum _{j=1}^{n}\sigma _{j}^{2}{\Big )}.}

Мультипликативная центральная предельная теорема

Геометрическое или мультипликативное среднее независимых, одинаково распределенных, положительных случайных величин показывает для приблизительно логнормальное распределение с параметрами и , предполагая, что является конечным. n {\displaystyle n} X i {\displaystyle X_{i}} n {\displaystyle n\to \infty } μ = E [ ln ( X i ) ] {\displaystyle \mu =E[\ln(X_{i})]} σ 2 = var [ ln ( X i ) ] / n {\displaystyle \sigma ^{2}={\mbox{var}}[\ln(X_{i})]/n} σ 2 {\displaystyle \sigma ^{2}}

На самом деле случайные величины не обязательно должны быть одинаково распределены. Достаточно, чтобы распределения все имели конечную дисперсию и удовлетворяли другим условиям любого из многочисленных вариантов центральной предельной теоремы . ln ( X i ) {\displaystyle \ln(X_{i})}

Это широко известно как закон Жибрата .

Другой

Набор данных, который возникает из логнормального распределения, имеет симметричную кривую Лоренца (см. также коэффициент асимметрии Лоренца ). [31]

Гармоническое , геометрическое и арифметическое средние этого распределения связаны; [32] такая связь задается формулой H {\displaystyle H} G {\displaystyle G} A {\displaystyle A}

H = G 2 A . {\displaystyle H={\frac {G^{2}}{A}}.}

Логнормальные распределения бесконечно делимы , [33] но они не являются стабильными распределениями , из которых можно легко сделать выводы. [34]

  • Если распределение нормальное , то X N ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} exp ( X ) Lognormal ( μ , σ 2 ) . {\displaystyle \exp(X)\sim \operatorname {Lognormal} (\mu ,\sigma ^{2}).}
  • Если распределено логарифмически нормально, то является нормальной случайной величиной. X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} ln ( X ) N ( μ , σ 2 ) {\displaystyle \ln(X)\sim {\mathcal {N}}(\mu ,\sigma ^{2})}
  • Пусть будут независимыми логнормально распределенными переменными с возможно меняющимися и параметрами, и . Распределение не имеет замкнутого выражения, но может быть разумно аппроксимировано другим логнормальным распределением в правом хвосте. [35] Его функция плотности вероятности в окрестности 0 была охарактеризована [34] , и она не похожа ни на одно логнормальное распределение. Обычно используемое приближение, предложенное Л. Ф. Фентоном (но ранее сформулированное Р. И. Уилкинсоном и математически обоснованное Марлоу [36] ), получается путем сопоставления среднего значения и дисперсии другого логнормального распределения: В случае, если все имеют одинаковый параметр дисперсии , эти формулы упрощаются до X j Lognormal ( μ j , σ j 2 ) {\displaystyle X_{j}\sim \operatorname {Lognormal} (\mu _{j},\sigma _{j}^{2})} σ {\displaystyle \sigma } μ {\displaystyle \mu } Y = j = 1 n X j {\textstyle Y=\sum _{j=1}^{n}X_{j}} Y {\displaystyle Y} Z {\displaystyle Z} σ Z 2 = ln [ e 2 μ j + σ j 2 ( e σ j 2 1 ) ( e μ j + σ j 2 / 2 ) 2 + 1 ] , μ Z = ln [ e μ j + σ j 2 / 2 ] σ Z 2 2 . {\displaystyle {\begin{aligned}\sigma _{Z}^{2}&=\ln \!\left[{\frac {\sum e^{2\mu _{j}+\sigma _{j}^{2}}(e^{\sigma _{j}^{2}}-1)}{(\sum e^{\mu _{j}+\sigma _{j}^{2}/2})^{2}}}+1\right],\\\mu _{Z}&=\ln \!\left[\sum e^{\mu _{j}+\sigma _{j}^{2}/2}\right]-{\frac {\sigma _{Z}^{2}}{2}}.\end{aligned}}} X j {\displaystyle X_{j}} σ j = σ {\displaystyle \sigma _{j}=\sigma } σ Z 2 = ln [ ( e σ 2 1 ) e 2 μ j ( e μ j ) 2 + 1 ] , μ Z = ln [ e μ j ] + σ 2 2 σ Z 2 2 . {\displaystyle {\begin{aligned}\sigma _{Z}^{2}&=\ln \!\left[(e^{\sigma ^{2}}-1){\frac {\sum e^{2\mu _{j}}}{(\sum e^{\mu _{j}})^{2}}}+1\right],\\\mu _{Z}&=\ln \!\left[\sum e^{\mu _{j}}\right]+{\frac {\sigma ^{2}}{2}}-{\frac {\sigma _{Z}^{2}}{2}}.\end{aligned}}}

Для более точного приближения можно использовать метод Монте-Карло для оценки кумулятивной функции распределения, плотности вероятности и правого хвоста. [37] [38]

Сумма коррелированных логнормально распределенных случайных величин также может быть аппроксимирована логнормальным распределением [ требуется ссылка ] S + = E [ i X i ] = i E [ X i ] = i e μ i + σ i 2 / 2 σ Z 2 = 1 / S + 2 i , j cor i j σ i σ j E [ X i ] E [ X j ] = 1 / S + 2 i , j cor i j σ i σ j e μ i + σ i 2 / 2 e μ j + σ j 2 / 2 μ Z = ln ( S + ) σ Z 2 / 2 {\displaystyle {\begin{aligned}S_{+}&=\operatorname {E} \left[\sum _{i}X_{i}\right]=\sum _{i}\operatorname {E} [X_{i}]=\sum _{i}e^{\mu _{i}+\sigma _{i}^{2}/2}\\\sigma _{Z}^{2}&=1/S_{+}^{2}\,\sum _{i,j}\operatorname {cor} _{ij}\sigma _{i}\sigma _{j}\operatorname {E} [X_{i}]\operatorname {E} [X_{j}]=1/S_{+}^{2}\,\sum _{i,j}\operatorname {cor} _{ij}\sigma _{i}\sigma _{j}e^{\mu _{i}+\sigma _{i}^{2}/2}e^{\mu _{j}+\sigma _{j}^{2}/2}\\\mu _{Z}&=\ln \left(S_{+}\right)-\sigma _{Z}^{2}/2\end{aligned}}}

  • Если тогда говорят, что имеет трехпараметрическое логнормальное распределение с носителем . [39] , . X Lognormal ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} X + c {\displaystyle X+c} x ( c , + ) {\displaystyle x\in (c,+\infty )} E [ X + c ] = E [ X ] + c {\displaystyle \operatorname {E} [X+c]=\operatorname {E} [X]+c} Var [ X + c ] = Var [ X ] {\displaystyle \operatorname {Var} [X+c]=\operatorname {Var} [X]}
  • Логнормальное распределение является частным случаем полуограниченного SU-распределения Джонсона . [40]
  • Если с , то (распределение Сузуки). X Y Rayleigh ( Y ) {\displaystyle X\mid Y\sim \operatorname {Rayleigh} (Y)} Y Lognormal ( μ , σ 2 ) {\displaystyle Y\sim \operatorname {Lognormal} (\mu ,\sigma ^{2})} X Suzuki ( μ , σ ) {\displaystyle X\sim \operatorname {Suzuki} (\mu ,\sigma )}
  • На основе логистического распределения можно получить замену логнормальному распределению, интеграл которого можно выразить через более элементарные функции [41] , чтобы получить приближение для CDF. Это логнормальное распределение . F ( x ; μ , σ ) = [ ( e μ x ) π / ( σ 3 ) + 1 ] 1 . {\displaystyle F(x;\mu ,\sigma )=\left[\left({\frac {e^{\mu }}{x}}\right)^{\pi /(\sigma {\sqrt {3}})}+1\right]^{-1}.}

Статистический вывод

Оценка параметров

Для определения оценок максимального правдоподобия параметров логнормального распределения μ и σ мы можем использовать ту же процедуру , что и для нормального распределения . Обратите внимание, что где — функция плотности нормального распределения . Таким образом, функция логарифмического правдоподобия равна L ( μ , σ ) = i = 1 n 1 x i φ μ , σ ( ln x i ) , {\displaystyle L(\mu ,\sigma )=\prod _{i=1}^{n}{\frac {1}{x_{i}}}\varphi _{\mu ,\sigma }(\ln x_{i}),} φ {\displaystyle \varphi } N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} ( μ , σ x 1 , x 2 , , x n ) = i ln x i + N ( μ , σ ln x 1 , ln x 2 , , ln x n ) . {\displaystyle \ell (\mu ,\sigma \mid x_{1},x_{2},\ldots ,x_{n})=-\sum _{i}\ln x_{i}+\ell _{N}(\mu ,\sigma \mid \ln x_{1},\ln x_{2},\dots ,\ln x_{n}).}

Поскольку первый член постоянен относительно μ и σ , обе логарифмические функции правдоподобия, и , достигают своего максимума при тех же и . Следовательно, оценки максимального правдоподобия идентичны оценкам для нормального распределения для наблюдений , {\displaystyle \ell } N {\displaystyle \ell _{N}} μ {\displaystyle \mu } σ {\displaystyle \sigma } ln x 1 , ln x 2 , , ln x n ) {\displaystyle \ln x_{1},\ln x_{2},\dots ,\ln x_{n})} μ ^ = i ln x i n , σ ^ 2 = i ( ln x i μ ^ ) 2 n . {\displaystyle {\widehat {\mu }}={\frac {\sum _{i}\ln x_{i}}{n}},\qquad {\widehat {\sigma }}^{2}={\frac {\sum _{i}\left(\ln x_{i}-{\widehat {\mu }}\right)^{2}}{n}}.}

Для конечного n оценка для является несмещенной, но для является смещенной. Что касается нормального распределения, несмещенную оценку для можно получить, заменив знаменатель n на n −1 в уравнении для . μ {\displaystyle \mu } σ {\displaystyle \sigma } σ {\displaystyle \sigma } σ ^ 2 {\displaystyle {\widehat {\sigma }}^{2}}

Когда индивидуальные значения недоступны, но есть выборочное среднее и стандартное отклонение s , то можно использовать метод моментов . Соответствующие параметры определяются по следующим формулам, полученным из решения уравнений для математического ожидания и дисперсии для и : x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}} x ¯ {\displaystyle {\bar {x}}} E [ X ] {\displaystyle \operatorname {E} [X]} Var [ X ] {\displaystyle \operatorname {Var} [X]} μ {\displaystyle \mu } σ {\displaystyle \sigma } μ = ln ( x ¯ 1 + σ ^ 2 / x ¯ 2 ) , σ 2 = ln ( 1 + σ ^ 2 / x ¯ 2 ) . {\displaystyle \mu =\ln \left({\frac {\bar {x}}{\sqrt {1+{\widehat {\sigma }}^{2}/{\bar {x}}^{2}}}}\right),\qquad \sigma ^{2}=\ln \left(1+{{\widehat {\sigma }}^{2}}/{\bar {x}}^{2}\right).}

Интервальные оценки

Наиболее эффективный способ получения интервальных оценок при анализе логарифмически нормально распределенных данных состоит в применении известных методов, основанных на нормальном распределении, к логарифмически преобразованным данным, а затем в обратном преобразовании результатов, если это необходимо.

Интервалы прогнозирования

Базовый пример дают интервалы прогнозирования : для нормального распределения интервал содержит приблизительно две трети (68%) вероятности (или большой выборки) и содержит 95%. Следовательно, для логнормального распределения содержит 2/3 и содержит 95% вероятности. Используя оценочные параметры, тогда приблизительно одинаковые проценты данных должны содержаться в этих интервалах. [ μ σ , μ + σ ] {\displaystyle [\mu -\sigma ,\mu +\sigma ]} [ μ 2 σ , μ + 2 σ ] {\displaystyle [\mu -2\sigma ,\mu +2\sigma ]} [ μ / σ , μ σ ] = [ μ × / σ ] {\displaystyle [\mu ^{*}/\sigma ^{*},\mu ^{*}\cdot \sigma ^{*}]=[\mu ^{*}{}^{\times }\!\!/\sigma ^{*}]} [ μ / ( σ ) 2 , μ ( σ ) 2 ] = [ μ × / ( σ ) 2 ] {\displaystyle [\mu ^{*}/(\sigma ^{*})^{2},\mu ^{*}\cdot (\sigma ^{*})^{2}]=[\mu ^{*}{}^{\times }\!\!/(\sigma ^{*})^{2}]}

Доверительный интервал дляе μ

Используя принцип, обратите внимание, что доверительный интервал для равен , где — стандартная ошибка, а q — 97,5%-ный квантиль распределения t с n-1 степенями свободы. Обратное преобразование приводит к доверительному интервалу для (медианы), равен: с μ {\displaystyle \mu } [ μ ^ ± q s e ^ ] {\displaystyle [{\widehat {\mu }}\pm q\cdot {\widehat {\mathop {se} }}]} s e = σ ^ / n {\displaystyle \mathop {se} ={\widehat {\sigma }}/{\sqrt {n}}} μ = e μ {\displaystyle \mu ^{*}=e^{\mu }} [ μ ^ × / ( sem ) q ] {\displaystyle [{\widehat {\mu }}^{*}{}^{\times }\!\!/(\operatorname {sem} ^{*})^{q}]} sem = ( σ ^ ) 1 / n {\displaystyle \operatorname {sem} ^{*}=({\widehat {\sigma }}^{*})^{1/{\sqrt {n}}}}

Доверительный интервал для E(X)

В литературе обсуждаются несколько вариантов расчета доверительного интервала для (среднего логнормального распределения). Они включают бутстрап , а также различные другие методы. [42] [43] μ {\displaystyle \mu }

Метод Кокса [a] предлагает подключать оценщики μ ^ = i ln x i n , S 2 = i ( ln x i μ ^ ) 2 n 1 {\displaystyle {\widehat {\mu }}={\frac {\sum _{i}\ln x_{i}}{n}},\qquad S^{2}={\frac {\sum _{i}\left(\ln x_{i}-{\widehat {\mu }}\right)^{2}}{n-1}}}

и использовать их для построения приблизительных доверительных интервалов следующим образом: C I ( E ( X ) ) : e ( μ ^ + S 2 2 ± z 1 α 2 S 2 n + S 4 2 ( n 1 ) ) {\displaystyle CI(E(X)):e^{\left({\hat {\mu }}+{\frac {S^{2}}{2}}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S^{2}}{n}}+{\frac {S^{4}}{2(n-1)}}}}\right)}}

[Доказательство]

Мы знаем, что . Также, является нормальным распределением с параметрами: E ( X ) = e μ + σ 2 2 {\displaystyle E(X)=e^{\mu +{\frac {\sigma ^{2}}{2}}}} μ ^ {\displaystyle {\widehat {\mu }}} μ ^ N ( μ , σ 2 n ) {\displaystyle {\widehat {\mu }}\sim N\left(\mu ,{\frac {\sigma ^{2}}{n}}\right)}

S 2 {\displaystyle S^{2}} имеет распределение хи-квадрат , которое приблизительно нормально распределено (через ЦПТ ), с параметрами : . Следовательно, . S 2 ˙ N ( σ 2 , 2 σ 4 n 1 ) {\displaystyle S^{2}{\dot {\sim }}N\left(\sigma ^{2},{\frac {2\sigma ^{4}}{n-1}}\right)} S 2 2 ˙ N ( σ 2 2 , σ 4 2 ( n 1 ) ) {\displaystyle {\frac {S^{2}}{2}}{\dot {\sim }}N\left({\frac {\sigma ^{2}}{2}},{\frac {\sigma ^{4}}{2(n-1)}}\right)}

Поскольку выборочное среднее значение и дисперсия независимы, а сумма нормально распределенных переменных также является нормальной , мы получаем, что: На основании вышеизложенного стандартные доверительные интервалы для могут быть построены (с использованием основной величины ) как: И поскольку доверительные интервалы сохраняются для монотонных преобразований, мы получаем, что: μ ^ + S 2 2 ˙ N ( μ + σ 2 2 , σ 2 n + σ 4 2 ( n 1 ) ) {\displaystyle {\widehat {\mu }}+{\frac {S^{2}}{2}}{\dot {\sim }}N\left(\mu +{\frac {\sigma ^{2}}{2}},{\frac {\sigma ^{2}}{n}}+{\frac {\sigma ^{4}}{2(n-1)}}\right)} μ + σ 2 2 {\displaystyle \mu +{\frac {\sigma ^{2}}{2}}} μ ^ + S 2 2 ± z 1 α 2 S 2 n + S 4 2 ( n 1 ) {\displaystyle {\hat {\mu }}+{\frac {S^{2}}{2}}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S^{2}}{n}}+{\frac {S^{4}}{2(n-1)}}}}} C I ( E ( X ) = e μ + σ 2 2 ) : e ( μ ^ + S 2 2 ± z 1 α 2 S 2 n + S 4 2 ( n 1 ) ) {\displaystyle CI\left(E(X)=e^{\mu +{\frac {\sigma ^{2}}{2}}}\right):e^{\left({\hat {\mu }}+{\frac {S^{2}}{2}}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S^{2}}{n}}+{\frac {S^{4}}{2(n-1)}}}}\right)}}

По желанию.



Олссон 2005 предложил «модифицированный метод Кокса», заменив его на , который, как представляется, обеспечивает лучшие результаты покрытия для небольших размеров выборки. [42] : Раздел 3.4  z 1 α 2 {\displaystyle z_{1-{\frac {\alpha }{2}}}} t n 1 , 1 α 2 {\displaystyle t_{n-1,1-{\frac {\alpha }{2}}}}

Доверительный интервал для сравнения двух логнормальных распределений

Сравнение двух логнормальных распределений часто может представлять интерес, например, для группы лечения и контроля (например, в тесте A/B ). У нас есть выборки из двух независимых логнормальных распределений с параметрами и , с размерами выборки и соответственно. ( μ 1 , σ 1 2 ) {\displaystyle (\mu _{1},\sigma _{1}^{2})} ( μ 2 , σ 2 2 ) {\displaystyle (\mu _{2},\sigma _{2}^{2})} n 1 {\displaystyle n_{1}} n 2 {\displaystyle n_{2}}

Сравнение медиан двух значений можно легко выполнить, взяв логарифм каждой из них, а затем построив простые доверительные интервалы и преобразовав их обратно в экспоненциальную шкалу.

C I ( e μ 1 μ 2 ) : e ( μ ^ 1 μ ^ 2 ± z 1 α 2 S 1 2 n + S 2 2 n ) {\displaystyle CI(e^{\mu _{1}-\mu _{2}}):e^{\left({\hat {\mu }}_{1}-{\hat {\mu }}_{2}\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n}}+{\frac {S_{2}^{2}}{n}}}}\right)}}

Эти доверительные интервалы часто используются в эпидемиологии для расчета доверительного интервала для относительного риска и отношения шансов . [46] Это делается следующим образом: у нас есть два приблизительно нормальных распределения (например, p1 и p2 для RR), и мы хотим рассчитать их отношение. [b]

Однако соотношение ожиданий (средних) двух выборок также может представлять интерес, хотя и требует больше работы для разработки. Соотношение их средних равно:

E ( X 1 ) E ( X 2 ) = e μ 1 + σ 1 2 2 e μ 2 + σ 2 2 2 = e ( μ 1 μ 2 ) + 1 2 ( σ 1 2 σ 2 2 ) {\displaystyle {\frac {E(X_{1})}{E(X_{2})}}={\frac {e^{\mu _{1}+{\frac {\sigma _{1}^{2}}{2}}}}{e^{\mu _{2}+{\frac {\sigma _{2}^{2}}{2}}}}}=e^{(\mu _{1}-\mu _{2})+{\frac {1}{2}}(\sigma _{1}^{2}-\sigma _{2}^{2})}}

Добавление оценок к каждому из этих параметров также дает логнормальное распределение, что означает, что метод Кокса, рассмотренный выше, может быть аналогичным образом использован для этого варианта использования:

C I ( E ( X 1 ) E ( X 2 ) = e μ 1 + σ 1 2 2 e μ 2 + σ 2 2 2 ) : e ( ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) ± z 1 α 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) ) {\displaystyle CI\left({\frac {E(X_{1})}{E(X_{2})}}={\frac {e^{\mu _{1}+{\frac {\sigma _{1}^{2}}{2}}}}{e^{\mu _{2}+{\frac {\sigma _{2}^{2}}{2}}}}}\right):e^{\left(({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}\right)}}


[Доказательство]

Чтобы построить доверительный интервал для этого отношения, сначала отметим, что следует нормальному распределению, и что и и имеют распределение хи-квадрат , которое приблизительно нормально распределено (с помощью ЦПТ , с соответствующими параметрами ). μ ^ 1 μ ^ 2 {\displaystyle {\hat {\mu }}_{1}-{\hat {\mu }}_{2}} S 1 2 {\displaystyle S_{1}^{2}} S 2 2 {\displaystyle S_{2}^{2}}

Это означает, что ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) N ( ( μ 1 μ 2 ) + 1 2 ( σ 1 2 σ 2 2 ) , σ 1 2 n 1 + σ 2 2 n 2 + σ 1 4 2 ( n 1 1 ) + σ 2 4 2 ( n 2 1 ) ) {\displaystyle ({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\sim N\left((\mu _{1}-\mu _{2})+{\frac {1}{2}}(\sigma _{1}^{2}-\sigma _{2}^{2}),{\frac {\sigma _{1}^{2}}{n_{1}}}+{\frac {\sigma _{2}^{2}}{n_{2}}}+{\frac {\sigma _{1}^{4}}{2(n_{1}-1)}}+{\frac {\sigma _{2}^{4}}{2(n_{2}-1)}}\right)}

На основании вышеизложенного можно построить стандартные доверительные интервалы (используя основную величину ) следующим образом: И поскольку доверительные интервалы сохраняются для монотонных преобразований, получаем, что: ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) ± z 1 α 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) {\displaystyle ({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}} C I ( E ( X 1 ) E ( X 2 ) = e μ 1 + σ 1 2 2 e μ 2 + σ 2 2 2 ) : e ( ( μ ^ 1 μ ^ 2 + 1 2 S 1 2 1 2 S 2 2 ) ± z 1 α 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) ) {\displaystyle CI\left({\frac {E(X_{1})}{E(X_{2})}}={\frac {e^{\mu _{1}+{\frac {\sigma _{1}^{2}}{2}}}}{e^{\mu _{2}+{\frac {\sigma _{2}^{2}}{2}}}}}\right):e^{\left(({\hat {\mu }}_{1}-{\hat {\mu }}_{2}+{\frac {1}{2}}S_{1}^{2}-{\frac {1}{2}}S_{2}^{2})\pm z_{1-{\frac {\alpha }{2}}}{\sqrt {{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}\right)}}

По желанию.

Стоит отметить, что наивное использование MLE в отношении двух ожиданий для создания оценщика отношения приведет к последовательной , но смещенной точечной оценке (мы используем тот факт, что оценщик отношения является логарифмически нормальным распределением) [c] :

E [ E ^ ( X 1 ) E ^ ( X 2 ) ] = E [ e ( μ ^ 1 μ ^ 2 ) + 1 2 ( S 1 2 S 2 2 ) ] = e ( μ 1 μ 2 ) + 1 2 ( σ 1 2 σ 2 2 ) + 1 2 ( σ 1 2 n 1 + σ 2 2 n 2 + σ 1 4 2 ( n 1 1 ) + σ 2 4 2 ( n 2 1 ) ) {\displaystyle E\left[{\frac {{\widehat {E}}(X_{1})}{{\widehat {E}}(X_{2})}}\right]=E\left[e^{({\widehat {\mu }}_{1}-{\widehat {\mu }}_{2})+{\frac {1}{2}}(S_{1}^{2}-S_{2}^{2})}\right]=e^{(\mu _{1}-\mu _{2})+{\frac {1}{2}}(\sigma _{1}^{2}-\sigma _{2}^{2})+{\frac {1}{2}}\left({\frac {\sigma _{1}^{2}}{n_{1}}}+{\frac {\sigma _{2}^{2}}{n_{2}}}+{\frac {\sigma _{1}^{4}}{2(n_{1}-1)}}+{\frac {\sigma _{2}^{4}}{2(n_{2}-1)}}\right)}}

Экстремальный принцип энтропии для фиксации свободного параметраσ

В приложениях — это параметр, который необходимо определить. Для растущих процессов, сбалансированных производством и диссипацией, использование экстремального принципа энтропии Шеннона показывает, что [47] σ {\displaystyle \sigma } σ = 1 6 {\displaystyle \sigma ={\frac {1}{\sqrt {6}}}}

Это значение затем может быть использовано для получения некоторого масштабного соотношения между точкой перегиба и максимальной точкой логарифмически нормального распределения. [47] Это соотношение определяется основанием натурального логарифма, и демонстрирует некоторое геометрическое сходство с принципом минимальной поверхностной энергии. Эти масштабные соотношения полезны для прогнозирования ряда процессов роста (эпидемическое распространение, разбрызгивание капель, рост популяции, скорость завихрения вихря ванны, распределение языковых символов, профиль скорости турбулентностей и т. д.). Например, логарифмически нормальная функция с таким хорошо соответствует размеру вторично образующихся капель во время удара капли [48] и распространению эпидемического заболевания. [49] e = 2.718 {\displaystyle e=2.718\ldots } σ {\displaystyle \sigma }

Значение используется для предоставления вероятностного решения уравнения Дрейка. [50] σ = 1 / 6 {\textstyle \sigma =1{\big /}{\sqrt {6}}}

Возникновение и применение

Логнормальное распределение важно для описания природных явлений. Многие процессы естественного роста обусловлены накоплением множества небольших процентных изменений, которые становятся аддитивными в логарифмической шкале. При соответствующих условиях регулярности распределение полученных накопленных изменений будет все лучше аппроксимироваться логнормальным распределением, как отмечено в разделе выше «Мультипликативная центральная предельная теорема». Это также известно как закон Гибрата , в честь Роберта Гибрата (1904–1980), который сформулировал его для компаний. [51] Если скорость накопления этих небольших изменений не меняется со временем, рост становится независимым от размера. Даже если это предположение неверно, распределение размеров в любом возрасте вещей, которые растут с течением времени, имеет тенденцию быть логнормальным. [ необходима цитата ] Следовательно, референтные диапазоны для измерений у здоровых людей точнее оцениваются при предположении логнормального распределения, чем при предположении симметричного распределения относительно среднего. [ необходима цитата ]

Второе обоснование основано на наблюдении, что фундаментальные законы природы подразумевают умножение и деление положительных переменных. Примерами являются простой закон тяготения, связывающий массы и расстояние с результирующей силой, или формула для равновесных концентраций химикатов в растворе, которая связывает концентрации исходных веществ и продуктов. Предположение о логнормальном распределении задействованных переменных приводит к согласованным моделям в этих случаях.

Конкретные примеры приведены в следующих подразделах. [52] содержит обзор и таблицу логнормальных распределений из геологии, биологии, медицины, продуктов питания, экологии и других областей. [53] — обзорная статья о логнормальных распределениях в нейронауке с аннотированной библиографией.

Поведение человека

  • Длина комментариев, размещенных на интернет-форумах, подчиняется логнормальному распределению. [54]
  • Время, проведенное пользователями на онлайн-статьях (шутки, новости и т. д.), подчиняется логнормальному распределению. [55]
  • Продолжительность шахматных партий имеет тенденцию следовать логнормальному распределению. [56]
  • Длительность начала акустических сравнительных стимулов, соответствующих стандартному стимулу, подчиняется логнормальному распределению. [18]

Биология и медицина

  • Меры размеров живой ткани (длина, площадь кожи, вес). [57]
  • Инкубационный период заболеваний. [58]
  • Диаметры пятен на листьях банана, мучнистая роса на ячмене. [52]
  • Для высококонтагиозных эпидемий, таких как атипичная пневмония в 2003 году, если задействованы меры государственного вмешательства, число госпитализированных случаев, как показано, удовлетворяет логнормальному распределению без свободных параметров, если предполагается энтропия, а стандартное отклонение определяется по принципу максимальной скорости производства энтропии . [59]
  • Длина инертных конечностей (волос, когтей, ногтей, зубов) биологических образцов в направлении роста. [ необходима ссылка ]
  • Нормализованное количество прочтений РНК-Seq для любого геномного региона можно хорошо аппроксимировать с помощью логнормального распределения.
  • Длина прочтения секвенирования PacBio следует логнормальному распределению. [60]
  • Некоторые физиологические измерения, такие как артериальное давление у взрослых людей (после разделения на мужские и женские субпопуляции). [61]
  • Несколько фармакокинетических переменных, таких как C max , период полувыведения и константа скорости выведения . [62]
  • В нейронауке распределение частоты срабатывания в популяции нейронов часто приблизительно логарифмически нормально. Впервые это было обнаружено в коре и полосатом теле [63] , а затем в гиппокампе и энторинальной коре [64] и в других местах мозга. [53] [65] Кроме того, внутренние распределения усиления и распределения синаптического веса также, по-видимому, логарифмически нормальны [66] .
  • Плотность нейронов в коре головного мозга из-за шумного процесса деления клеток во время развития нервной системы. [67]
  • В управлении операционными — распределение продолжительности хирургических операций .
  • В размерах лавин переломов в цитоскелете живых клеток, показывающих логнормальное распределение, со значительно большим размером в раковых клетках, чем в здоровых. [68]

Химия

Подогнанное кумулятивное логнормальное распределение к годовому максимуму однодневных осадков, см. подгонку распределения

Гидрология

  • В гидрологии логнормальное распределение используется для анализа экстремальных значений таких переменных, как месячные и годовые максимальные значения суточных осадков и объемов речного стока. [70]
Изображение справа, созданное с помощью CumFreq , иллюстрирует пример подгонки логарифмически нормального распределения к ранжированным годовым максимальным однодневным осадкам, показывая также 90% доверительный интервал на основе биномиального распределения . [71]
Данные об осадках представлены в виде графиков положений как части кумулятивного анализа частотности .

Социальные науки и демография

  • В экономике есть данные, что доход 97%–99% населения распределен логарифмически нормально. [72] (Распределение лиц с более высоким доходом следует распределению Парето ). [73]
  • Если распределение доходов подчиняется логарифмически нормальному распределению со стандартным отклонением , то коэффициент Джини , обычно используемый для оценки неравенства доходов, можно вычислить как , где — функция ошибок , поскольку , где — кумулятивная функция распределения стандартного нормального распределения. σ {\displaystyle \sigma } G = erf ( σ 2 ) {\displaystyle G=\operatorname {erf} \left({\frac {\sigma }{2}}\right)} erf {\displaystyle \operatorname {erf} } G = 2 Φ ( σ 2 ) 1 {\displaystyle G=2\Phi \left({\frac {\sigma }{\sqrt {2}}}\right)-1} Φ ( x ) {\displaystyle \Phi (x)}
  • В финансах , в частности в модели Блэка-Шоулза , изменения логарифма обменных курсов, индексов цен и индексов фондового рынка предполагаются нормальными [74] (эти переменные ведут себя как сложные проценты, а не как простые проценты, и поэтому являются мультипликативными). Однако некоторые математики, такие как Бенуа Мандельброт, утверждали [75], что логарифмические распределения Леви , которые обладают тяжелыми хвостами , были бы более подходящей моделью, в частности, для анализа крахов фондового рынка . Действительно, распределения цен на акции обычно демонстрируют толстый хвост . [76] Распределение изменений во время крахов фондового рынка с толстым хвостом делает недействительными предположения центральной предельной теоремы .
  • В наукометрии число ссылок на журнальные статьи и патенты подчиняется дискретному логнормальному распределению. [77] [78]
  • Размеры городов (население) удовлетворяют закону Жибрата. [79] Процесс роста размеров городов пропорционален и инвариантен относительно размера. Следовательно, из центральной предельной теоремы следует, что логарифм размера города распределен нормально.
  • Число сексуальных партнеров, по-видимому, лучше всего описывается логнормальным распределением. [80]

Технологии

  • При анализе надежности логнормальное распределение часто используется для моделирования времени ремонта обслуживаемой системы. [81]
  • В беспроводной связи «локальная средняя мощность, выраженная в логарифмических значениях, таких как дБ или непер, имеет нормальное (то есть гауссово) распределение». [82] Кроме того, случайное препятствие радиосигналам из-за больших зданий и холмов, называемое затенением , часто моделируется как логарифмически нормальное распределение.
  • Распределение размеров частиц, полученное путем измельчения со случайными ударами, например, в шаровой мельнице . [83]
  • Распределение размеров общедоступных аудио- и видеофайлов данных ( типы MIME ) подчиняется логнормальному распределению на протяжении пяти порядков величины . [84]
  • Размеры файлов составляют 140 миллионов файлов на персональных компьютерах под управлением ОС Windows, собранных в 1999 году. [85] [54]
  • Размеры текстовых писем (1990-е годы) и мультимедийных писем (2000-е годы). [54]
  • В компьютерных сетях и анализе интернет-трафика логнормальное распределение показано как хорошая статистическая модель для представления объема трафика в единицу времени. Это было показано путем применения надежного статистического подхода к большим группам реальных интернет-трейсов. В этом контексте логнормальное распределение показало хорошую производительность в двух основных случаях использования: (1) прогнозирование доли времени, в течение которого трафик превысит заданный уровень (для соглашения об уровне обслуживания или оценки пропускной способности канала), т. е. определение размеров канала на основе предоставления полосы пропускания и (2) прогнозирование ценообразования 95-го процентиля. [86]
  • При физическом тестировании, когда тест определяет время до отказа элемента при определенных условиях, данные часто лучше всего анализировать с использованием логнормального распределения. [87] [88]

Смотрите также


Примечания

  1. ^ Метод Кокса был процитирован как «личное сообщение» в Land, 1971, [44] и также был приведен в CitationZhou and Gao (1997) [45] и Olsson 2005 [42] : Раздел 3.3 
  2. ^ Проблема в том, что мы не знаем, как сделать это напрямую, поэтому мы берем их журналы, а затем используем дельта-метод, чтобы сказать, что их журналы сами по себе (приблизительно) нормальны. Этот трюк позволяет нам притвориться, что их exp был логнормальным, и использовать это приближение для построения CI. Обратите внимание, что в случае RR медиана и среднее в базовом распределении (т. е. до взятия журнала) на самом деле идентичны (так как они изначально нормальные, а не логнормальные). Например, и Следовательно, построение CI на основе журнала и обратного преобразования даст нам . Таким образом, хотя мы ожидаем, что CI будет для медианы, в этом случае на самом деле это также и для среднего в исходном распределении. т. е. если бы исходное распределение было логнормальным, мы бы ожидали, что . Но на практике мы ЗНАЕМ, что . Следовательно, приближение, которое мы имеем, находится на втором этапе (дельта-метода), но CI на самом деле для ожидания (а не только для медианы). Это потому, что мы начинаем с базового распределения, которое является нормальным, а затем используем еще одно приближение после логарифма снова к нормальному. Это означает, что большая часть приближения CI исходит из дельта-метода. p ^ 1 ˙ N ( p 1 , p 1 ( 1 p 1 ) / n ) {\displaystyle {\hat {p}}_{1}{\dot {\sim }}N(p_{1},p_{1}(1-p1)/n)} l o g ( p ^ 1 ) ˙ N ( l o g ( p 1 ) , ( 1 p 1 ) / ( p 1 n ) ) {\displaystyle log({\hat {p}}_{1}){\dot {\sim }}N(log(p_{1}),(1-p1)/(p_{1}*n))} C I ( p 1 ) : e l o g ( p ^ 1 ) ± ( 1 p ^ 1 ) / ( p ^ 1 n ) ) {\displaystyle CI(p_{1}):e^{log({\hat {p}}_{1})\pm (1-{\hat {p}}_{1})/({\hat {p}}_{1}*n))}} p ^ 1 {\displaystyle {\hat {p}}_{1}} E [ p ^ 1 ] = e l o g ( p 1 ) + 1 / 2 ( 1 p 1 ) / ( p 1 n ) {\displaystyle E[{\hat {p}}_{1}]=e^{log(p_{1})+1/2*(1-p1)/(p_{1}*n)}} E [ p ^ 1 ] = e l o g ( p 1 ) = p 1 {\displaystyle E[{\hat {p}}_{1}]=e^{log(p_{1})}=p_{1}}
  3. ^ Смещение можно частично минимизировать, используя: [ E ( X 1 ) E ( X 2 ) ] ^ = [ E ^ ( X 1 ) E ^ ( X 2 ) ] 2 ( σ 1 2 n 1 + σ 2 2 n 2 + σ 1 4 2 ( n 1 1 ) + σ 2 4 2 ( n 2 1 ) ) ^ = [ e ( μ ^ 1 μ ^ 2 ) + 1 2 ( S 1 2 S 2 2 ) ] 2 S 1 2 n 1 + S 2 2 n 2 + S 1 4 2 ( n 1 1 ) + S 2 4 2 ( n 2 1 ) {\displaystyle {\widehat {\left[{\frac {E(X_{1})}{E(X_{2})}}\right]}}=\left[{\frac {{\widehat {E}}(X_{1})}{{\widehat {E}}(X_{2})}}\right]{\frac {2}{\widehat {\left({\frac {\sigma _{1}^{2}}{n_{1}}}+{\frac {\sigma _{2}^{2}}{n_{2}}}+{\frac {\sigma _{1}^{4}}{2(n_{1}-1)}}+{\frac {\sigma _{2}^{4}}{2(n_{2}-1)}}\right)}}}=\left[e^{({\widehat {\mu }}_{1}-{\widehat {\mu }}_{2})+{\frac {1}{2}}(S_{1}^{2}-S_{2}^{2})}\right]{\frac {2}{{\frac {S_{1}^{2}}{n_{1}}}+{\frac {S_{2}^{2}}{n_{2}}}+{\frac {S_{1}^{4}}{2(n_{1}-1)}}+{\frac {S_{2}^{4}}{2(n_{2}-1)}}}}}

Ссылки

  1. ^ Нортон, Мэтью; Хохлов, Валентин; Урясев, Стэн (2019). «Расчет CVaR и bPOE для общих распределений вероятностей с применением к оптимизации портфеля и оценке плотности» (PDF) . Annals of Operations Research . 299 (1–2). Springer: 1281–1315. arXiv : 1811.11301 . doi :10.1007/s10479-019-03373-1. S2CID  254231768. Архивировано (PDF) из оригинала 2021-04-18 . Получено 2023-02-27 – через stonybrook.edu.
  2. ^ abcd Weisstein, Eric W. "Log Normal Distribution". mathworld.wolfram.com . Получено 13 сентября 2020 г. .
  3. ^ ab "1.3.6.6.9. Логнормальное распределение". www.itl.nist.gov . Национальный институт стандартов и технологий США (NIST) . Получено 13 сентября 2020 г. .
  4. ^ abcde Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Н. (1994), "14: Логнормальные распределения", Непрерывные одномерные распределения. Том 1 , Wiley Series in Probability and Mathematical Statistics: Applied Probability and Statistics (2nd ed.), Нью-Йорк: John Wiley & Sons , ISBN 978-0-471-58495-7, г-н  1299979
  5. ^ Park, Sung Y.; Bera, Anil K. (2009). "Модель условной гетероскедастичности с максимальной энтропией авторегрессии" (PDF) . Journal of Econometrics . 150 (2): 219–230, в частности. Таблица 1, стр. 221. CiteSeerX 10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. Архивировано из оригинала (PDF) 2016-03-07 . Получено 2011-06-02 . 
  6. ^ Tarmast, Ghasem (2001). Многомерное логнормальное распределение (PDF) . Труды ISI: 53-я сессия. Сеул. Архивировано (PDF) из оригинала 2013-07-19.
  7. ^ Холливелл, Ли (2015). Логнормальное случайное многомерное (PDF) . Электронный форум Casualty Actuarial Society, весна 2015 г. Арлингтон, Вирджиния. Архивировано (PDF) из оригинала 2015-09-30.
  8. ^ Хейде, CC. (2010), «О свойстве логнормального распределения», Журнал Королевского статистического общества, Серия B , т. 25, № 2, стр. 392–393, doi : 10.1007/978-1-4419-5823-5_6 , ISBN 978-1-4419-5822-8
  9. ^ Биллингсли, Патрик (2012). Вероятность и мера (юбилейное издание). Хобокен, Нью-Джерси: Wiley. стр. 415. ISBN 978-1-118-12237-2. OCLC  780289503.
  10. ^ ab Holgate, P. (1989). "Логнормальная характеристическая функция, т. 18, стр. 4539–4548, 1989". Communications in Statistics - Theory and Methods . 18 (12): 4539–4548. doi :10.1080/03610928908830173.
  11. ^ Баракат, Р. (1976). «Суммы независимых логнормально распределенных случайных величин». Журнал оптического общества Америки . 66 (3): 211–216. Bibcode : 1976JOSA...66..211B. doi : 10.1364/JOSA.66.000211.
  12. ^ Барух, Э.; Кауфман, ГМ.; Глассер, МЛ. (1986). "О суммах логнормальных случайных величин" (PDF) . Исследования по прикладной математике . 75 (1): 37–55. doi :10.1002/sapm198675137. hdl : 1721.1/48703 .
  13. ^ Лейпник, Рой Б. (январь 1991 г.). "О логнормальных случайных величинах: I – Характеристическая функция" (PDF) . Журнал Австралийского математического общества, серия B . 32 (3): 327–347. doi : 10.1017/S0334270000006901 .
  14. ^ S. Asmussen, JL Jensen, L. Rojas-Nandayapa (2016). «О преобразовании Лапласа логнормального распределения», Методология и вычисления в прикладной вероятности 18 (2), 441-458. Отчет Тиле 6 (13).
  15. ^ abc Das, Abhranil (2021). «Метод интеграции и классификации нормальных распределений». Journal of Vision . 21 (10): 1. arXiv : 2012.14331 . doi : 10.1167/jov.21.10.1. PMC 8419883. PMID  34468706 . 
  16. ^ ab Kirkwood, Thomas BL (декабрь 1979 г.). «Геометрические средние и меры дисперсии». Биометрия . 35 (4): 908–9. JSTOR  2530139.
  17. ^ Лимперт, Э.; Стахел, В.; Эббт, М. (2001). «Логнормальные распределения в науках: ключи и подсказки». BioScience . 51 (5): 341–352. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 .
  18. ^ ab Heil P, Friedrich B (2017). «Повторный взгляд на сопоставление начала и длительности акустических стимулов: обычные арифметические и предлагаемые геометрические меры точности и достоверности». Frontiers in Psychology . 7 : 2013. doi : 10.3389/fpsyg.2016.02013 . PMC 5216879. PMID  28111557 . 
  19. ^ Савант, С.; Мохан, Н. (2011) «Часто задаваемые вопросы: проблемы с анализом эффективности данных клинических испытаний с использованием SAS» Архивировано 24 августа 2011 г. в Wayback Machine , PharmaSUG2011 , статья PO08
  20. ^ Шифф, МХ; и др. (2014). «Сравнительное рандомизированное перекрестное исследование перорального и подкожного метотрексата у пациентов с ревматоидным артритом: ограничения воздействия препарата пероральным метотрексатом в дозах >=15 мг могут быть преодолены при подкожном введении». Ann Rheum Dis . 73 (8): 1–3. doi :10.1136/annrheumdis-2014-205228. PMC 4112421. PMID  24728329 . 
  21. ^ Дейли, Лесли Э.; Бурк, Джеффри Джозеф (2000). Интерпретация и использование медицинской статистики . Т. 46 (5-е изд.). Оксфорд, Великобритания: Wiley-Blackwell. стр. 89. doi :10.1002/9780470696750. ISBN 978-0-632-04763-5. ПМК  1059583 ; {{cite book}}: |journal=проигнорировано ( помощь ) печатное издание. Электронная книга ISBN 9780470696750 
  22. ^ "ProbOnto" . Получено 1 июля 2017 г.
  23. ^ Swat, MJ; Grenon, P; Wimalaratne, S (2016). «ProbOnto: онтология и база знаний вероятностных распределений». Биоинформатика . 32 (17): 2719–21. doi :10.1093/bioinformatics/btw170. PMC 5013898. PMID  27153608 . 
  24. ^ ab Forbes et al. Распределения вероятностей (2011), John Wiley & Sons, Inc.
  25. ^ Ланн, Д. (2012). Книга BUGS: практическое введение в байесовский анализ. Тексты по статистической науке. CRC Press.
  26. ^ Лимперт, Э.; Стахел, ВА; Эббт, М. (2001). «Логнормальные распределения в науках: ключи и подсказки». BioScience . 51 (5): 341–352. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 .
  27. ^ Nyberg, J.; et al. (2012). "PopED - расширенный, распараллеленный, оптимальный для популяции инструмент проектирования". Comput Methods Programs Biomed . 108 (2): 789–805. doi :10.1016/j.cmpb.2012.05.005. PMID  22640817.
  28. ^ Retout, S; Duffull, S; Mentré, F (2001). «Разработка и внедрение популяционной информационной матрицы Фишера для оценки популяционных фармакокинетических дизайнов». Comp Meth Pro Biomed . 65 (2): 141–151. doi :10.1016/S0169-2607(00)00117-6. PMID  11275334.
  29. ^ Команда разработчиков PopED (2016). Руководство PopED, версия выпуска 2.13. Технический отчет, Университет Уппсалы.
  30. ^ Веб-сайт ProbOnto, URL: http://probonto.org.
  31. ^ Дамгаард, Кристиан; Вайнер, Якоб (2000). «Описание неравенства в размере растений или плодовитости». Экология . 81 (4): 1139–1142. doi :10.1890/0012-9658(2000)081[1139:DIIPSO]2.0.CO;2.
  32. ^ Россман, Льюис А. (июль 1990 г.). «Проектирование потоков на основе гармонических средних». Журнал гидравлической инженерии . 116 (7): 946–950. doi :10.1061/(ASCE)0733-9429(1990)116:7(946).
  33. ^ Торин, Олоф (1977). «О бесконечной делимости логнормального распределения». Scandinavian Actuarial Journal . 1977 (3): 121–148. doi :10.1080/03461238.1977.10405635. ISSN  0346-1238.
  34. ^ ab Gao, Xin (2009). "Асимптотическое поведение хвостовой плотности для суммы коррелированных логнормальных переменных". Международный журнал математики и математических наук . 2009 : 1–28. doi : 10.1155/2009/630857 .
  35. ^ Асмуссен, С.; Рохас-Нандаяпа, Л. (2008). "Асимптотика сумм логнормальных случайных величин с гауссовой копулой" (PDF) . Statistics and Probability Letters . 78 (16): 2709–2714. doi :10.1016/j.spl.2008.03.035.
  36. ^ Марлоу, NA. (Ноябрь 1967). «Нормальная предельная теорема для степенных сумм независимых нормальных случайных величин». Bell System Technical Journal . 46 (9): 2081–2089. doi :10.1002/j.1538-7305.1967.tb04244.x.
  37. ^ Botev, ZI; L'Ecuyer, P. (2017). «Точное вычисление правого хвоста суммы зависимых логнормальных переменных». Зимняя конференция по моделированию 2017 г. (WSC), 3–6 декабря 2017 г. Лас-Вегас, Невада, США: IEEE. стр. 1880–1890. arXiv : 1705.03196 . doi :10.1109/WSC.2017.8247924. ISBN 978-1-5386-3428-8.
  38. ^ Асмуссен, А.; Гоффард, П.-О.; Лауб, П.Дж. (2016). «Ортонормальные полиномиальные разложения и логнормальные плотности сумм». arXiv : 1601.01763v1 [math.PR].
  39. ^ Сангал, Б.; Бисвас, А. (1970). «Применение 3-параметрического логнормального распределения в гидрологии». Исследования водных ресурсов . 6 (2): 505–515. doi :10.1029/WR006i002p00505.
  40. ^ Джонсон, Н. Л. (1949). «Системы частотных кривых, созданных методами трансляции». Biometrika . 36 (1/2): 149–176. doi :10.2307/2332539. JSTOR  2332539. PMID  18132090.
  41. ^ Свами, ПК (2002). «Почти логнормальное распределение». Журнал гидрологической инженерии . 7 (6): 441–444. doi :10.1061/(ASCE)1084-0699(2002)7:6(441).
  42. ^ abc Олссон, Ульф. "Доверительные интервалы для среднего значения логнормального распределения". Журнал статистического образования 13.1 (2005).pdf html
  43. ^ user10525, Как рассчитать доверительный интервал для среднего значения логарифмически нормального набора данных?, URL (версия: 2022-12-18): https://stats.stackexchange.com/q/33395
  44. ^ Лэнд, CE (1971), «Доверительные интервалы для линейных функций нормального среднего и дисперсии», Annals of Mathematical Statistics, 42, 1187–1205.
  45. ^ Чжоу, XH. и Гао, S. (1997), «Доверительные интервалы для логнормального среднего», Статистика в медицине, 16, 783–790.
  46. ^ Доверительные интервалы для коэффициентов риска и коэффициентов шансов
  47. ^ ab Wu, Ziniu; Li, Juan; Bai, Chenyuan (2017). "Масштабные отношения процесса роста логнормального типа с экстремальным принципом энтропии". Entropy . 19 (56): 1–14. Bibcode :2017Entrp..19...56W. doi : 10.3390/e19020056 .
  48. ^ Wu, Zi-Niu (2003). «Прогнозирование распределения размеров вторичных выброшенных капель с помощью коронного разбрызгивания капель, падающих на твердую стенку». Вероятностная инженерная механика . 18 (3): 241–249. Bibcode : 2003PEngM..18..241W. doi : 10.1016/S0266-8920(03)00028-6.
  49. ^ Ван, Вэньбинь; У, Цзыню; Ван, Чуньфэн; Ху, Руйфэн (2013). «Моделирование скорости распространения контролируемых инфекционных эпидемий с помощью термодинамической модели на основе энтропии». Science China Physics, Mechanics and Astronomy . 56 (11): 2143–2150. arXiv : 1304.5603 . Bibcode : 2013SCPMA..56.2143W. doi : 10.1007/s11433-013-5321-0. ISSN  1674-7348. PMC 7111546. PMID 32288765  . 
  50. ^ Bloetscher, Frederick (2019). «Использование предсказательных байесовских методов Монте-Карло-цепи Маркова для получения вероятностного решения уравнения Дрейка». Acta Astronautica . 155 : 118–130. Bibcode : 2019AcAau.155..118B. doi : 10.1016/j.actaastro.2018.11.033. S2CID  117598888.
  51. ^ Саттон, Джон (март 1997). «Наследие Гибрата». Журнал экономической литературы . 32 (1): 40–59. JSTOR  2729692.
  52. ^ abc Limpert, Eckhard; Stahel, Werner A.; Abbt, Markus (2001). "Логнормальные распределения в науках: ключи и подсказки". BioScience . 51 (5): 341. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 . ISSN  0006-3568.
  53. ^ ab Бужаки, Дьёрдь; Мидзусеки, Кэндзи (2017-01-06). «Лог-динамический мозг: как перекошенные распределения влияют на сетевые операции». Nature Reviews. Neuroscience . 15 (4): 264–278. doi :10.1038/nrn3687. ISSN  1471-003X. PMC 4051294. PMID 24569488  . 
  54. ^ abc Павел, Собкович и др. (2013). «Логнормальное распределение длин сообщений пользователей в интернет-дискуссиях — следствие закона Вебера-Фехнера?». EPJ Data Science .
  55. ^ Инь, Пэйфэн; Ло, Пин; Ли, Ван-Чиен; Ван, Мин (2013). Молчание — тоже доказательство: интерпретация времени ожидания для рекомендации с психологической точки зрения. Международная конференция ACM по KDD.
  56. ^ «Какова средняя продолжительность игры в шахматы?». chess.stackexchange.com . Получено 14 апреля 2018 г. .
  57. ^ Хаксли, Джулиан С. (1932). Проблемы относительного роста . Лондон. ISBN 978-0-486-61114-3. OCLC  476909537.
  58. ^ Сартвелл, Филип Э. «Распределение инкубационных периодов инфекционных заболеваний». Американский журнал гигиены 51 (1950): 310-318.
  59. ^ SK Chan, Jennifer; Yu, Philip LH (2006). «Моделирование данных SARS с использованием порогового геометрического процесса». Статистика в медицине . 25 (11): 1826–1839. doi :10.1002/sim.2376. PMID  16345017. S2CID  46599163.
  60. ^ Оно, Юкитеру; Асаи, Киёси; Хамада, Мичиаки (2013-01-01). «PBSIM: PacBio читает симулятор — к точной сборке генома». Биоинформатика . 29 (1): 119–121. doi : 10.1093/bioinformatics/bts649 . ISSN  1367-4803. PMID  23129296.
  61. ^ Макуч, Роберт В.; Д. Х. Фримен; М. Ф. Джонсон (1979). «Обоснование логнормального распределения как модели для кровяного давления». Журнал хронических заболеваний . 32 (3): 245–250. doi :10.1016/0021-9681(79)90070-5. PMID  429469.
  62. ^ Лейси, Л. Ф.; Кин, О. Н.; Притчард, Дж. Ф.; Бай, А. (1997-01-01). «Обычные некомпартментные фармакокинетические переменные: распределены ли они нормально или логнормально?». Журнал биофармацевтической статистики . 7 (1): 171–178. doi : 10.1080/10543409708835177. ISSN  1054-3406. PMID  9056596.
  63. ^ Шелер, Габриэль; Шуман, Иоганн (2006-10-08). Разнообразие и стабильность в скоростях нейронного выхода . 36-е заседание Общества нейронауки, Атланта.
  64. ^ Mizuseki, Kenji; Buzsáki, György (2013-09-12). «Предварительно настроенное, асимметричное распределение частоты срабатывания в гиппокампе и энторинальной коре». Cell Reports . 4 (5): 1010–1021. doi :10.1016/j.celrep.2013.07.039. ISSN  2211-1247. PMC 3804159 . PMID  23994479. 
  65. ^ Wohrer, Adrien; Humphries, Mark D.; Machens, Christian K. (2013-04-01). «Распределение нейронной активности в популяции во время принятия перцептивных решений». Progress in Neurobiology . 103 : 156–193. doi :10.1016/j.pneurobio.2012.09.004. ISSN  1873-5118. PMC 5985929 . PMID  23123501. 
  66. ^ Шелер, Габриэль (28 июля 2017 г.). «Логарифмические распределения доказывают, что внутреннее обучение является хеббовским». F1000Research . 6 : 1222. doi : 10.12688/f1000research.12130.2 . PMC 5639933 . PMID  29071065. 
  67. ^ Моралес-Грегорио, Айтор; ван Мееген, Александр; ван Альбада, Сача (2023). «Повсеместное логнормальное распределение плотности нейронов в коре головного мозга млекопитающих». Cerebral Cortex . 33 (16): 9439–9449. doi :10.1093/cercor/bhad160. PMC 10438924 . PMID  37409647. 
  68. ^ Полицци, Стефано; Лаперрусаз, Бастьен; Перес-Рече, Франсиско Дж; Николини, Франк Э; Сатта, Вероник Магуэр; Арнеодо, Ален; Аргул, Франсуаза (29 мая 2018 г.). «Модель минимального каскада разрывов для пластичности живых клеток». Новый журнал физики . 20 (5): 053057. Бибкод : 2018NJPh...20e3057P. дои : 10.1088/1367-2630/aac3c7. hdl : 2164/10561 . ISSN  1367-2630.
  69. ^ Аренс, Л. Х. (1954-02-01). «Логнормальное распределение элементов (фундаментальный закон геохимии и его дочерние законы)». Geochimica et Cosmochimica Acta . 5 (2): 49–73. Bibcode : 1954GeCoA...5...49A. doi : 10.1016/0016-7037(54)90040-X. ISSN  0016-7037.
  70. ^ Oosterbaan, RJ (1994). "6: Анализ частот и регрессии" (PDF) . В Ritzema, HP (ред.). Принципы и применение дренажа, публикация 16. Вагенинген, Нидерланды: Международный институт мелиорации и улучшения земель (ILRI). стр. 175–224. ISBN 978-90-70754-33-4.
  71. ^ CumFreq, бесплатное программное обеспечение для настройки распределения
  72. ^ Клементи, Фабио; Галлегати, Мауро (2005) «Закон Парето о распределении доходов: доказательства для Германии, Соединенного Королевства и Соединенных Штатов», EconWPA
  73. ^ Ватару, Сома (2002-02-22). «Физика личного дохода». В Такаясу, Хидеки (ред.). Эмпирическая наука финансовых колебаний: возникновение эконофизики . Springer. arXiv : cond-mat/0202388 . doi :10.1007/978-4-431-66993-7.
  74. ^ Блэк, Ф.; Шоулз, М. (1973). «Ценообразование опционов и корпоративных обязательств». Журнал политической экономии . 81 (3): 637. doi :10.1086/260062. S2CID  154552078.
  75. ^ Мандельброт, Бенуа (2004). (Неправильное) поведение рынков. Базовые книги. ISBN 9780465043552.
  76. ^ Банчен, П., Продвинутое ценообразование опционов , Учебное пособие Сиднейского университета, 2007 г.
  77. ^ Телуолл, Майк; Уилсон, Пол (2014). «Регрессия для данных цитирования: оценка различных методов». Журнал Informetrics . 8 (4): 963–971. arXiv : 1510.08877 . doi : 10.1016/j.joi.2014.09.011. S2CID  8338485.
  78. ^ Шеридан, Пол; Онодера, Таку (2020). «Парадокс предпочтительной привязанности: как предпочтительная привязанность сочетается с ростом, создавая сети с логнормальным распределением входящих степеней». Scientific Reports . 8 (1): 2811. arXiv : 1703.06645 . doi :10.1038/s41598-018-21133-2. PMC 5809396 . PMID  29434232. 
  79. ^ Eeckhout, Jan (2004). «Закон Гибрата для (всех) городов». American Economic Review . 94 (5): 1429–1451. doi :10.1257/0002828043052303. JSTOR  3592829 – через JSTOR.
  80. ^ Каулт, Дэвид (1996). «Форма распределения числа сексуальных партнеров». Статистика в медицине . 15 (2): 221–230. doi :10.1002/(SICI)1097-0258(19960130)15:2<221::AID-SIM148>3.0.CO;2-Q. PMID  8614756.
  81. ^ О'Коннор, Патрик; Клейнер, Андре (2011). Практическая надежность техники . John Wiley & Sons. стр. 35. ISBN 978-0-470-97982-2.
  82. ^ "Shadowing". www.WirelessCommunication.NL . Архивировано из оригинала 13 января 2012 года.
  83. ^ Декстер, AR; Таннер, DW (июль 1972). «Плотности упаковки смесей сфер с логнормальным распределением размеров». Nature Physical Science . 238 (80): 31–32. Bibcode :1972NPhS..238...31D. doi :10.1038/physci238031a0. ISSN  2058-1106.
  84. ^ Грос, К.; Кацор, Г.; Маркович, Д. (2012). «Нейропсихологические ограничения производства человеческих данных в глобальном масштабе». The European Physical Journal B. 85 ( 28): 28. arXiv : 1111.6849 . Bibcode : 2012EPJB...85...28G. doi : 10.1140/epjb/e2011-20581-3. S2CID  17404692.
  85. ^ Дусер, Джон Р.; Болоски, Уильям Дж. (1999-05-01). «Масштабное исследование содержимого файловой системы». Обзор оценки производительности ACM SIGMETRICS . 27 (1): 59–70. doi : 10.1145/301464.301480 . ISSN  0163-5999.
  86. ^ Аламсар, Мохаммед; Парисис, Джордж; Клегг, Ричард; Захленюк, Николай (2019). «О распределении объемов трафика в Интернете и его последствиях». arXiv : 1902.03853 [cs.NI].
  87. ^ ASTM D3654, Стандартный метод испытания на прочность адгезии при сдвиге на самоклеящейся ленте
  88. ^ ASTM D4577, Стандартный метод испытаний на сопротивление сжатию контейнера при постоянной нагрузке>\

Дальнейшее чтение

  • Кроу, Эдвин Л.; Шимизу, Кунио, ред. (1988), Логнормальные распределения, теория и приложения , Статистика: учебники и монографии, т. 88, Нью-Йорк: Marcel Dekker, Inc., стр. xvi+387, ISBN 978-0-8247-7803-3, MR  0939191, Zbl  0644.62014
  • Эйчисон, Дж. и Браун, Дж. А. К. (1957) Логнормальное распределение , Издательство Кембриджского университета.
  • Лимперт, Э.; Стахел, В.; Эббт, М. (2001). «Логнормальные распределения в науках: ключи и подсказки». BioScience . 51 (5): 341–352. doi : 10.1641/0006-3568(2001)051[0341:LNDATS]2.0.CO;2 .
  • Холгейт, П. (1989). "Логнормальная характеристическая функция". Communications in Statistics - Theory and Methods . 18 (12): 4539–4548. doi :10.1080/03610928908830173.
  • Брукс, Роберт; Корсон, Джон; Донал, Уэльс (1994). «Ценообразование опционов на индексы, когда все базовые активы следуют логнормальному распределению». Достижения в области исследований фьючерсов и опционов . 7. SSRN  5735.
  • Нормальное распределение — это логнормальное распределение.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Log-normal_distribution&oldid=1248200009"