Обсуждение:Лог-нормальное распределение

См. также: мультипликативное исчисление ??

Я перешел по ссылке на страницу Википедии Мультипликативное исчисление и потратил около часа, пытаясь определить, имеет ли оно какую-либо легитимность. Я пришел к выводу, что нет. Напротив, логнормальные распределения бесспорно легитимны. Ссылку на мультипликативное исчисление в разделе «См. также» следует удалить, поскольку отсылать читателей к какой-то сомнительной статье, не имеющей явного отношения к логнормальным распределениям, за исключением общего мультипликативного базиса, — пустая трата времени.

Если вы посмотрите на Talk:Multiplicative calculus, вы найдете продолжительные споры о легитимности контента, и большинство участников приходят к выводу, что статью следует удалить. Более того, все разговоры, за исключением двух записей, десятилетней давности. Ссылки на отвлекающий мусор никому не нужны, даже если мусору удается уцепиться за какую-то тонкую нить легитимности, которая препятствует его удалению. — Предыдущий неподписанный комментарий добавлен 70.68.18.243 (обсуждение) 19:03, 20 сентября 2019 (UTC) [ ответить ]

Ошибка в логнормальном pdf-файле в поле?

PDF, указанный в поле справа от страницы, кажется неправильным и не соответствует PDF, указанному в статье. В частности, кажется, что первый член PDF должен быть 1/x сигма-корень (2π). То есть, множитель 1/x, кажется, отсутствует. Таким образом, член должен быть: frac{1}{ x\sigma \sqrt{2 \pi}} ? Не решаюсь редактировать, так как это мой первый опыт обсуждения и редактирования Википедии, плюс мне неочевидно, как редактировать поле. --QFC JRB ( обсуждение ) 19:45, 2 мая 2017 (UTC) [ ответить ]

Я также заметил, что хотя μ указано как 0, PDF-файл отображается центрированным относительно 1. Это ошибка? Tommy2024 ( talk ) 22:17, 20 марта 2024 (UTC) [ ответить ]

Проверил еще раз, и обновление было выполнено, как предложено выше. --QFC JRB ( обсуждение ) 19:50, 3 мая 2017 (UTC) [ ответить ]

Вывод логнормального распределения

Как вывести логнормальное распределение из нормального распределения?

Положим X ~ N(\mu, \sigma^2) и найдем распределение Y = exp X.

D. Clason — Предыдущий неподписанный комментарий добавлен 128.123.198.136 (обсуждение) 00:21, 11 ноября 2011 (UTC) [ ответить ]

Мне было трудно понять этот вывод. Это объяснение (prop 8. p. 12 из http://norstad.org/finance/normdist.pdf) было легче понять, так как оно показывает изменение pdf/переменной. Я бы хотел изменить вывод на этой странице, если у меня будет время (не совсем уверен, как работать с математическим шрифтом).Corwinjoy ( talk ) 20:03, 17 февраля 2017 (UTC) [ ответить ]

Старый разговор

Здравствуйте. Я изменил введение с "логарифмически нормальное распределение" на "логарифмически нормальное распределение". Я понимаю идею, что для каждой пары значений (мю, сигма) это другое распределение. Однако общепринятым является называть всех членов параметрического семейства общим именем — нормальное распределение, бета-распределение, экспоненциальное распределение, .... В каждом случае эти термины обозначают семейство распределений. Это не вызывает никаких недоразумений, и я не вижу смысла отказываться от этого соглашения. Удачного редактирования, Wile E. Heresiarch 03:42, 8 апреля 2004 (UTC)

В формуле для оценки максимального правдоподобия logsd разве не должно быть больше n-1, а не n?

Если вы не видите ошибку в математике, я думаю, что это нормально. Член n-1 обычно появляется при выполнении несмещенных оценок , а не оценок максимального правдоподобия.
Вы правы, я был в замешательстве.

ВОПРОС: Разве не должен быть квадратный корень в оценке стандартного отклонения методом машинного обучения? Пользователь:flonks

Правильно, я исправил, спасибо. PAR 09:15, 27 сентября 2005 (UTC) [ ответить ]

Могу ли я задать вопрос?

Если Y=a^2; a — логнормальное распределение; тогда какой вид распределения имеет Y?

a — логнормальное распределение
поэтому log(a) — это нормальное распределение
log(a^2) = 2 log(a) также является нормальным распределением
a^2 — логнормальное распределение --Buglee 00:47, 9 мая 2006 (UTC) [ ответить ]

Скорее следует сказать, что a имеет ---не является ---логарифмически нормальным распределением. Объект, называемый a , является случайной величиной , а не распределением вероятностей . Майкл Харди 01:25, 9 мая 2006 (UTC) [ ответить ]


Мария 13 февр. 207: Я никогда ничего не писала в Википедии, поэтому прошу прощения, если делаю что-то не так. Я хотела бы отметить, что следующее может быть непонятно читателю: в формулах E(X)^2 представляет собой квадрат среднего, а не второй момент. Я бы предложила одно из следующих решений: 1) пропустить скобки вокруг X и представить среднее как EX. Тогда ясно, что (EX)^2 будет его квадратом. Однако можно задаться вопросом о EX^2 (который должен представлять второй момент...) 2) пропустить оператор E и поставить вместо него букву, т. е. пусть m будет средним, а s — стандартным отклонением. Тогда не будет путаницы. 3) добавить в каком-то месте текста строку с обозначением: т. е. что под E(X)^2 вы подразумеваете квадрат первого момента, в то время как второй момент обозначается как E(X^2) (я предполагаю). Мне пришлось самому перевернуть формулу, чтобы понять, что она должна означать.

Я только что этим занялся. Майкл Харди 00:52, 14 февраля 2007 (UTC) [ ответить ]

Ошибка?

Я думаю, что здесь есть ошибка: функция плотности должна включать член в квадрате сигмы, деленной на два, а среднее значение логнормальной переменной становится мю - сигма ^2/2. По сути, я думаю, автор забыл член Ито.

Я считаю, что статья верна. См., например, http://mathworld.wolfram.com/LogNormalDistribution.html для альтернативного источника функции плотности и среднего значения. Они такие же, как показано здесь, но с другой нотацией. (M вместо mu и S вместо sigma). Энциклопедии 00:23, 4 февраля 2006 (UTC) [ ответить ]
Либо график функции плотности неверен, либо формула ожидаемого значения неверна. Как вы можете видеть из графика, по мере уменьшения сигмы ожидаемое значение приближается к 1 снизу. Это согласуется со средним значением exp(mu - sigma^2/2), которое я помню как. 69.107.6.4 19:29, 5 апреля 2007 (UTC) [ ответить ]
Вот ваша ошибка. Вы вообще не видите ожидаемого значения на графике. На него сильно влияет толстый верхний хвост, который график не показывает. См. также мои комментарии ниже. Майкл Харди 20:19, 5 апреля 2007 (UTC) [ ответить ]

Я только что вычислил интеграл и получил

е μ + σ 2 / 2 . {\displaystyle e^{\mu +\sigma ^{2}/2}.\,}

Итак, при μ = 0, когда σ уменьшается до 0, ожидаемое значение уменьшается до 1. Таким образом, может показаться, что график неверен. Майкл Харди 19:57, 5 апреля 2007 (UTC) [ ответить ]

...и теперь я сделал несколько графиков на компьютере, и они согласуются с тем, что показано на иллюстрации. Подробнее позже.... Майкл Харди 20:06, 5 апреля 2007 (UTC) [ ответить ]

OK, ошибки нет . По мере уменьшения моды среднее значение увеличивается , потому что верхний хвост становится толще! Так что графики, среднее значение и мода верны. Майкл Харди 20:15, 5 апреля 2007 (UTC) [ ответить ]

Вы правы. Моя ошибка. Среднее значение сильно зависит от верхнего хвоста, поэтому средние значения фактически уменьшаются до 1 по мере уменьшения сигмы. Это просто выглядит так, как будто средние значения приближаются снизу, потому что моды так и делают. 71.198.244.61 23:50, 7 апреля 2007 (UTC) [ ответить ]

Вопрос по примерам диаграмм справа. Разве у них не μ 1, а не 0 (как указано)? Они указаны как 1. Если cdf достигает 0,5 при 1 для всех из них, разве ожидаемое значение не должно быть 1? —Предыдущий комментарий без знака добавлен 12.17.237.67 (обсуждение) 18:28, 15 декабря 2008 (UTC) [ ответить ]

Ожидаемое значение равно , а не μ. / Pontus ( обсуждение ) 19:19, 16 декабря 2008 (UTC) [ ответ ] е μ + σ 2 / 2 {\displaystyle e^{\mu +\sigma ^{2}/2}}
Однако заголовок указывает, что базовый µ удерживается фиксированным на уровне 0. В этом случае мы должны увидеть ожидаемое значение, растущее с ростом сигмы. — Предыдущий комментарий без знака , добавленный 140.247.249.76 ( обсуждение ) 09:13, 29 апреля 2009 (UTC)[ отвечать ]
Ожидаемое значение не является значением y, при котором P[X<y] = P[X > y]. Ошибка новичка. — Предыдущий неподписанный комментарий добавлен 140.247.249.76 ( обсуждение ) 09:24, 29 апреля 2009 (UTC)[ отвечать ]

Опечатка

В формуле PDF есть опечатка, отсутствует символ «[».

Erf и нормальный cdf

Есть формулы, которые используют Erf, и формулы, которые используют cdf нормального распределения, IMHO, это сбивает с толку, потому что эти функции связаны, но не идентичны. Albmont 15:02, 23 августа 2006 (UTC) [ ответить ]

Технический

Пожалуйста, помните, что статьи Википедии должны быть доступны для людей, таких как ученики старших классов, или моложе, или без какого-либо образования в математике. Я считаю себя довольно сведущим в математике (знал ее в колледже и до сих пор знаю), но (учитывая, что английский не мой родной язык) я нашел зацепку к этой статье довольно сложной. Пожалуйста, сделайте ее более доступной.--  Пётр Конечны, он же Проконсул Пиотрус  |  talk  22:48, 31 августа 2006 (UTC) [ ответить ]

Ожидать, что все математические статьи Википедии будут доступны ученикам старших классов, неразумно. Некоторые из них могут быть доступны только математикам; возможно, больше из них могут быть доступны широкой аудитории профессионалов, использующих математику; другие — любому, кто пару лет занимался исчислением и не более; третьи — еще более широкой аудитории. Любой, кто знает, что такое нормальное распределение , что такое случайная величина и что такое логарифмы , легко поймет первое предложение в этой статье. Можете ли вы конкретно сказать, что именно показалось вам трудным в ней? Майкл Харди 23:28, 31 августа 2006 (UTC) [ ответить ]

Я удалил тег "слишком технический". Можете вставить его снова, но, пожалуйста, оставьте больше подробностей о том, что именно вам трудно понять. Спасибо, Обед 22:18, 22 октября 2006 (UTC) [ ответить ]

Асимметрия формально неверна?

Формула для асимметрии, по-видимому, неверна: указанный вами старший показатель степени отсутствует в определениях, данных Mathworld и NIST, см. http://www.itl.nist.gov/div898/handbook/eda/section3/eda3669.htm и http://mathworld.wolfram.com/LogNormalDistribution.html.

Большое спасибо.

X логарифм нормальный, не нормальный.

Я думаю, что определение X как нормального и Y как логнормального в начале страницы следует изменить. Остальная часть страницы рассматривает X как логнормальную переменную. —Предыдущий комментарий без знака был добавлен 213.115.25.62 ( talk ) 17:40, 2 февраля 2007 (UTC). [ ответить ]

Асимметрия в порядке, но эксцесс неверен — последний член эксцесса равен -3, а не -6 — Предыдущий комментарий без знака добавлен 129.31.242.252 (обсуждение) 02:08, 17 февраля 2009 (UTC) [ ответить ]

Да, я тоже заметил эту ошибку и изменил ее. На сайте Wolfram тоже есть ошибка, хотя если вы посчитаете ее из их центральных моментов, то получите -3. Я тоже отправил им сообщение. Привет, Occa — Предыдущий неподписанный комментарий добавлен Occawen (обсуждение • вклад ) 21:19, 1 декабря 2009 (UTC) [ ответить ]

Частичное ожидание

Я думаю, что в формуле для частного ожидания была ошибка: последнего члена там быть не должно. Вот доказательство: http://faculty.london.edu/ruppal/zenSlides/zCH08%20Black-Scholes.slide.doc См. следствие 2 в приложении A 2.

Я вернула свое предыдущее исправление. Конечно, я могу ошибаться (но сейчас я не понимаю, почему). Если вы снова измените это, пожалуйста, дайте мне знать, в чем я ошиблась. Спасибо.

Алекс — Предыдущий неподписанный комментарий был добавлен 72.255.36.161 (обсуждение) 19:39, 27 февраля 2007 (UTC). [ ответить ]

Спасибо. Я вижу проблему. У вас есть правильное выражение для

г ( к ) = к х ф ( х ) г х {\displaystyle g(k)=\int _{k}^{\infty }xf(x)\,dx}

в то время как то, что я имел там раньше, было бы правильным, если бы мы пытались найти

г 2 ( к ) = к ( х к ) ф ( х ) г х {\displaystyle g_{2}(k)=\int _{k}^{\infty }(xk)f(x)\,dx}

что (по сути) является формулой BS, но не является частным средним (или частным ожиданием) по моему (или вашему) определению. (На самом деле я нашел несколько источников, где частичное ожидание определяется как , но такое использование, кажется, встречается редко. Например, [1]). Термин, который вы опустили, встречается в , но не в правильной форме частного среднего. Поэтому я оставлю формулу такой, какая она есть сейчас. Энциклопедии 00:47, 28 февраля 2007 (UTC) [ ответить ] г 2 {\displaystyle g_{2}} г 2 ( к ) {\displaystyle g_{2}(k)} г ( к ) {\displaystyle g(k)}

  • Остальная часть страницы использует вместо , я предлагаю использовать его здесь (в дополнение к тому, что является хорошим способом выразить это). Я не добавлял его сам, так как с 50-процентной вероятностью я бы испортил . --Tom3118 ( talk ) 19:29, 16 июня 2009 (UTC) [ ответить ] ерф {\displaystyle \operatorname {erf} } Ф {\displaystyle \Фи} Ф {\displaystyle \Фи} 2 {\displaystyle {\sqrt {2}}}

Обобщить распределение произведения логнормальных переменных

О распределении произведения независимых логнормальных переменных:

Разве нельзя обобщить это на переменные с разным средним значением (mü НЕ одинаково для каждой переменной)?

название: логарифм против экспоненциального

log normal, иногда это немного сбивает меня с толку, поэтому небольшое примечание здесь:

Для переменной Y, если X=log(Y) является нормальным, то Y является логарифмически нормальным, что означает, что после взятия логарифма он становится нормальным. Аналогично может быть экспоненциальная нормальность: для переменной Z exp(Z) является нормальным. Однако exp(Z) никогда не может быть нормальным, поэтому имя log нормальный. Более того, если X является нормальным, то log(X) не определено.

В других случаях, переменная X находится в каком-либо распределении (XXX), нам нужно имя для распределения Y=log(X) (в случае, если оно определено). X=exp(Y), Такое имя должно быть экспоненциальным XXX. Например, X находится в IG, тогда Y=log(X) находится в экспоненциальном IG. Jackzhp 15:37, 13 июля 2007 (UTC) [ ответить ]

Иметь в виду, μ {\displaystyle \мю} и σ {\displaystyle \сигма}

Связь, заданная для в терминах Var(x) и E(x), предполагает, что не определена, когда . Однако я не вижу причин, по которым должно быть строго положительным. Я предлагаю определить связь в терминах таким образом, что μ {\displaystyle \мю} μ {\displaystyle \мю} Э ( х ) 0 {\displaystyle E(x)\leq 0} Э ( х ) {\displaystyle E(x)} Э 2 ( х ) {\displaystyle E^{2}(x)}

μ = 1 2 ( вн ( Э 2 ( х ) ) σ 2 ) {\displaystyle \mu ={\frac {1}{2}}\left(\ln \left(E^{2}(x)\right)-\sigma ^{2}\right)}

Я подозреваю, что это приводит к тому, что... ну, неправильно. Это предполагает, что два разных значения для могут привести к одному и тому же , что я нахожу маловероятным. В любом случае, если есть способ вычислить, когда , то мы должны включить его, если нет, мы должны объяснить эту тонкость. По моему скромному мнению.--Phays 20:35, 6 августа 2007 (UTC) [ ответить ] μ {\displaystyle \мю} Э ( х ) {\displaystyle E(x)} μ {\displaystyle \мю} μ {\displaystyle \мю} Э ( х ) 0 {\displaystyle E(x)\leq 0}

Я не совсем понял ваш комментарий. Теперь я сделал обозначения в статье единообразными: X — это случайная величина, распределенная по логнормальному закону, поэтому E( X ) должно быть, конечно, положительным, и μ = E( Y ) = E(log( X )).
Я не знаю, что вы подразумеваете под "E 2 ". Это как если бы вы возводили в квадрат оператор ожидания. "E 2 ( X ) означало бы "E(E( X ))", но это было бы то же самое, что и E( X ), поскольку E( X ) является константой. Майкл Харди 20:56, 6 августа 2007 (UTC) [ ответить ]

Оценка максимального правдоподобия

Есть ли ошибки в MLE? Мне кажется, что предоставленный метод является MLE для среднего значения и дисперсии , а не для параметров и . Если это так, то его следует изменить на параметры, оцененные и затем перенаправить на извлечение значений параметров из среднего значения и дисперсии.--Phays 20:40, 6 августа 2007 (UTC) [ ответить ] μ {\displaystyle \мю} σ {\displaystyle \сигма} Э ^ ( х ) {\displaystyle {\hat {E}}(x)} В а г ^ ( х ) {\displaystyle {\hat {Var}}(x)}

MLE, данные для μ и σ 2 , не являются средним значением и дисперсией логарифмического нормального распределения, а средним значением и дисперсией распределения нормально распределенного логарифма логарифмически нормально распределенной случайной величины. Это правильные MLE для μ и σ 2 . Здесь полагается на "функциональную инвариантность" MLE в целом. Майкл Харди 20:47, 6 августа 2007 (UTC) [ ответить ]
Боюсь, я все еще не до конца понимаю, но объяснить мое замешательство просто. Оцениваются ли параметры μ и σ 2 из
ф ( х ; μ , σ ) = е ( вн х μ ) 2 / ( 2 σ 2 ) х σ 2 π {\displaystyle f(x;\mu ,\sigma )={\frac {e^{-(\ln x-\mu )^{2}/(2\sigma ^{2})}}{x\sigma {\sqrt {2\pi }}}}}
или эти оценки описывают среднее значение и дисперсию? Другими словами, если есть и тогда есть ? Я понимаю, что параметры в приведенном выше уравнении, а именно μ и σ, не являются средним значением и стандартным отклонением . Они могут быть средним значением и стандартным отклонением .--Phays 01:16, 7 августа 2007 (UTC) [ ответить ] Х {\displaystyle X} Н ( μ н , σ н ) {\displaystyle N(\mu _{n},\sigma _{n})} И = е х п ( Х ) {\displaystyle Y=exp(X)} Э ( И ) = μ μ ¯ {\displaystyle E(Y)=\mu \approx {\bar {\mu }}} И {\displaystyle Y} Х {\displaystyle X}
Ответ на ваш первый вопрос утвердительный. Ожидаемое значение Y = exp( X ) не равно μ; его значение указано в другом месте статьи. Майкл Харди 16:10, 10 августа 2007 (UTC) [ ответить ]

8/10/2007:

Насколько я понимаю, доверительные интервалы используют при расчете стандартную ошибку совокупности, а не стандартное отклонение (сигма).

Поэтому я не понимаю, как таблица использует 2 сигма и т. д. для расчета доверительного интервала применительно к логарифмически нормальному распределению.

Почему он отображается как 2*сигма?

Angusmdmclean 12:35, 10 августа 2007 (UTC) angusmdmclean [ ответить ]


Привет. Формула, связывающая плотность логарифмической нормальности с плотностью нормальной — откуда в правой части берется произведение? Я думаю, это опечатка. Должно выглядеть так: f_L = {1\over x} \times f_N, нет?

На этой странице отсутствуют адекватные цитаты!!

Политика Википедии (см. WP:CITE#HOW ) предполагает цитирование определенных страниц в определенных книгах или рецензируемых статьях для поддержки утверждений, сделанных в Википедии. Конечно, это относится к статьям по математике так же, как и к статьям об истории, телешоу или чем-либо еще?

Я говорю это, потому что искал формулу для частного ожидания логнормальной переменной и был рад обнаружить, что эта превосходная, всеобъемлющая статья ее предлагает. Но как я могу узнать, верна ли формула? Я доверяю компетентности людей, которые написали эту статью, но как я могу узнать, не поменял ли где-то знак какой-нибудь озорной старшеклассник? Я попытался проверить формулу ожидания, самостоятельно вычислив интеграл, но быстро заблудился (извините! некоторые пользователи этих статей менее технически подкованы, чем авторы!). Скоро я пойду в библиотеку, чтобы поискать формулу (безусловное ожидание появляется в некоторых моих книгах, но не частичное ожидание), но это сводит на нет смысл обращения к Википедии в первую очередь.

Конечно, я благодарен, что Википедия ссылается на одну книгу, посвященную логнормальному распределению (Aitchison and Brown 1957). Эта ссылка может мне помочь, когда я доберусь до библиотеки. Но я не уверен, что это был источник формулы, о которой идет речь. Моя точка зрения, конечно, более общая. Поскольку Википедия неизбежно подвержена ошибкам и вандализму, математическим формулам никогда нельзя доверять, если только они не вытекают весьма прозрачным образом из предыдущих математических утверждений в той же статье. Такие страницы, как эта, были бы гораздо полезнее, если бы конкретные математические утверждения подкреплялись ссылками на страницы (одну или, желательно, несколько) книг или статей, где их можно было бы проверить. -- Rinconsoleao 15:11, 28 сентября 2007 (UTC) [ ответить ]

Обычно я этого не делаю, потому что считаю это грубым, но я действительно должен сказать {{ sofixit }}, потому что вы направляетесь в библиотеку и сможете добавить хорошие ссылки. Даже если бы у нас был хороший источник для этого, формула все равно могла бы быть неверной из-за вандализма или ошибок транскрипции. Такова реальность Википедии. Можете ли вы написать программу для ее проверки, возможно? Acct4 15:23, 28 сентября 2007 (UTC) [ ответить ]
Я думаю, что у Эйтчинсона и Брауна есть эта формула, но поскольку я не заглядывал в эту книгу много лет, я бы не стал в нее верить. Мне придется проверить. Я сам вывел формулу, прежде чем добавить ее в Википедию, к сожалению, в моем сообщении была ошибка, которую заметил и исправил анонимный пользователь. Кстати, на данный момент я почти на 100% уверен в ее правильности. И я слежу за этой страницей на предмет вандализма или других проблем. В целом, ваша точка зрения хороша. Энциклопедии 22:34, 28 сентября 2007 (UTC) [ ответить ]

Почему никто не упомянул, вычисляются ли среднее значение и стандартное отклонение по x или y?. если y = exp(x). Тогда среднее значение и стандартное отклонение вычисляются по значениям x. Книга - Афансиус Папулис. Сиддхартха, здесь. — Предыдущий неподписанный комментарий добавлен 203.199.41.181 ( обсуждение ) 09:26, 2 февраля 2008 (UTC) [ ответить ]

Вывод частичного ожидания

По просьбе Ринконсолеао и других, вот вывод формулы частичного ожидания. Это утомительно, поэтому я не включаю его в саму статью.

Мы хотим найти

г ( к ) = к х ф ( х ) г х {\displaystyle g(k)=\int _{k}^{\infty }xf(x)dx}

где f(x) — логнормальное распределение

ф ( х ) = 1 х σ 2 π эксп ( ( вн х μ ) 2 2 σ 2 ) {\displaystyle f(x)={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right)}

так что у нас есть

g ( k ) = k 1 σ 2 π exp ( ( ln x μ ) 2 2 σ 2 ) d x {\displaystyle g(k)=\int _{k}^{\infty }{\frac {1}{\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right)dx}

Сделать замену переменных

y = ln x μ σ {\displaystyle y={\frac {\ln x-\mu }{\sigma }}} и давая d x = σ exp ( σ y + μ ) d y {\displaystyle dx=\sigma \exp(\sigma y+\mu )dy}

y = ( ln k μ ) / σ 1 σ 2 π exp ( 1 2 y 2 ) σ exp ( σ y + μ ) d y {\displaystyle \int _{y=(\ln k-\mu )/\sigma }^{\infty }{\frac {1}{\sigma {\sqrt {2\pi }}}}\exp(-{\frac {1}{2}}y^{2})\sigma \exp(\sigma y+\mu )dy}

объединить экспоненты вместе

1 2 π exp ( 1 2 y 2 + σ y + μ ) d y {\displaystyle \int {\frac {1}{\sqrt {2\pi }}}\exp(-{\frac {1}{2}}y^{2}+\sigma y+\mu )dy}

исправить квадратное уравнение, «завершив квадрат»

1 2 π exp [ 1 2 ( y σ ) 2 + ( μ + 1 2 σ 2 ) ] d y {\displaystyle \int {\frac {1}{\sqrt {2\pi }}}\exp[-{\frac {1}{2}}(y-\sigma )^{2}+(\mu +{\frac {1}{2}}\sigma ^{2})]dy}

на этом этапе мы можем вытащить кое-что из интеграла

g ( k ) = exp ( μ + σ 2 2 ) 1 2 π y = ( ln K μ ) / σ exp ( 1 2 ( y σ ) 2 ) d y {\displaystyle g(k)=\exp(\mu +{\frac {\sigma ^{2}}{2}}){\frac {1}{\sqrt {2\pi }}}\int _{y=(\ln K-\mu )/\sigma }^{\infty }\exp(-{\frac {1}{2}}(y-\sigma )^{2})dy}

еще одна замена переменной

v = y σ {\displaystyle v=y-\sigma } и d y = d v {\displaystyle dy=dv}

дает

g ( k ) = exp ( μ + σ 2 2 ) 1 2 π v = ( ln k μ ) / σ σ exp ( 1 2 v 2 ) d v {\displaystyle g(k)=\exp(\mu +{\frac {\sigma ^{2}}{2}}){\frac {1}{\sqrt {2\pi }}}\int _{v=(\ln k-\mu )/\sigma -\sigma }^{\infty }\exp(-{\frac {1}{2}}v^{2})dv}

Мы распознаем интеграл и дробь перед ним как дополнение к cdf стандартной нормальной случайной величины

g ( k ) = exp ( μ + σ 2 2 ) [ 1 Φ ( ln k μ σ 2 σ ) ] {\displaystyle g(k)=\exp \left(\mu +{\frac {\sigma ^{2}}{2}}\right)\left[1-\Phi ({\frac {\ln k-\mu -\sigma ^{2}}{\sigma }})\right]}

используя мы наконец имеем 1 Φ ( x ) = Φ ( x ) {\displaystyle 1-\Phi (x)=\Phi (-x)}

g ( k ) = exp ( μ + σ 2 2 ) Φ ( ln k + μ + σ 2 σ ) {\displaystyle g(k)=\exp \left(\mu +{\frac {\sigma ^{2}}{2}}\right)\Phi \left({\frac {-\ln k+\mu +\sigma ^{2}}{\sigma }}\right)}

С уважением, Encyclops ( обсуждение ) 21:49, 29 августа 2009 (UTC) [ ответить ]

примеры логнормального распределения в природе/экономике?

Было бы неплохо привести примеры! — Предыдущий неподписанный комментарий добавлен 146.113.42.220 (обсуждение) 16:41, 8 февраля 2008 (UTC) [ ответить ]

Одним из примеров является время неврологической реакции . Это распределение наблюдалось в исследованиях торможения автомобиля и других реакций на раздражители. См. также ментальную хронометрию .-- IanOsgood ( talk ) 02:32, 26 февраля 2008 (UTC) [ ответить ]
Это также полезно в телекоммуникациях для вычисления эффектов медленного затухания передаваемого сигнала. -- 82.123.94.169 (обс.) 14:42, 28 февраля 2008 (UTC) [ ответить ]

Я думаю, что модель опциона Блэка-Шоулза использует логнормальное предположение о цене акций. Это имеет смысл, потому что именно процентное изменение цены имеет реальное значение, а не сама цена. Если какое-то внешнее событие заставляет цену акций падать, то величина падения не так уж важна для инвестора, на самом деле важен процентный показатель. Это предполагает логнормальное распределение. PAR ( обсуждение ) 17:13, 28 февраля 2008 (UTC) [ ответить ]

Я помню, как читал в Вики, что высокие IQ распределены логнормально. Также, доходы (в данной стране) распределены примерно так же. Elithrion ( обсуждение ) 21:26, 2 ноября 2009 (UTC) [ ответить ]

Границы параметров ?

Если связь между логнормальным распределением и нормальным распределением верна, то я не понимаю, почему должно быть больше 0 (поскольку ожидается, что это действительное число без границ в нормальном распределении). По крайней мере, оно может быть нулевым, поскольку это касается графиков, показанных для pdf и cdf (в связи с этим я отредактировал статью). Кроме того, это не то, что должно быть больше 0, но (что просто означает, что оно не может быть нулевым, поскольку это действительное число). -- 82.123.94.169 (обсуждение) 15:04, 28 февраля 2008 (UTC) [ ответить ] μ {\displaystyle \mu } μ {\displaystyle \mu } σ {\displaystyle \sigma } σ 2 {\displaystyle \sigma ^{2}} σ {\displaystyle \sigma }

Вопрос: Какова может быть интерпретация, скажем, в отличие от ? По строгому соглашению (и довольно широко принятому в выводах) стандартные отклонения считаются находящимися в области , хотя я предполагаю, что в этом случае алгебраически может быть отрицательным... Начинать говорить об отрицательных sd сбивает с толку, и если для этого нет веской причины, пожалуйста, не надо. -- 128.59.111.72 (обсуждение) 22:59, 10 марта 2008 (UTC) [ ответить ] σ = 3 {\displaystyle \sigma =-3} σ = 3 {\displaystyle \sigma =3} [ 0 , ) {\displaystyle [0,\infty )} σ {\displaystyle \sigma }

Да, вы правы: не может быть отрицательным или нулевым (это также очевидно при чтении формулы PDF). Меня смутила статья о нормальном распределении , где ожидается только положительное значение (чего там тоже недостаточно). Спасибо за ваш ответ, и извините за это. Я полагаю , что не может быть отрицательным, потому что это было бы бессмысленно, если бы было так (даже если бы это было математически правильно). -- 82.123.102.83 (обсуждение) 19:33, 13 марта 2008 (UTC) [ ответить ] σ {\displaystyle \sigma } σ 2 {\displaystyle \sigma ^{2}} μ {\displaystyle \mu }

Основание логарифма

Хотя да, любое основание допустимо, производные, моменты и т. д. все сделано с использованием натурального логарифма. Хотя распределение все равно будет логнормальным в другом основании b, все детали изменятся на коэффициент ln(b). Вероятно, следует добавить в этот раздел примечание о том, что мы по соглашению используем здесь натуральный логарифм. (И, возможно, повторно упомянуть его в PDF.) -- 128.59.111.72 (обсуждение) 22:59, 10 марта 2008 (UTC) [ ответить ]

Продукт "любых" распределений

Я думаю, что в статье следует подчеркнуть, что логнормальное распределение является аналогом нормального распределения в следующем смысле: если мы возьмем n независимых распределений и сложим их, то «получим» нормальное распределение (NB: здесь я намеренно ленив, точная идея — Центральная предельная теорема ). Если мы возьмем n положительных независимых распределений и перемножим их, то «получим» логнормальное (тоже ленивое). Albmont ( talk ) 11:58, 5 июня 2008 (UTC) [ reply ]

Это в какой-то степени выражено (или, по крайней мере, предполагается) в статье, где говорится: «Переменная может быть смоделирована как логнормальная, если ее можно рассматривать как мультипликативное произведение многих малых независимых факторов». Возможно, это можно было бы сказать лучше, но идея есть. Encyclops ( обсуждение ) 14:58, 5 июня 2008 (UTC) [ ответить ]
Итак, мы говорим о разнице между «выраженным (или по крайней мере предложенным)», с одной стороны, и «выделенным», с другой стороны. Майкл Харди ( обсуждение ) 17:39, 5 июня 2008 (UTC) [ ответить ]
Да, повсеместность логнормального распределения в финансах происходит из этого свойства, поэтому я думаю, что это свойство достаточно важно, чтобы быть упомянутым в начальных абзацах. Конечно, только MHO. Albmont ( talk ) 20:39, 5 июня 2008 (UTC) [ ответить ]
Факторы должны иметь небольшое отклонение от 1... Я исправил это, но может ли кто-нибудь придумать перефразировку для части о "произведении ежедневных ставок доходности"? "ставка доходности" определяется так, чтобы быть близкой к 1 (нет прибыли = 1) или близкой к нулю (нет прибыли = 0)? Melcombe ( talk ) 13:49, 11 сентября 2008 (UTC) [ ответить ]
«Ставка доходности» должна быть «близкой к 1 (нет прибыли == 1)». Автор, должно быть, говорит о дисконтных факторах , а не о нормах доходности. Нормы доходности соответствуют определенным периодам времени и, следовательно, не являются ни аддитивными, ни мультипликативными. Доходность часто рассматривается как нормально распределенная в финансах, поэтому фактор дисконтирования будет распределен логнормально. Я это исправлю. Alue ( talk ) 05:14, 19 февраля 2009 (UTC) [ ответить ]
Кроме того, было бы неплохо иметь ссылку на этот раздел. 188.97.0.158 (обсуждение) 14:21, 4 сентября 2012 (UTC) [ ответить ]

Почему значение PDF на изображении PDF больше 1?

Почему значение pdf будет больше 1 на картинке pdf? Я что-то упустил? Я действительно озадачен. —Предыдущий неподписанный комментарий, добавленный 208.13.41.5 ( обсуждение ) 01:55, 11 сентября 2008 (UTC) [ ответить ]

Почему вы озадачены? Когда вероятность концентрируется около точки, значение pdf велико. Вот что здесь происходит? Может быть, вы путаете эту ситуацию с ситуацией функций массы вероятности ? Они не могут превышать 1, так как их значения являются вероятностями. Однако значения pdf, как правило, не являются вероятностями. Майкл Харди ( обсуждение ) 02:20, 11 сентября 2008 (UTC) [ ответить ]
Другими словами, единице равна площадь под pdf, а не сама кривая. Encyclops ( обсуждение ) 03:01, 11 сентября 2008 (UTC) [ ответить ]

Теперь я не озадачен. Спасибо ;-) —Предыдущий неподписанный комментарий добавлен 208.13.41.5 ( обсуждение ) 16:54, 11 сентября 2008 (UTC) [ ответить ]


Проблема момента

В статье действительно следует упомянуть, что логнормальное распределение страдает от проблемы моментов (см., например, Контрпримеры в Вероятности, Стоянов). По сути, существует бесконечно много распределений, которые имеют те же моменты, что и LN, но имеют другую плотность вероятности. Фактически (я думаю), существуют также дискретные распределения, которые имеют те же моменты, что и распределение LN. ColinGillespie (обсуждение) 11:45, 30 октября 2008 (UTC) [ ответить ]

Функция генерации момента определяется как
M X ( t ) := E ( e t X ) , t R , {\displaystyle M_{X}(t):=E\left(e^{tX}\right),\quad t\in \mathbb {R} ,}
На всей области R он не существует, но при t=0 он точно существует, и так же для любого t<0. Так почему бы нам не попытаться найти множество областей, на которых он существует? множество {t: Mx(t)<infinite}. Jackzhp ( talk ) 14:39, 21 января 2009 (UTC) [ ответить ]
Функция генерации кумулянта/момента g(t) выпукла, 0 принадлежит множеству {t: g(t)<infinite}, если внутренность множества не пуста, то g(t) аналитична там и бесконечно дифференциальна там, на множестве g(t) строго выпукла, а g'(t) строго возрастает. пожалуйста, отредактируйте Cumulant#Some_properties_of_cumulant_generating_function или функцию генерации момента Jackzhp ( обсуждение ) 15:09, 21 января 2009 (UTC) [ ответить ]

Почему это вообще важно? Распределение не ограничено, и поэтому нет гарантии, что бесконечное множество моментов однозначно описывает распределение. — Предыдущий неподписанный комментарий, добавленный Conduit242 ( talkcontribs ) 22:35, 8 октября 2014 (UTC) [ ответить ]

Краткое изложение моих правок было сокращено

Вот полное резюме моей последней правки:

Две проблемы: X здесь более традиционен, и новая редакция не различает заглавные буквы для случайной величины и строчные буквы для аргумента функции плотности.

Майкл Харди ( обсуждение ) 20:15, 18 февраля 2009 (UTC) [ ответить ]

Проблема, на которую вы ссылаетесь, все еще (снова?) присутствует в разделе о плотности. Ниже я написал об этом под заголовком «Плотность», но, боюсь, это не понято. Madyno ( talk ) 14:24, 10 мая 2017 (UTC) [ ответить ]

Точны ли графики?

Что-то кажется немного странным с графиками. В частности, график CDF, похоже, демонстрирует, что все кривые имеют среднее значение около 1, но если базовый параметр µ остается фиксированным, мы должны увидеть P = 0,5 около x=3 для sigma = 3/2; и около 1,35 для sigma = 1, и полностью при e^50 для sigma = 10. Кривые, похоже, были построены со средним значением логнормального распределения, зафиксированным на (µ+o^2/2)=1? ~запутался~

Не путайте ожидаемое значение с точкой, в которой вероятность равна половине. Последнее хорошо определено для распределения Коши, а первое — нет; таким образом, хотя x=1 — это точка, в которой все эти распределения имеют P[x < 1] = 1/2; это не ожидаемое значение. Ура-ура, пусть ни один уставший идиот не совершит эту ошибку снова. (подпись, Оригинальный Постер) — Предыдущий неподписанный комментарий добавлен 140.247.249.76 ( обсуждение ) 09:26, 29 апреля 2009 (UTC) [ ответить ]
Мы уже обсуждали это на этой странице довольно подробно пару лет назад. Да, они точны; они также несколько контринтуитивны. Майкл Харди ( обсуждение ) 16:40, 17 июня 2009 (UTC) [ ответить ]

Думаю, стоит отметить, что формула в коде, которая генерирует графики PDF, неверна. Числитель в показателе степени — log(x-mu)^2, хотя должно быть (log(x)-mu)^2. На самом деле это не меняет графики, потому что все они используют mu=0, но это важное отличие, на случай, если кто-то другой использовал и модифицировал код. Извините, если это не то место для обсуждения — я впервые обсуждаю это на Википедии. Crichardsns (обсуждение) 01:25, 19 февраля 2011 (UTC) [ ответить ]

График в формате PDF неверен хотя бы по той причине (если только я не упустил что-то важное), потому что одна из кривых превышает 1 и не может быть правильным PDF. —Предыдущий неподписанный комментарий добавлен 203.141.92.14 ( обсуждение ) 05:31, 1 марта 2011 (UTC) [ ответить ]

Эстетика участков выглядит ужасно.

Глупости о доверительных интервалах

Я закомментировал эту таблицу:

Границы доверительного интервалапространство журналагеометрический
3σ нижняя граница μ 3 σ {\displaystyle \mu -3\sigma \,\!} μ g e o / σ g e o 3 {\displaystyle \mu _{\mathrm {geo} }/\sigma _{\mathrm {geo} }^{3}\,\!}
2σ нижняя граница μ 2 σ {\displaystyle \mu -2\sigma \,\!} μ g e o / σ g e o 2 {\displaystyle \mu _{\mathrm {geo} }/\sigma _{\mathrm {geo} }^{2}\,\!}
1σ нижняя граница μ σ {\displaystyle \mu -\sigma \,\!} μ g e o / σ g e o {\displaystyle \mu _{\mathrm {geo} }/\sigma _{\mathrm {geo} }\,\!}
1σ верхняя граница μ + σ {\displaystyle \mu +\sigma \,\!} μ g e o σ g e o {\displaystyle \mu _{\mathrm {geo} }\sigma _{\mathrm {geo} }\,\!}
2σ верхняя граница μ + 2 σ {\displaystyle \mu +2\sigma \,\!} μ g e o σ g e o 2 {\displaystyle \mu _{\mathrm {geo} }\sigma _{\mathrm {geo} }^{2}\,\!}
3σ верхняя граница μ + 3 σ {\displaystyle \mu +3\sigma \,\!} μ g e o σ g e o 3 {\displaystyle \mu _{\mathrm {geo} }\sigma _{\mathrm {geo} }^{3}\,\!}

Таблица не имеет ничего общего с доверительными интервалами в том виде, в каком они обычно понимаются. Я не уверен, что есть смысл делать доверительные интервалы для параметров здесь как отдельную тему от доверительных интервалов для нормального распределения.

Очевидно, вы не можете использовать μ и σ для формирования доверительных интервалов. Это то, для чего вам нужны доверительные интервалы! Вы не можете их наблюдать. Если бы вы могли их наблюдать, какой смысл был бы в доверительных интервалах? Майкл Харди ( обсуждение ) 16:43, 17 июня 2009 (UTC) : Майкл Харди , я думаю, я согласен с вами. Я думаю, что доверительные интервалы по параметрам иногда называют «интервалами достоверности». Они получаются с помощью байесовского анализа, с использованием априорного распределения по параметрам, где апостериорное распределение по параметрам дает интервал достоверности. Поправьте меня, если я ошибаюсь. Attic Salt ( обсуждение ) 00:50, 6 июня 2020 (UTC) [ ответить ]

Эта правка была колоссальной ошибкой, которая продержалась почти пять лет!! Тот, кто ее написал, понятия не имел, что такое доверительные интервалы. Майкл Харди ( обсуждение ) 16:49, 17 июня 2009 (UTC) [ ответить ]

Характерная функция

Рой Лепник [1] ​​получил следующую формулу ряда для характеристической функции:

φ ( t ) = π 2 σ 2 exp ( ( ln t + μ + π i / 2 ) 2 2 σ 2 ) × k = 0 ( 1 ) k a k + 1 ( 2 σ 2 ) k / 2 H k ( ln t + μ + π i / 2 σ 2 ) {\displaystyle \varphi (t)={\sqrt {\frac {\pi }{2\sigma ^{2}}}}\exp {\bigg (}-{\frac {(\ln t+\mu +\pi i/2)^{2}}{2\sigma ^{2}}}{\bigg )}\times \sum _{k=0}^{\infty }(-1)^{k}a_{k+1}(2\sigma ^{2})^{-k/2}H_{k}\!{\bigg (}{\frac {\ln t+\mu +\pi i/2}{\sigma {\sqrt {2}}}}{\bigg )}}

где — коэффициенты в разложении Тейлора обратной гамма-функции , а — функции Эрмита . a k {\displaystyle a_{k}} H k {\displaystyle H_{k}}

  1. ^ Лепник, Р. (1991). О логнормальных случайных величинах: I-характеристическая функция. J Austral Math Soc Ser B, 32, стр. 327--347, 1991.


Масштабирование и инверсия

В разделе отношений следует упомянуть масштабирование и инверсию логнормальной переменной:

  • Если тогда называется смещенным логнормальным. E(X+c)=E(X)+c, var(X+c)=var(X) X L o g - N ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Log-N} (\mu ,\sigma ^{2})} X + c {\displaystyle X+c}
  • Если , то также является логнормальным, и , E(Y)=aE(X), X L o g - N ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Log-N} (\mu ,\sigma ^{2})} Y = a X {\displaystyle Y=aX} F Y ( y ) = F X ( y a ) {\displaystyle F_{Y}(y)=F_{X}({\frac {y}{a}})} f Y ( y ) = 1 a f X ( y a ) {\displaystyle f_{Y}(y)={\frac {1}{a}}f_{X}({\frac {y}{a}})} E ( Y 2 ) = a 2 E ( X 2 ) {\displaystyle E(Y^{2})=a^{2}E(X^{2})}
  • Если , то называется обратным логарифмически нормальным, X L o g - N ( μ , σ 2 ) {\displaystyle X\sim \operatorname {Log-N} (\mu ,\sigma ^{2})} Y = 1 X {\displaystyle Y={\frac {1}{X}}}

F Y ( y ) = 1 F X ( 1 y ) {\displaystyle F_{Y}(y)=1-F_{X}({\frac {1}{y}})} и EY=?, var(Y)=? f Y ( y ) = 1 y 2 f X ( 1 y ) {\displaystyle f_{Y}(y)={\frac {1}{y^{2}}}f_{X}({\frac {1}{y}})}

Jackzhp ( обсуждение ) 12:53, 28 июля 2009 (UTC) [ ответить ]

Если Y = aX , то формулы для ƒ и F являются непосредственным применением формул из начала статьи. Если Y=1/X , то и снова формулы следуют немедленно. На самом деле, гораздо проще работать с этим представлением, поскольку может потребоваться вычислить не только среднее значение+дисперсию, но и другие величины. ...  st pasha » talk  » 18:32, 28 июля 2009 (UTC) [ ответить ] Y logN ( μ + ln a , σ 2 ) {\displaystyle Y\sim \operatorname {logN} (\mu +\ln a,\sigma ^{2})} Y logN ( μ , σ 2 ) {\displaystyle Y\sim \operatorname {logN} (-\mu ,\sigma ^{2})}

Снова частичное ожидание

Как доказывает User:Encyclops выше, формула в разделе «частичное ожидание» представляет собой величину . k x f ( x ) d x {\displaystyle \int _{k}^{\infty }xf(x)dx}

Однако недавнее редактирование определило термин «частичное ожидание» как синоним «условного ожидания» E(x|x>k).

Это не кажется правильным; кажется маловероятным, что необычный термин «частичное ожидание» будет синонимом более стандартного термина «условное ожидание». Вместо этого имеет смысл, что «частичное ожидание» будет означать часть ожидания, как гласит это определение.

В любом случае, независимо от семантики, это не E(x|x>k). Вместо этого это E(x|x>k)prob(x>k). k x f ( x ) d x {\displaystyle \int _{k}^{\infty }xf(x)dx} k x f ( x ) d x {\displaystyle \int _{k}^{\infty }xf(x)dx}

Следовательно, текущий раздел "частичное ожидание" неверен. Он будет самосогласованным, если мы вместо этого определим "частичное ожидание" как E(x|x>k)prob(x>k). Поэтому я внесу это изменение. (неподписанное редактирование 213.170.45.3 )

Ну, это одно из определений "частичного ожидания", которое вы нашли, и я не могу найти другого. Если вы вносите изменения, чтобы сделать его формальным определением термина, то включите ссылку, в противном случае вы можете изменить текст, чтобы он вообще не был "определением". 08:54, 24 сентября 2009 (UTC)

Конечно, E(X|X>k) должно быть больше k, тогда как отображаемая в настоящее время формула для g(k) не должна быть больше, в частности, когда k велико и положительно. Так что определенно нужно что-то исправить в этом разделе.Fathead99 (обсуждение) 15:52, 2 января 2013 (UTC) [ ответить ]

Я согласен, что E(X|X>k) должно быть больше k, но не g(k). Вспомните, что в определении E(X|X>k) вы делите частное математическое ожидание на вероятность события {X>k}. AndreaGerali (обсуждение) 11:47, 15 января 2013 (UTC) [ ответить ] k x f ( x ) d x {\displaystyle \int _{k}^{\infty }xf(x)dx}

Да, мой комментарий относился к версии до недавних правок: я доволен тем, что есть сейчас.Fathead99 (обсуждение) 10:27, 16 января 2013 (UTC) [ ответить ]

Характеристики?

Я хотел бы начать новый раздел о свойствах, одним из свойств которого является то, что данные, возникающие из логнормального распределения, имеют симметричную кривую Лоренца (см. также коэффициент асимметрии Лоренца ). Есть возражения?

Кристиан Дамгаард —Предыдущий неподписанный комментарий добавлен Кристианом Дамгаардом ( обсуждениевклад ) 10:36, 13 октября 2010 г. (UTC) [ ответить ]

Текущий раздел "Характеристика" можно было бы разумно разделить, часть его переместив в новый раздел под названием "Свойства". Но "Характеристика" здесь не означает то, что обычно означает, поэтому остальное можно переименовать. Добавление информации, которую вы предлагаете, кажется приемлемым. Melcombe ( обсуждение ) 12:24, 13 октября 2010 (UTC) [ ответить ]

Я создал раздел «Свойства», но надеюсь, что другие перенесут соответствующие части из раздела характеристик.

Соответствует ли формат ссылки требованиям? — Предыдущий неподписанный комментарий добавлен Кристианом Дамгаардом ( обсуждениевклад ) 13:43, 13 октября 2010 (UTC) [ ответить ]

Медиана одинакова?

Является ли медиана распределения случайной величины после преобразования ее в ее логарифм такой же, как соответствующая медиана после логарифмирования всего распределения? Теоретически, так и должно быть, поскольку ранги значений от наименьшего к наибольшему должны оставаться теми же. Если это так, то это должно быть упомянуто в статье. Микаэль Хэггстрём ( обсуждение ) 05:58, 1 марта 2011 (UTC) [ ответить ]

Приблизительное среднее значение и дисперсия для суммы , для iid логнормального , даны неверно, я думаю. Выражения ниже для и подразумеваются для приблизительно нормально распределенного . Так что Y = j = 1 n X j {\displaystyle Y=\textstyle \sum _{j=1}^{n}X_{j}} X j L o g - N ( μ j , σ 2 ) {\displaystyle X_{j}\sim \operatorname {Log-{\mathcal {N}}} (\mu _{j},\sigma ^{2})} σ Z {\displaystyle \sigma _{Z}} μ Z {\displaystyle \mu _{Z}} Z l o g ( Y ) {\displaystyle Z\approx log(Y)}

E [ Y ] e μ Z + 1 2 σ Z 2 , Var [ Y ] e 2 μ Z + σ Z 2 ( e σ Z 2 1 ) {\displaystyle {\begin{aligned}&\operatorname {E} [Y]\approx e^{\mu _{Z}+{\tfrac {1}{2}}\sigma _{Z}^{2}},\\&\operatorname {Var} [Y]\approx e^{2\mu _{Z}+\sigma _{Z}^{2}}(e^{\sigma _{Z}^{2}}-1)\\\end{aligned}}}

и, таким образом, прямая подстановка (для константы ) дает ожидаемый результат, поскольку дисперсия суммы независимых переменных равна сумме дисперсий для каждой переменной. σ {\displaystyle \sigma } Var [ Y ] Var [ e Z ] = e σ 2 ( e σ 2 1 ) j = 1 n e 2 μ j {\displaystyle \operatorname {Var} [Y]\approx \operatorname {Var} [e^{Z}]=e^{\sigma ^{2}}(e^{\sigma ^{2}}-1)\textstyle \sum _{j=1}^{n}e^{2\mu _{j}}}

Поэтому я предлагаю заменить приближение другим логнормальным распределением Z на приближение нормальным распределением Z l o g ( Y ) {\displaystyle Z\approx log(Y)} .

Пожалуйста, дайте мне знать, если я ошибаюсь. Ссылки на Гао и Фентона и Уилкинсона также должны быть правильно процитированы. — Предыдущий неподписанный комментарий добавлен Raiontov (обсуждение • вклад ) 05:43, 15 ноября 2011 (UTC) [ ответить ]

Улучшение изображений

Графики нормального распределения в формате pdf и cdf очень красивые. Если бы логнормальные были изменены таким же образом (более толстые линии, сетка, ...), я думаю, статья была бы более читабельной. Jbbinder (обсуждение) 12:16, 18 июня 2012 (UTC) [ ответить ]

Путаница относительно местоположения и формы в таблице распределения вероятностей, строка параметров

В таблице справа написано:

Параметрыσ 2 > 0 — логарифмический масштаб,
µR — форма (действительная)

Конечно, использование "формы" должно быть ошибкой. Форма распределения определяется σ 2 , а местоположение определяется μ . Этот факт можно легко проверить, построив график нормализованной по своему максимальному значению функции . Кривые с изменяющимся μ будут совпадать. С другой стороны, изменение σ 2 изменит форму pdf. 1 x 2 π σ   e ( ln x μ ) 2 2 σ 2 {\displaystyle {\frac {1}{x{\sqrt {2\pi }}\sigma }}\ e^{-{\frac {\left(\ln x-\mu \right)^{2}}{2\sigma ^{2}}}}} x μ {\displaystyle {\frac {x}{\mu }}}

По моему мнению, было бы лучше, если бы запись в таблице гласила:

Параметрыσ 2 > 0 — логарифмический масштаб (форма),
µR — местоположение (реальное)

Комментарии? — Предыдущий неподписанный комментарий добавлен 193.11.28.112 (обсуждение) 13:33, 24 октября 2013 (UTC) [ ответить ]

Неправильная формула для параметра μ как функции среднего значения и дисперсии

Формула явно неверна (хотя она была правильно скопирована из приведенной ссылки).

Приведенная формула имеет вид: μ = ln ( m 2 v + m 2 ) {\displaystyle \mu =\ln \left({\frac {m^{2}}{\sqrt {v+m^{2}}}}\right)}

Но дробь внутри логарифма явно не «безразмерна», как и должно быть.

Я выполнил расчет самостоятельно и пришел к похожему (и согласованному по размерности) результату: G Furtado ( обсуждение ) 00:34, 1 декабря 2013 (UTC) [ ответ ] μ = ln ( m v + m 2 ) = 1 2 ln ( m 2 v + m 2 ) {\displaystyle \mu =\ln \left({\frac {m}{\sqrt {v+m^{2}}}}\right)={\frac {1}{2}}\ln \left({\frac {m^{2}}{v+m^{2}}}\right)}

Законы силы

Распределения по степенному закону очень похожи, но не идентичны логнормальным распределениям. Это упоминается в статье о степенном законе. Это также следует упомянуть здесь. — Предыдущий неподписанный комментарий добавлен 211.225.33.104 ( обсуждение ) 05:08, 11 июля 2014 (UTC) [ ответить ]

Здравствуйте, уважаемые википедисты!

Я только что добавил архивные ссылки на одну внешнюю ссылку на Log-normal distribution . Пожалуйста, уделите немного времени, чтобы просмотреть мои правки. Если необходимо, добавьте после ссылки, чтобы я не мог ее изменить. Или же вы можете добавить, чтобы вообще не допустить меня на страницу. Я внес следующие изменения:{{cbignore}}{{nobots|deny=InternetArchiveBot}}

  • Добавлен архив https://web.archive.org/20150509101241/http://wireless.per.nl/reference/chaptr03/shadow/shadow.htm в http://wireless.per.nl/reference/chaptr03/shadow/shadow.htm

Когда вы закончите просматривать мои изменения, пожалуйста, установите отмеченный параметр ниже на значение true, чтобы сообщить об этом другим.

Это сообщение было опубликовано до февраля 2018 года . После февраля 2018 года разделы страниц обсуждения "Внешние ссылки изменены" больше не генерируются и не отслеживаются InternetArchiveBot . Никаких специальных действий в отношении этих уведомлений страниц обсуждения не требуется, кроме регулярной проверки с использованием инструкций инструмента архивации ниже. Редакторы имеют право удалять эти разделы страниц обсуждения "Внешние ссылки изменены", если они хотят очистить страницы обсуждения от загромождения, но перед выполнением массовых систематических удалений ознакомьтесь с RfC . Это сообщение динамически обновляется через шаблон (последнее обновление: 5 июня 2024 г.) .{{source check}}

  • Если вы обнаружили URL-адреса, которые бот ошибочно посчитал неработающими, вы можете сообщить о них с помощью этого инструмента.
  • Если вы обнаружили ошибку в архивах или самих URL-адресах, вы можете исправить их с помощью этого инструмента.

Привет. — cyberbot II Поговорить с моим владельцем : Онлайн 10:23, 29 августа 2015 (UTC) [ ответить ]

Базовая неспецифическая энтропия неверна

По-видимому, была допущена ошибка при преобразовании энтропии для использования неспецифического для базы логарифма.

μ + 1 2 ln ( 2 π e σ 2 ) {\displaystyle \mu +{\frac {1}{2}}\ln(2\pi e\sigma ^{2})} дает, а не log ( σ e μ + 1 2 2 π ) {\displaystyle \log(\sigma e^{\mu +{\tfrac {1}{2}}}{\sqrt {2\pi }})} log ( 2 π σ 2 e μ + 1 2 ) {\displaystyle \log(2\pi \sigma ^{2}e^{\mu +{\tfrac {1}{2}}})}

Я сделал то же самое изменение на самой странице. — Предыдущий неподписанный комментарий добавлен 208.78.228.100 ( обсуждение ) 00:22, 23 февраля 2016 (UTC) [ ответить ]

Уточнение обозначений/группировок в формуле

Будет ли понятнее сгруппировать аргумент функции ``ln`` (натуральный логарифм) вместе, как это? В scipy.stats и многих учебниках есть параметр ``loc`` (местоположение), который эквивалентен среднему значению для симметричных распределений, но не для асимметричного логарифмически нормального распределения. Параметр ``loc`` должен быть включен в операцию натурального логарифма, но среднее значение не должно быть включено (только для логарифмически нормального распределения), как (ln(x - loc) - mu)^2. Поэтому явное указание группировки может помочь пониманию и сравнению с обозначениями в других текстах и ​​коде.

Логнормальный
PDF 1 x σ 2 π   e ( ln ( x ) μ ) 2 2 σ 2 {\displaystyle {\frac {1}{x\sigma {\sqrt {2\pi }}}}\ e^{-{\frac {\left(\ln \left(x\right)-\mu \right)^{2}}{2\sigma ^{2}}}}}
СДФ 1 2 + 1 2 e r f [ ln ( x ) μ 2 σ ] {\displaystyle {\frac {1}{2}}+{\frac {1}{2}}\,\mathrm {erf} {\Big [}{\frac {\ln \left(x\right)-\mu }{{\sqrt {2}}\sigma }}{\Big ]}}

Hobsonlane ( обсуждение ) 17:23, 18 апреля 2016 (UTC) [ ответ ]

График, поясняющий связь между нормальным и логнормальным распределением

Предложение использовать следующий график на странице о логнормальном распределении:

Связь между нормальным и логнормальным распределением. Если распределено нормально, то распределено логнормально. Y {\displaystyle Y} X e Y {\displaystyle X\sim e^{Y}}

— Предыдущий неподписанный комментарий добавлен StijnDeVuyst ( обсуждениевклад ) 14:15, 2 декабря 2016 (UTC) [ ответить ]

Я думаю, что этот график имеет опечатку в логарифмически нормальном распределении, разве `X ~ lnN(mu, s^2)` не должно означать `lnX ~ N(mu, s^2)` ? Kornel.jk (обсуждение) 08:27, 8 апреля 2024 (UTC) [ ответить ]

Цитаты по нейронауке

Пользователь:Isambard Kingdom , не могли бы вы поделиться своими мыслями о недавнем возвращении ссылок на нейронауку? Пользователь:Rune2earth, не могли бы вы поделиться своими мыслями о предоставлении этих ссылок? 𝕃eegrc ( talk ) 15:49, 6 января 2017 (UTC) [ ответить ]

Самоцитирование "Rune". Isambard Kingdom ( обсуждение ) 15:51, 6 января 2017 (UTC) [ ответить ]
Может быть, так и есть для цитирования eLife . Однако цитирования Cell Reports и Nature Reviews, похоже, не являются самоцитированием и находятся в уважаемых журналах. Я не знаю о Progress in Neurobiology .
  • Mizuseki, Kenji; Buzsáki, György (2013-09-12). «Предварительно настроенное, асимметричное распределение частоты срабатывания в гиппокампе и энторинальной коре». Cell Reports . 4 (5): 1010–1021. doi :10.1016/j.celrep.2013.07.039. ISSN  2211-1247. PMC  3804159 . PMID  23994479.
  • Петерсен, Питер К.; Берг, Руне В. (2016-10-26). «Логнормальное распределение частоты импульсации выявляет выраженный режим, управляемый колебаниями, в спинальных двигательных сетях». eLife . 5 : e18805. doi :10.7554/eLife.18805. ISSN  2050-084X. PMC  5135395 . PMID  27782883.{{cite journal}}: CS1 maint: unflagged free DOI (link)
  • Бужаки, Дьёрдь; Мизусеки, Кэндзи (2017-01-06). «Лог-динамический мозг: как перекошенные распределения влияют на сетевые операции». Обзоры Nature. Neuroscience . 15 (4): 264–278. doi :10.1038/nrn3687. ISSN  1471-003X. PMC  4051294 . PMID  24569488.
  • Wohrer, Adrien; Humphries, Mark D.; Machens, Christian K. (2013-04-01). «Распределение нейронной активности в популяции во время принятия перцептивных решений». Progress in Neurobiology . 103 : 156–193. doi :10.1016/j.pneurobio.2012.09.004. ISSN  1873-5118. PMID  23123501.
𝕃eegrc ( обсуждение ) 17:22, 6 января 2017 (UTC) [ ответить ]

Я заменил их, но убрал «Руну». Isambard Kingdom ( обсуждение ) 18:02, 6 января 2017 (UTC) [ ответить ]

Графики вводят в заблуждение из-за грубой выборки

Кривая sigma=1,mu=0 на графике PDF вводит в заблуждение, поскольку выглядит так, будто PDF линейна в окрестности x=0. Я думаю, это потому, что она была построена с использованием слишком малого количества точек выборки. Тот факт, что PDF так мала вблизи нуля, важен в приложениях, поэтому график не должен это скрывать. — Предыдущий комментарий без знака добавлен 77.88.71.157 (обсуждение) 10:13, 9 февраля 2017 (UTC) [ ответить ]

Плотность

Способ, которым статья выводит плотность, непонятен и, похоже, использует какие-то магические трюки. Правильный способ следующий:

Согласно определению случайная величина распределена логнормально, если распределена нормально. Следовательно, для логнормально распределенной: X {\displaystyle X} ln ( X ) {\displaystyle \ln(X)} X {\displaystyle X}

P ( ln ( X ) z ) = Φ ( z μ σ ) {\displaystyle P(\ln(X)\leq z)=\Phi \left({\frac {z-\mu }{\sigma }}\right)}

что приводит к:

P ( X e z ) = Φ ( z μ σ ) {\displaystyle P(X\leq e^{z})=\Phi \left({\frac {z-\mu }{\sigma }}\right)}

Функция распределения имеет вид: X {\displaystyle X}

P ( X x ) = Φ ( ln ( x ) μ σ ) {\displaystyle P(X\leq x)=\Phi \left({\frac {\ln(x)-\mu }{\sigma }}\right)}

и плотность

f X ( x ) = d d x Φ ( ln ( x ) μ σ ) = φ ( ln ( x ) μ σ ) 1 σ d d x ln ( x ) = {\displaystyle f_{X}(x)={\frac {\rm {d}}{{\rm {d}}x}}\Phi \left({\frac {\ln(x)-\mu }{\sigma }}\right)=\varphi \left({\frac {\ln(x)-\mu }{\sigma }}\right){\frac {1}{\sigma }}{\frac {\rm {d}}{{\rm {d}}x}}\ln(x)=}
= 1 x σ 2 π exp ( ( ln ( x ) μ ) 2 2 σ 2 ) {\displaystyle ={\frac {1}{x\sigma {\sqrt {2\pi }}}}\exp \left(-{\frac {(\ln(x)-\mu )^{2}}{2\sigma ^{2}}}\right)}

Я изменю его. Madyno ( обсуждение ) 08:25, 10 мая 2017 (UTC) [ ответить ]

Я изменил его обратно. Хотя ваша версия верна, формулировка, которая у нас была раньше без терминов, которые не являются общепринятыми, должна быть показана. Rlendog ( talk ) 16:18, 8 мая 2017 (UTC) [ ответить ]

Проблема в том, что эта формулировка НЕверна. Я любезно назвал ее непонятной, но лучше бы ее назвали бессмыслицей. Я не знаю, кто ее написал, но этот человек может иметь некоторое представление о математике, но у него нет знаний о теории вероятностей. В качестве примера я привожу вам первое предложение раздела:

Случайная положительная величина распределена логарифмически нормально, если логарифм распределен нормально, x {\displaystyle x} x {\displaystyle x}

N ( ln x ; μ , σ ) = 1 σ 2 π exp [ ( ln x μ ) 2 2 σ 2 ] . {\displaystyle {\mathcal {N}}(\ln x;\mu ,\sigma )={\frac {1}{\sigma {\sqrt {2\pi }}}}\exp \left[-{\frac {(\ln x-\mu )^{2}}{2\sigma ^{2}}}\right].}

Я не думаю, что это общепринятое употребление говорить о «случайной положительной величине», и это не общепринятое употребление использовать маленькую букву для rv, хотя это не преступление, но это полная ошибка использовать ту же букву для действительного числа в формуле плотности и рассматривать его как rv. С этого момента ничего хорошего сделать больше нельзя. Надеюсь, у вас достаточно знаний по предмету, чтобы понять, что я говорю. Madyno ( talk ) 09:54, 9 мая 2017 (UTC) [ ответить ] x {\displaystyle x} x {\displaystyle x}

Кстати, я еще раз проверил статью Кумулятивная функция распределения , и обозначения, которые я использовал, полностью соответствуют этой статье. Использование и для pdf и cdf стандартного нормального распределения взято прямо из статьи по этой теме. Madyno ( talk ) 17:53, 9 мая 2017 (UTC) [ ответить ] φ {\displaystyle \varphi } Φ {\displaystyle \Phi }

Я думаю, что версия "Madyno" лучше. Использование для обозначения нормальной плотности не является стандартным, а метод Madyno более элементарный, прямой и самодостаточный, и выражается на более стандартном языке. Более того, это гротескно неправильно сначала использовать строчную букву x для обозначения случайной величины, а затем в следующей строке называть ее заглавной X, не говоря ни слова о необъяснимом изменении в обозначениях. Как же тогда мы поймем выражение типа N {\displaystyle {\mathcal {N}}}
d d x Pr ( X x ) {\displaystyle {\frac {d}{dx}}\Pr(X\leq x)}
в котором заглавная буква X и строчная буква x явно относятся к двум разным вещам? Когда вы пишете
f X ( x ) = d d x Pr ( X x ) , {\displaystyle f_{X}(x)={\frac {d}{dx}}\Pr(X\leq x),}
с маленькой буквой x в ƒ X ( x ), используемой в качестве аргумента, и заглавной X в нижнем индексе, тогда вы можете сказать, что подразумевается под ƒ X (3) и ƒ Y (3) . Майкл Харди ( обсуждение ) 20:04, 10 мая 2017 (UTC) [ ответить ]
Теперь я доволен изменениями. Спасибо. Rlendog ( обсуждение ) 21:04, 10 мая 2017 (UTC) [ ответить ]

Местоположение и масштаб

Мне кажется странным называть μ и σ соответственно параметрами местоположения и масштаба. Они функционируют как таковые в базовом нормальном распределении, но не в производном логнормальном распределении. Madyno ( talk ) 20:37, 9 мая 2017 (UTC) [ ответить ]

Я вычеркнул все утверждения о том, что это параметры местоположения и масштаба для этого семейства распределений. Это гораздо хуже, чем «нечетные». Майкл Харди ( обсуждение ) 20:49, 10 мая 2017 (UTC) [ ответить ]

"\ln\mathcal N" ?

В этой статье я нашел обозначение

ln N {\displaystyle \ln {\mathcal {N}}\,}

по-видимому, используется для обозначения логнормальной функции плотности, и ранее я нашел (и избавился) от использования для нормальной плотности. Если это нормальная плотность, то следует обозначать логарифм нормальной плотности, а не плотность логнормальной. Майкл Харди ( обсуждение ) 21:01, 10 мая 2017 (UTC) [ ответить ] N {\displaystyle {\mathcal {N}}} N {\displaystyle {\mathcal {N}}} log N {\displaystyle \log {\mathcal {N}}}

"местоположение и масштаб"

Утверждение, что μ и σ являются параметрами местоположения и масштаба для семейства логнормальных распределений, просто ужасно. Майкл Харди ( обсуждение ) 21:06, 10 мая 2017 (UTC) [ ответить ]

Я добавил в статью утверждение, что e μ является параметром масштаба для логнормального семейства распределений. Майкл Харди ( обсуждение ) 21:36, 10 мая 2017 (UTC) [ ответить ]

Размеры

Если это размерная случайная величина (т.е. она имеет физические единицы, как во многих примерах), то каковы единицы величин, как и ее среднее значение ? Мы можем взять логарифм 1,85, но как нам взять логарифм 1,85 метра?Fathead99 (обсуждение) 14:48, 24 июля 2017 (UTC) [ ответить ] X {\displaystyle X} log X {\displaystyle \log X} μ {\displaystyle \mu }

Мы не берем логарифм такой величины. Обычно логарифм берется из безразмерного отношения самой величины и некоторого опорного значения. Madyno ( talk ) 20:40, 26 июля 2017 (UTC) [ ответить ]

Графики PDF и CDF сбивают с толку

Цвета и стандартные отклонения на графиках не совпадают, что может сбить с толку случайного читателя — Предыдущий неподписанный комментарий добавлен Mwharton3 (обсуждение • вклад ) 21:21, 22 августа 2018 (UTC) [ ответить ]

Я подобрала цвета и теперь оцениваю график в большем количестве точек. Я думаю, что эти графики лучше предыдущих. Если вы заметите какие-либо другие недостатки графиков, пожалуйста, напишите мне. Вероятно, мне будет быстрее что-то изменить, поскольку теперь у меня есть код для создания графиков. Xenonoxid ( обсуждение ) 00:48, 28 января 2022 (UTC) [ ответить ]

Геометрическое среднее

Может ли кто-нибудь объяснить, что такое геометрическое среднее случайной величины? Madyno ( talk ) 22:26, ​​25 января 2019 (UTC) [ ответить ]

https://en.wikipedia.org/wiki/Geometric_mean Это антилогарифм среднего логарифма значений случайной величины. 207.47.175.199 ( обсуждение ) 17:41, 2 июня 2022 (UTC) [ ответ ]

отчет об ошибке распределения лог-Леви

Раздел «Встреча и приложения» содержит вводящую в заблуждение ссылку. В частности, «log-Lévy distributions» ссылается на https://en.wikipedia.org/wiki/L%C3%A9vy_skew_alpha-stable_distribution, URL-адрес, который перенаправляет на https://en.wikipedia.org/wiki/Stable_distribution, страницу, на которой нет аннотации «Перенаправлено с log-Lévy distributions» вверху. Теперь, в соответствии с перенаправленным URL-адресом, страница Stable distribution содержит аннотацию «(Перенаправлено с Lévy skew alpha-stable distribution)». Но страница Stable distribution на самом деле вообще ничего не говорит о «Lévy skew» и, если уж на то пошло, вообще ничего о «log-Lévy». Просто полный, абсолютный разрыв. Заметки на странице ( обсуждение ) 16:13, 12 марта 2019 (UTC) [ ответить ]

Действительно ли это распределение максимальной энтропии?

В конце введения статьи в настоящее время говорится: «Логнормальное распределение — это распределение вероятности максимальной энтропии для случайной величины X , для которой указаны среднее значение и дисперсия ln( X )».

Мы уверены, что это правильно? Я попытался заглянуть в источник, и там, похоже, вообще едва ли упоминается логнормальное распределение, не говоря уже о том, чтобы утверждать, что логнормальное распределение является распределением вероятности максимальной энтропии для любой случайной величины, для которой определены среднее значение и дисперсия ln переменной.

Я не тратил много времени на изучение этого вопроса, так что извините, если я что-то упустил. SanjayRedScarf (обс.) 23:00, 18 февраля 2023 (UTC) [ ответить ]

Изменения параметров местоположения

Кто-то меняет параметр местоположения , который таков , что он просто ошибочен. Пожалуйста, кто-нибудь просмотрите и заблокируйте IP пользователя. 45.181.122.234 ( обсуждение ) 02:50, 27 ноября 2023 (UTC) [ ответить ] μ {\displaystyle \mu } μ ( ,   + ) {\displaystyle \mu \in (-\infty ,\ +\infty )} μ > 0 {\displaystyle \mu >0}

Среднее значение графика PDF

График в формате PDF в правом верхнем углу показывает, что среднее значение каждого распределения = 0. Визуально кажется, что среднее значение каждого распределения = 1. Drewscottt (обсуждение) 01:46, 20 марта 2024 (UTC) [ ответить ]

Retrieved from "https://en.wikipedia.org/w/index.php?title=Talk:Log-normal_distribution&oldid=1217857587"