Эта статья находится в рамках WikiProject Statistics , совместных усилий по улучшению охвата статистики в Википедии. Если вы хотите принять участие, посетите страницу проекта, где вы можете присоединиться к обсуждению и увидеть список открытых задач.Статистика Wikipedia:WikiProject Статистика Шаблон:WikiProject Статистика Статистика
This article is within the scope of WikiProject Philosophy, a collaborative effort to improve the coverage of content related to philosophy on Wikipedia. If you would like to support the project, please visit the project page, where you can get more details on how you can help, and where you can join the general discussion about philosophy content on Wikipedia.PhilosophyWikipedia:WikiProject PhilosophyTemplate:WikiProject PhilosophyPhilosophy
This article is within the scope of WikiProject Mathematics, a collaborative effort to improve the coverage of mathematics on Wikipedia. If you would like to participate, please visit the project page, where you can join the discussion and see a list of open tasks.MathematicsWikipedia:WikiProject MathematicsTemplate:WikiProject Mathematicsmathematics
Задание на курс, спонсируемое Wiki Education Foundation
Эта статья была предметом задания курса, спонсируемого Wiki Education Foundation, с 27 августа 2021 г. по 19 декабря 2021 г. Более подробная информация доступна на странице курса . Редактор(ы) студентов: 5740 Grant L. Рецензенты: EyeOfTheUniverse , Leolsz , Jimyzhu .
Я вычеркнул предложение о деревьях решений. Определенно нет смысла, в котором условные вероятностные вычисления обычно проще с деревьями решений. Деревья решений действительно можно интерпретировать как условные вероятностные модели (или нет), но в любом случае они являются очень, очень малой частью мира условной вероятности, и делать необоснованные утверждения о второстепенной теме неуместно. Wile E. Heresiarch 17:13, 1 февраля 2004 (UTC)
Неправильный?
Условная вероятность — это вероятность некоторого события A при условии, что некоторое другое событие B уже произошло.
...
Обратите внимание, что в этих определениях не обязательно должна быть причинно-следственная или временная связь между А и В. А может предшествовать В или наоборот, или они могут происходить одновременно.
Это утверждение совершенно сбивает с толку — если событие B уже произошло, то должна быть временная связь между A и B (т.е. B происходит до A). — Абдулл 12:50, 25 февраля 2006 (UTC) [ ответить ]
Я перефразировал. -- Zundark 14:32, 25 февраля 2006 (UTC) [ ответить ]
Поскольку тема статьи полностью формальна, мне не нравятся ссылки на время, выражения типа «временное отношение» или одно событие «предшествует» другому, потому что я нахожу их неформальными в этом контексте. В рамках вероятностного пространства, где мы работаем, время формально не вводится: в какое «время» происходит событие ? Фактически, когда мы специально хотим представить или смоделировать, как наши знания о мире (представленные случайными величинами) растут с течением времени, мы можем сделать это с помощью фильтраций . И я чувствую, что то же самое касается «причинной связи», в статье такое понятие формально не определено.-- zeycus 15:22, 23 февраля 2007 (UTC) [ ответить ]
Цель этого параграфа — развеять распространенное заблуждение, что условная вероятность как-то связана с временными отношениями или причинностью. Параграф по необходимости неформальный, поскольку в пространстве вероятностей даже нет таких понятий. (Кстати, вопреки вашему предложению на моей странице обсуждения, этот параграф был добавлен Wile E. Heresiarch 10 февраля 2004 года. Перефразировка, о которой я упоминал выше, не коснулась этого параграфа, она просто удалила неверные предположения о временных отношениях в других местах статьи. Все это можно увидеть в истории правок.) -- Zundark 08:36, 24 февраля 2007 (UTC) [ ответить ]
Прошу прощения за то, что приписываю вам этот абзац. Я понимаю, что вы имеете в виду, но я думаю, что важно разделять формальные понятия от неформальных. Поэтому я добавлю короткий комментарий после этого. -- zeycus 9:42, 24 февраля 2007 (UTC)
Неопределенный или неопределенный?
В разделе «Другие соображения» утверждение Если , то остается неопределенным. кажется неверным. Не правильнее ли сказать, что является неопределенным?
невзирая на .
Боб Бадур 04:36, 11 июня 2006 (UTC) [ ответить ]
Это не определено. Если вы считаете, что это не неопределено, то каково, по-вашему, его определение? -- Zundark 08:54, 11 июня 2006 (UTC) [ ответить ]
Неопределенный, как я уже сказал, определение которого можно перефразировать как неисчислимый или неизвестный. Однако неопределенная форма может быть неопределенной, и в литературе существует консенсус называть условный неопределенный в вышеупомянутом случае. Вероятно, есть причины считать его неопределенным, о которых я не знаю, и изменение текста в статье было бы ИЛИ. Спасибо за ваши комментарии, и я извиняюсь за то, что отнял у вас время. -- Боб Бадур 00:07, 12 июня 2006 (UTC) [ ответить ]
Что-то в этом меня беспокоит. Предположим, что является нормальным стандартом. Я рассматриваю и , например. Очевидно , . Однако я чувствую, что должно быть определено, и фактически равно где — функция плотности . Чтобы неформально обосновать это, я бы определил и для любого . Тогда, если я не ошибаюсь, .
Предположим, кто-то говорит мне, что число было получено из обычной стандартной переменной, что это 0 или 5, и что у меня есть шанс сделать ставку на двойное ноль, пытаясь угадать, какое из них это было. Не следует ли мне сделать ставку на 0? И как я могу это аргументировать, если не с помощью приведенных выше расчетов? Мнения приветствуются. Что вы думаете? -- zeycus 18:36, 22 февраля 2007 (UTC) [ ответить ]
Я думаю, вы абсолютно правы. Однако теория, необходимая для получения этого, намного сложнее, чем теория, необходимая для понимания условной вероятности как таковой. Должна ли статья четко указать с самого начала, что мы имеем дело только с дискретными распределениями, а затем, возможно, иметь последний раздел, посвященный обобщению на непрерывные распределения?-- Niels Ø (noe) 19:33, 22 февраля 2007 (UTC) [ ответить ]
Это уже справедливо для непрерывных распределений, по крайней мере, теперь, когда я очистил раздел определений. Обычно не определяют P ( A | B ), когда P ( B ) = 0, но если кто-то сможет найти достойную ссылку на это, то, возможно, стоит добавить это в статью. -- Zundark 11:25, 24 февраля 2007 (UTC) [ ответить ]
Я не смог найти ни одного источника, определяющего, когда . Я написал на математическом форуме, и после интересного обсуждения кто-то привел хороший аргумент (немного длинный, чтобы копировать его здесь), оправдывающий, почему это не имеет смысла. Я считаю, что вопрос прояснился. -- zeycus 15:30, 28 февраля 2007 (UTC) [ ответить ]
Боюсь, эти комментарии почти полностью неверны. Вполне возможно обусловить события с вероятностью ноль, и это на самом деле распространено. Рассмотрим подбрасывание монеты. Если кто-то не знает, честная монета или нет, в байесовском мире он назначает распределение вероятностей параметру p, представляющему вероятность выпадения орла. Это распределение отражает степень веры в честность монеты. В случае, если это распределение непрерывно, совершенно разумно обусловить событие, что , даже если это событие имеет вероятность ноль. Для строгого определения этих условных вероятностей требуется теория меры, и этот подход согласуется с наивной интерпретацией, данной в курсах первого уровня. Хорошей ссылкой является Basic Stochastic Processes Заставняка и Бжезняка. PoochieR 21:45, 6 ноября 2007 (UTC) [ ответить ]
Повторяю то, что было сказано выше: следует ли в статье с самого начала четко указать, что мы имеем дело только с дискретными распределениями, а затем, возможно, включить последний раздел, посвященный обобщению на непрерывные распределения? -- Нильс О (noe) 12:31, 7 ноября 2007 (UTC) [ ответить ]
Нет, потому что мы имеем дело не только с дискретными распределениями. -- Zundark 12:39, 7 ноября 2007 (UTC) [ ответить ]
Некоторые из наиболее важных современных применений условной вероятности находятся в теории Мартингейла, с прямыми практическими приложениями во всех областях математических финансов. С ними просто невозможно иметь дело без обусловливания событий с вероятностью нуль, поэтому я думаю, что важно, чтобы вы их включили. Обходной путь — прояснить, что данное вами определение является наивным определением, которое работает только для обусловливания событий с вероятностью > 0; однако, чтобы дать определение, которое работает для обусловливания любого события, требуется использование теории меры. Определение теории меры согласуется с наивным определением там, где это применимо. Естественный способ выразить формулировку теории меры — в терминах условных ожиданий, обусловленных сигма-алгебрами событий; в этой формулировке , где — индикаторная случайная величина события A. Лучшая ссылка, чем та, что я привел ранее: Вероятность с Мартингейлами, Дэвид Уильямс, Гл. 9. PoochieR 09:41, 8 ноября 2007 (UTC) [ ответить ]
Я с радостью отредактирую ваше определение относительно когда, но вы не можете оставить его таким, какой он есть. Правильное определение, чтобы сделать дискретный случай соответствующим более общему случаю, — это определить когда . Тогда нет никаких проблем с наивной интерпретацией, и выгода от согласия с более сложным подходом. Во многом это похоже на дебаты, которые раньше велись относительно . PoochieR 18:16, 15 ноября 2007 (UTC) [ ответить ]
Не хочу показаться слишком грубым, PoochieR, но всякий раз, когда отсутствует очевидный случай: мы явно хотим ! Не забывайте, что предельное распределение, тем не менее, предназначено для распределения. ub3rm4th ( talk ) 10:10, 14 декабря 2008 (UTC) [ ответить ]
Это общая энциклопедия. Я думаю, что важно написать читаемую и доступную статью, насколько это возможно, и что касается представления, я думаю, что мы делаем это лучше всего, ограничиваясь дискретными ситуациями. Чисто непрерывные случаи (требующие интегралов и т.п.) и смешанные случаи (требующие теории меры) могут быть рассмотрены
далее в статье,
в отдельных статьях,
или путем ссылки на внешние источники, такие как MathWorld.
Знаки модуля в разделе «Определение» предназначены для указания мощности соответствующих множеств? Из текущего содержания страницы это не ясно. Я думаю, что основа теории множеств для вероятности немного сложна, поэтому, возможно, в этом разделе можно дать больше объяснений?
Я полностью согласен.-- Нильс Ø (noe) 14:13, 29 января 2007 (UTC) [ ответить ]
Я могу ошибаться, но мне кажется, что определение не просто неудачное, а просто неверное. Рассмотрим, например, вероятностное пространство с , множеством событий и вероятностей , , и . Пусть и . Тогда . Однако, . -- zeycus 4:46, 24 февраля 2007 (UTC)
В тексте говорится об элементах, случайно выбранных из набора. Автор явно подразумевает симметрию.-- Niels Ø (noe) 08:29, 24 февраля 2007 (UTC) [ ответить ]
Да, вы абсолютно правы. Но тогда зачем определять условную вероятность только в этом частном случае, когда она имеет смысл и обычно определяется для любого вероятностного пространства той же формулой . -- zeycus 8:43, 24 февраля 2007 (UTC)
Согласен, это слабый раздел в статье; не нужно гадать о намерениях автора. В любом случае, я думаю, что идея заключается в обобщении довольно очевидной ситуации с симметрией до общих формул. Конечно, такого рода рассуждения на самом деле не относятся к разделу «Определение». Продолжайте; попробуйте свои силы!-- Niels Ø (noe) 10:07, 24 февраля 2007 (UTC) [ ответить ]
Я восстановил правильное определение. -- Zundark 11:06, 24 февраля 2007 (UTC) [ ответить ]
Действительно для непрерывных распределений?
Два события A и B являются взаимоисключающими тогда и только тогда, когда P(A∩B) = 0 ...
Пусть X — непрерывная случайная величина, например, нормально распределенная со средним значением 0 и стандартным отклонением 1. Пусть A — событие, что X >= 0, а B — событие, что X <= 0. Тогда A∩B — это событие X=0, вероятность которого равна 0, но которое не невозможно. Я не думаю, что A и B следует называть исключающими в этом случае. Поэтому либо следует прояснить контекст утверждения из статьи, которую я цитирую выше ( Для дискретных распределений, ...), либо следует изменить само утверждение.
Будет ли во всех случаях правильным сказать, что A и B являются исключающими, если и только если A∩B = Ø ? Предположим, что U={0,1,2,3,4,5,6}, P(X=0)=0 и P(X=x)=1/6 для x=1,2,3,4,5,6 (т.е. глупая, но не неправильная модель игральной кости ) . Являются ли A={X even}={0,2,4,6} и B={X<2}={0,1} взаимоисключающими или нет?-- Niels Ø (noe) 14:13, 29 января 2007 (UTC) [ ответить ]
Интересно, верно ли это определение. В статье mutually exceptions n событий определяются как исключительные , если наступление любого из них автоматически подразумевает ненаступление оставшихся n − 1 событий . Очень похоже, в mathworld :
События называются взаимоисключающими, если наступление любого из них исключает наступление любого из других.
Как сказал Нильс, это на самом деле сильнее, чем сказать . Почему-то я думаю, что определение в статье должно быть обозначено как "почти взаимоисключающее". Разве мы не должны просто сказать, что и являются взаимоисключающими, только если , и избежать всей этой суеты?-- Пользователь:Zeycus 10:03, 20 марта 2007 (UTC) [ ответить ]
Никакого ответа за три недели. Через несколько дней, если никто не скажет, я изменю определение в статье.-- Пользователь:Zeycus 14:03, 9 апреля 2007 (UTC) [ ответить ]
Спасибо за вашу прекрасную работу. Однако, было бы полезно большему количеству людей, если бы вы дали определение вашей математической нотации, например, http://upload.wikimedia.org/math/6/d/e/6de3a4670340b7be5303b63574cb3113.png
Пример?
Вот пример с условными вероятностями, который имеет смысл для меня, а также, как правило, для студентов, которым я преподаю этот материал. Он ясно показывает разницу между P(A|B) и P(B|A).
Поскольку пример уже есть в статье, нет необходимости повторять его здесь. -- Нильс Ø (noe) ( talk ) 11:28, 16 декабря 2007 (UTC) [ ответить ]
Вот мой пример. Вам нравится? Стоит ли мне включить его в статью? Может быть, вы поможете мне сначала его улучшить? -- Niels Ø (noe) 11:48, 13 февраля 2007 (UTC) [ ответить ]
Никаких ответов в течение 10 дней. Я не знаю, как это интерпретировать, но теперь я наберусь смелости и добавлю свой пример к статье.-- Niels Ø (noe) 09:25, 23 февраля 2007 (UTC) [ ответить ]
Предложения по улучшению:
* Немного сбивает с толку тот факт, что вероятность наличия заболевания и вероятность ложноположительного результата ОБЕ равны 1%. Было бы лучше, если бы одна из них была разной, скажем, 10%.
* Я думаю, что некоторые люди (включая меня) лучше видят вещи графически. Вы можете представить ту же проблему (используя ваши исходные числа) как квадрат 1,0 x 1,0, с одним краем, разделенным на 0,99 и 0,01, и другим краем, разделенным на 0,99 и 0,01. Теперь у вас есть один большой прямоугольник (0,99 x 0,99), который представляет тех, кто дал отрицательный результат и является отрицательным, и маленький прямоугольник (0,01 x 0,01), который представляет тех, кто дал отрицательный результат, но является положительным. Оставшиеся два высоких и узких прямоугольника (0,99 x 0,01) и (0,99 x 0,01) представляют тех, кто дал положительный результат. Один из этих узких прямоугольников представляет положительный результат и положительный результат, другой представляет отрицательный результат и положительный результат. Они примерно одинакового размера, так что это даст вам половину ложноположительного уровня. Я думаю, что было бы полезно разбить прямоугольники, преувеличить размер частей по 0,01 и четко обозначить их.
Я согласен с Клемвангом, что диаграмма сделала бы объяснение более наглядным. Jfischoff ( обсуждение ) 01:03, 5 августа 2009 (UTC) [ ответ ]
Итак, мой пример находится в статье уже около полугода. В моем тексте есть некоторые недостатки — например, то, как уравнения вставлены в предложения, что грамматически неверно. Я надеялся, что кто-то с лучшим знанием английского языка, чем я, исправит это, но ничего не произошло. Интересно, кто-нибудь вообще прочитал этот пример?
Ответы Clemwang: Я не думаю, что наличие всех трех вероятностей, равных 1%, является действительно проблемой. Конечно, не делая пример менее реалистичным, можно было бы сделать их 1%, 2% и 3%, скажем. - Мне нравится тип диаграммы, которую вы предлагаете; по моему опыту, они хороши для понимания такого типа ситуаций, но (что удивительно для меня) древовидные диаграммы более полезны для решения задач (т. е. меньше студентов портят вещи таким образом). В этом конкретном примере графическая проблема сравнения 1% с 99% является серьезной; лучшим решением на самом деле было бы, если бы кто-то мог придумать осмысленный пример, чтобы заменить мой, где три вероятности равны 10%, 20% и 30%, скажем. -- Niels Ø (noe) 11:23, 17 сентября 2007 (UTC) [ ответить ]
Это только мне кажется или в примере статьи, где указан окончательный результат ложных срабатываний 0,5%, опечатка? Разве не должно быть 50%, как указано на этой странице? 146.244.153.149 22:22, 29 сентября 2007 (UTC) [ ответить ]
Я не уверен, что вы имеете в виду. В одном месте говорится: "0,99% / 1,98% = 50%". Читая "%" как "умножить на 0,01", вы получаете 0,0099 / 0,0198 = 0,50, что верно.-- Niels Ø (noe) 06:53, 2 октября 2007 (UTC) [ ответить ]
Комментарий к (довольно хорошему!) примеру, который сейчас в статье: удалите предложение «С выбранными здесь числами последний результат, скорее всего, будет считаться неприемлемым: половина людей с положительным результатом теста на самом деле ложноположительны». Это вводит в заблуждение и делает пример более загадочным, чем он есть. Причина, по которой вероятность отсутствия заболевания при положительном результате теста так велика, заключается в том, что болезнь *настолько* редка... Обществу в целом наносится очень небольшой вред, только небольшому проценту тех, у кого положительный результат теста. Это мелочь, но для увеличения эффекта «вау»-фактора примера, я думаю, что часть его простоты скрывается. Если в течение 10 дней (сегодня 14 июля 2009 г.) не будет комментариев, я удалю предложение. —Предыдущий неподписанный комментарий добавлен 76.169.198.27 (обсуждение) 07:45, 14 июля 2009 (UTC) [ ответить ]
Я рад, что вам понравился пример (я его придумал!). Я думаю, что это предложение служит определенной цели: помочь читателю разобраться в примере и полностью понять разницу между A|B и B|A. В качестве альтернативы, цифры можно немного подправить, чтобы сделать ложные срабатывания более приемлемыми, но я думаю, что лучше оставить как есть. -- Noe ( talk ) 09:04, 14 июля 2009 (UTC) [ ответить ]
Улучшение раздела «Независимость»
Кто-то должен расширить обсуждение независимости до n терминов. Например, три события E, F, G независимы тогда и только тогда:
П(ЕФГ)=П(Э)П(Ф)П(Г),
П(ЭФ)=П(Э)П(Ф)
П(ЭГ)=П(Э)П(Г)
П(ЗФ)=П(Г)П(Ф)
И так далее. Устно, каждая комбинация k (как в n выбирает k) из n событий (k=2,3,...,n), должна быть независимой, чтобы ВСЕ они были независимы друг от друга. Большинство учебников, которые я видел, включают определения независимости для более чем двух событий.
—Предыдущий неподписанный комментарий был добавлен 171.66.41.25 (обсуждение • вклад ).
В этой статье независимость рассматривается только в той мере, в какой она относится к условной вероятности. Общий случай рассматривается в статье о статистической независимости . -- Zundark 21:27, 20 июля 2007 (UTC) [ ответить ]
Рейтинг класса WikiProject
Эта статья была автоматически оценена, поскольку по крайней мере один WikiProject оценил ее как начальную, а рейтинг других проектов был поднят до начального класса. BetacommandBot 03:52, 10 ноября 2007 (UTC) [ ответить ]
P(A | B,C) и т.д.
Статья полностью посвящена условной вероятности A при условии B. А как насчет вероятности A при условии B И C? (Плюс расширения на большее количество переменных.)
Возможно, ответ очевиден для людей, разбирающихся в предмете, но для невежды, имеющего всего три степени по математике, который тем не менее считает теорию вероятностей самой противоречащей интуиции математикой, которую он когда-либо изучал, он ясен как грязь.
A, B и C будут «событиями». Событие — это любое подмножество «пространства выборки» U, т. е. множество всех возможных результатов. То, что вы называете P(A|B,C) или P(A|B и C), будет , т. е. вероятностью A при условии, что событие произошло. Здесь — пересечение B и C, т. е. событие, которое произойдет, если B и C произойдут одновременно. Запутались? Попробуйте прочитать это еще раз, имея в виду следующие события игры в кости:
У={1,2,3,4,5,6}
A={X четное}={2,4,6}
В={X>3}={4,5,6}
С={Х<6}={1,2,3,4,5}
={4,5}
={4}
Затем, .
Поскольку это равно P(A), в этом случае A оказывается независимым от .
Это помогло?-- Noe ( обсуждение ) 20:01, 1 февраля 2008 (UTC) [ ответить ]
Ну, частично, но я надеялся на формулу в терминах условных и предельных вероятностей. Более того, я думаю, что привнесение сюда времени запутывает вопрос. Например, предположим, что A = "Сегодня идет дождь", B = "Вчера шел дождь", C = "Позавчера шел дождь". Очевидно, что события, описанные в B и C, не могут произойти "одновременно" ни в каком смысле, хотя оба предложения B и C могут быть истинными. Тогда P(A|B,C) означает "вероятность того, что сегодня идет дождь, зная, что в предыдущие два дня шел дождь". Хорошо, предположим, что я знаю P(A), вероятность дождя в любой отдельный день; P(A) = P(B) = P(C), потому что метки дней произвольны. Предположим, что я также знаю P(A|B), вероятность дождя в один день, учитывая дождь в предыдущий день; P(A|B) = P(B|C) по тому же аргументу. Как мне вычислить P(A|B,C) с точки зрения этих вероятностей (и, возможно, других)?
Вам необходимо указать что-то вроде вероятности того, что дождь будет идти три дня подряд — P(A,B,C|I); или, в качестве альтернативы, вероятности того, что дождь будет идти и на следующий день, и накануне дождливого дня — P(A,C|B).
Дает ли C вам больше информации об A, чем вы уже имеете через B? Может, дает, может, нет. Это зависит от данных или физической интуиции, на основе которых вы оцениваете свои вероятности. Jheald ( talk ) 12:35, 11 марта 2008 (UTC) [ ответить ]
Кстати, обозначение, используемое здесь (пересечение), применимо к множествам. При работе с логическими предложениями, такими как приведенные выше, более уместно использовать обозначение конъюнкции: . Однако в большинстве публикаций вместо этого используется обозначение с запятой. Также Pr(.) в настоящее время часто используется для одного значения вероятности, чтобы отличать его от p(.) или P(.) для плотности вероятности. Поэтому я бы предпочел Pr(A|B,C).
Oppose, по Майклу Харди. Маргинальное распределение — достаточно важная и отличительная идея, которая заслуживает собственной статьи. Плюс это довольно сильно отличается от условного распределения. Jheald ( talk ) 16:06, 13 апреля 2008 (UTC) [ ответить ]
Может быть, мне стоит немного расширить это. «Предельная вероятность» — довольно странное понятие. «Предельная вероятность» события — это всего лишь вероятность события; слово «предельный» просто подчеркивает, что это не условно, и используется в контекстах, в которых важно это подчеркнуть. Поэтому случаи, когда важно это подчеркнуть, очень зависят от контекста. По этим причинам я могу испытывать определенную симпатию к такому предложению «слияния». Но с другой стороны, просто посмотрите на то, как часто используется это понятие, и это убедит меня в том, что оно заслуживает собственной статьи. Википедия довольно обширна по охвату, и уместно, что статьи не так сгруппированы, как если бы охват был не таким широким. Майкл Харди ( обсуждение ) 18:05, 13 апреля 2008 (UTC) [ ответить ]
Это имеет смысл. Я удалю предложение о слиянии. Статья о маргинальном распределении , однако, все еще требует расширения. Я размещу надлежащее уведомление об этой статье. Neelix ( обсуждение ) 18:10, 13 апреля 2008 (UTC) [ ответить ]
Первое впечатление
Я чувствую, что всю страницу нужно переписать. Например, следующее утверждение не может быть определением, поскольку оно содержит много подтекстов и не имеет смысла, если рассматривать его отдельно:
Пограничная вероятность — это вероятность одного события, независимо от другого события. Пограничная вероятность получается путем суммирования (или интегрирования, в более общем смысле) совместной вероятности по необязательному событию. Это называется маргинализацией. Пограничная вероятность A записывается как P(A), а пограничная вероятность B записывается как P(B). —Предыдущий комментарий без знака добавлен 207.172.220.58 ( обсуждение ) 15:42, 14 мая 2008 (UTC) [ ответить ]
Этот абзац не был оптимально ясен; я пытался переписать его, но в основной части статьи должен быть раздел о предельной вероятности. Пример с таблицей совместных вероятностей, в которой границы являются предельными вероятностями, может помочь прояснить это; что-то вроде:
но желательно с чем-то конкретным, значимым и реалистичным, вместо абстрактных Ai и Bj. Итоги, приведенные на полях, являются маргинальными вероятностями. -- Lambiam 09:18, 19 мая 2008 (UTC) [ ответить ]
Распределения и переменные?
Первое предложение заглавия гласит:
В данной статье определяются некоторые термины, характеризующие распределения вероятностей двух или более переменных.
Я думаю, что это предложение излишне и усложняет вещи больше, чем они должны быть. Можно преподавать хорошие части теории вероятностей, включая условную вероятность, даже не упоминая распределения или переменные. Например, бросая игральную кость, вы имеете пространство U={a,b,c,d,e,f} (представляющее 1,2,3,4,5,6, но я использую буквы, чтобы подчеркнуть, что я НЕ ввожу случайную величину, принимающую числовые значения), простую функцию вероятности P( i )=1/6 для всех i в U, причем такие события, как A и B, являются подмножествами U, расширенную функцию вероятности P(A) (в этом симметричном случае P(A) = n(A)/n(U), где n подсчитывает элементы в наборе). При A = {четные} = {b,d,f} и B = {более четырех глаз} = {e,f} можно найти P(B|A), скажем. -- Noe ( talk ) 08:55, 18 сентября 2008 (UTC) [ ответить ]
Полностью согласен. 58.88.53.246 (обсуждение) 16:47, 27 сентября 2008 (UTC) [ ответить ]
Обусловливание случайной величины
Что значит обусловливать непрерывную случайную величину? Определение, данное здесь, похоже, не распространяется на такие случаи. 58.88.53.246 (обсуждение) 16:22, 27 сентября 2008 (UTC) [ ответить ]
Эти замечания полностью вырваны из контекста, и я считаю, что они здесь неуместны, по крайней мере без дополнительных пояснений. Вместо этого я перенес замечание о том, что P(A|B) является вероятностной мерой, в статью о вероятностных пространствах, где оно более естественно вписывается. Я просто полностью удалил замечание о добыче данных; возможно, раздел о «применениях условной вероятности» (или теории Байеса) мог бы использовать его, но как изолированное замечание оно кажется неуместным. Биркетт ( обсуждение ) 08:04, 16 декабря 2008 (UTC) [ ответить ]
условие должно называться C, а не A (в этом случае не условие называется C)
Я думаю, было бы гораздо понятнее сохранить условие как C. Я знаю, что буквы не имеют значения в математике, и это контекстно, но тем не менее... Это меня немного смутило, когда я прочитал это в первый раз. 86.61.232.26 ( обсуждение ) 15:54, 1 января 2009 (UTC) [ ответ ]
Специфические свойства множеств?
Привет всем. Любой источник, который я выбираю для поиска условной вероятности, ничего не говорит о свойствах, к которым должны относиться события и . То есть, всегда утверждается, что это может быть любое и .
Теперь, поскольку события являются всего лишь наборами элементарных результатов этого вероятностного пространства , не имеет ли смысла добавить ограничение, что для должно быть подмножеством , поскольку в противном случае элементарный результат, не включенный в , не изменил бы свою вероятность наступления, когда он произошел?
См. также страницу 134 этой книги: бесплатная книга по теории вероятностей
Не обижайтесь, если я не прав... я совсем не эксперт.
--Somewikian ( обсуждение ) 15:32, 23 января 2009 (UTC) [ ответ ]
Я не понимаю, что вы имеете в виду. Что именно плохого в том, что множество вероятностного пространства A не является подмножеством B? MartinPoulter ( обсуждение ) 17:05, 23 января 2009 (UTC) [ ответить ]
Я не уверен, подразумеваете ли вы под «вероятностным пространством A» то же самое, что и под «событием A». В любом случае, я недостаточно внимательно прочитал вышеупомянутую страницу в этом учебнике (проверьте сами: учебник, стр. 134 или стр. 142 в pdf-файле, ссылку на который я дал выше). Они выводят уравнение для условной вероятности, и делают это, используя условие, что для элементарного результата условная вероятность после наступления события , которое не включает указанный элементарный результат, устанавливается равной нулю. Это может показаться более запутанным, чем есть на самом деле... пожалуйста, проверьте учебник, который я упомянул, и дайте мне знать, считаете ли вы, что включение этого здесь будет иметь смысл (я нахожу вывод, приведенный в этом учебнике, довольно приятным и простым для понимания... а я полный дилетант). --Somewikian ( talk ) 21:23, 23 января 2009 (UTC) [ ответить ]
Элементарный результат, не включенный в БУДЕТ изменен в своей вероятности наступления, когда он произошел. А именно, его вероятность ИСЧЕЗНЕТ! —Предыдущий неподписанный комментарий добавлен 79.176.243.81 (обсуждение) 19:27, 23 января 2009 (UTC) [ ответить ]
Вы правы, но это может быть просто потому, что уравнение условной вероятности выводится и определяется таким образом. --Somewikian ( обсуждение ) 21:24, 23 января 2009 (UTC) [ ответ ]
Но это вполне естественно. В свете новой информации этот исход становится невозможным (заведомо невозможным). Какова же может быть его новая вероятность, если не нулевая?
Логически думая, я полностью с вами согласен... Я просто тот, кому нравятся его верные и полные определения. Думаю, я просто добавлю раздел о выводе уравнения, данного в этой статье, — надеюсь, в этом нет ничего плохого. --Somewikian ( обсуждение ) 08:21, 24 января 2009 (UTC) [ ответить ]
Совершенно неверно утверждать, что A должно быть подмножеством B для того, чтобы существовало P( A | B ). Если бы вы настаивали на этом, вы бы отбросили БОЛЬШИНСТВО ситуаций, в которых используется условная вероятность. А также большинство ситуаций, в которых вы видите ее в элементарных упражнениях в учебниках. Майкл Харди ( обсуждение ) 17:12, 24 января 2009 (UTC) [ ответить ]
Ой, пожалуйста, я уже сказал, что неправильно понял раздел в учебнике, на который ссылался. Вы просто этого не заметили или вам просто нужно было донести свою точку зрения.
Согласно этому учебнику: вывод включает установку для каждого элементарного события/явления условной вероятности, равной нулю, как в .
Но еще раз: я не любитель статистики. Я полный новичок в статистике, так что, пожалуйста, обвиняйте авторов этой книги, а не меня, поскольку я просто цитирую их работу. --Somewikian ( обсуждение ) 17:36, 24 января 2009 (UTC) [ ответ ]
Там я добавил раздел о выводе уравнения... ругайте меня за ошибки и, пожалуйста, исправьте их, пока вы этим занимаетесь. --Somewikian ( обсуждение ) 08:28, 25 января 2009 (UTC) [ ответить ]
Вопрос
ЕСЛИ A и B являются взаимоисключающими событиями, являются ли они независимыми событиями? — Предыдущий неподписанный комментарий добавлен 203.78.9.149 ( обсуждение ) 09:05, 3 февраля 2009 (UTC) [ ответить ]
Обычно нет. Вытягивание карты из колоды из 52 игральных карт, «Тузы» и «Короли» являются взаимоисключающими:
P(A)=4/52; P(K)=4/52; P(A и K)=0; P(A|K)=P(K|A)=0;
но «Тузы» и «Червы» независимы:
P(A)=4/52; P(H)=13/52; P(A и H)=P(Туз червей)=1/52=P(A)*P(H); P(A|H)=1/13=P(A); P(H|A)=1/4=P(H);
а «Тузы» и «Единороги» (которые не существуют) являются взаимоисключающими и (возможно) независимыми:
P(A)=4/52; P(U)=0; P(A и U)=0=P(A)*P(U); P(A|U) не определено(?); P(U|A)=0=P(U).
В соответствующей голландской статье об условной вероятности говорится:
В теории вероятностей мы используем термин «условная вероятность», если мы знаем, что произошло событие, скажем, B, благодаря чему возможные результаты сводятся к B.
Однако на этой странице он определяется как вероятность некоторого события A при условии наступления некоторого другого события B , не говоря ничего о статистической зависимости. Далее говорится, что если A и B не влияют на вероятность друг друга, то события A и B независимы, что означает, что P(A|B) = P(A).
Это ничего не говорит о том, является ли ситуация условной или нет; это лишь говорит о том, что вероятности в обеих перспективах одинаковы. « при условии наступления некоторого другого события B » — это перспектива, а не (ограниченная) ситуация.
Более того, существует фундаментальное различие между сокращением выборочного пространства и влиянием на вероятности. Бросание двух игральных костей не влияет на вероятности друг друга, но общее выборочное пространство сокращается, если знать результат одного броска.
Каково ваше мнение о данном определении на голландской странице? Heptalogos ( обсуждение ) 10:52, 13 февраля 2009 (UTC) [ ответ ]
Другие статьи
Существует довольно много статей, в которых предпринимаются попытки рассмотреть условную вероятность, причем на разных уровнях качества:
Возможно, некоторые из них следует объединить? — 3mta3 ( обсуждение ) 09:53, 27 июня 2009 (UTC) [ ответить ]
Я полностью согласен. Теперь это довольно произвольно, что содержит что. Я думаю, что реорганизация, объединение и, возможно, слияние в несколько статей должны быть необходимы. 80.98.239.192 (обсуждение) 12:37, 3 ноября 2013 (UTC) [ ответить ]
Вопрос
Учитывая, что P(B|A) = 1 и P(B|~A)=p, могу ли я найти P(A|B), ничего не зная о P(A) или P(B)? У меня есть алгоритм, который, если он правильный, всегда дает правильный результат. Если он неправильный, он дает правильный результат в 10% случаев. Кажется, что если я получу правильный результат, я должен быть уверен, что алгоритм правильный. Интуитивно я думаю, что это должно быть возможно, но я не могу сформулировать это правильно. —Предыдущий неподписанный комментарий, добавленный 71.193.61.249 (обсуждение) 17:21, 10 июля 2009 (UTC) [ ответить ]
Эта статья будет очень запутанной для человека, не имеющего математических наклонностей (например, для меня). При чтении статьи я столкнулся с большой стеной формул без четкого объяснения того, что они означают. В этой статье должен быть раздел с четким объяснением с примерами того, что такое условная вероятность и как ее может использовать человек, не имеющий математических наклонностей, без использования сложных формул. — Предыдущий неподписанный комментарий, добавленный 79.74.192.244 (обсуждение) 10:38, 3 августа 2009 (UTC) [ ответить ]
Полностью согласен! Терминология и пиктограмма изначально непостижимы :( Мы здесь не для того, чтобы хвастаться, ребята, мы здесь для того, чтобы делиться информацией в удобоваримом формате. Dickmojo ( обсуждение ) — Предыдущий недатированный комментарий добавлен 11:40, 21 февраля 2012 (UTC).[ отвечать ]
Что означает эта запись и имеет ли она смысл?
Означает ли приведённое выше обозначение следующее?
Если нет, то что это значит?
Если B — несчетное множество меры 0, и все члены суммы равны 0, то что имеется в виду? Я не вижу, как предлагаемое определение (если определение является тем, чем оно должно быть) имеет смысл. Майкл Харди ( обсуждение ) 11:00, 9 сентября 2009 (UTC) [ ответить ]
Согласен, в нынешнем виде это не имеет смысла. Более того, попытка определить такую величину упускает весь смысл парадокса Бореля–Колмогорова (то есть, что условие должно быть на сигма-алгебре, а не на событии). Я бы предложил использовать формальное определение на Conditional_expectation#Definition_of_conditional_probability (хотя я был тем, кто его написал, так что я несколько предвзят).– 3mta3 ( talk ) 12:10, 9 сентября 2009 (UTC) [ reply ]
В любом случае я думаю, что подход к обоснованию случая меры ноль с использованием предела обусловленности на множестве, которое сжимается до требуемого множества, как в Обусловливании (вероятности), должен быть изложен явно, поскольку он понятен без теории меры. Melcombe ( обсуждение ) 16:28, 9 сентября 2009 (UTC) [ ответить ]
Да, но не будем забывать, что предел в решающей степени зависит от выбора сжимающейся последовательности не пренебрежимо малых множеств. (Это также является источником парадокса Бореля-Колмогорова.) В некоторых счастливых случаях у нас есть «любимая» последовательность; в других случаях ее нет. Борис Цирельсон ( обсуждение ) 17:32, 9 сентября 2009 (UTC) [ ответ ]
Я виновник ошибочных терминов в дискретном случае. Аналогично, я согласен, что обозначения гораздо понятнее, чем просто . Что касается парадокса Бореля-Колмогорова, да, "нельзя упускать из виду соответствующее сигма-поле", цитируя Биллингсли. Если есть способ сделать утверждение строгим, это было бы здорово. Спасибо всем, кто работал над этими статьями. Btyner ( talk ) 01:08, 10 сентября 2009 (UTC) [ ответить ]
Я не знаю, что имелось в виду изначально, но я знаю один случай, который действительно приводит к формулам такого рода. Пусть Y — случайная величина, распределение которой представляет собой смесь абсолютно непрерывной части (то есть имеющей плотность) и дискретной части (то есть конечного или счетного набора атомов) (таким образом, никакая сингулярная часть не допускается), в то время как X — абсолютно непрерывно. Теперь, если измеримое подмножество B действительной прямой не содержит атомов Y и имеет положительную вероятность (wrt Y ), то только абсолютно непрерывная часть имеет значение, и формула с интегралами верна. Если же B имеет нулевую меру Лебега, но все еще имеет положительную вероятность wrt Y (таким образом, содержит по крайней мере один атом), то только дискретная часть имеет значение, и формула с суммой по атомам y верна. Однако следует отметить, что Omega не будет появляться в формулах; интегралы находятся на действительной прямой (и ее подмножествах). Борис Цирельсон ( talk ) 08:21, 10 сентября 2009 (UTC) [ reply ]
(Убираю отступы для удобства) Мне неясна предполагаемая связь между различными статьями, но, предполагая, что « Обусловливание (вероятность) » предназначено для тех, кто работает на уровне теории меры, может ли эта ( условная вероятность ) быть предназначена для тех, кто ищет что-то более простое? Например, в приведенной выше формуле можно заменить «меру ноль» на «вероятность ноль». В тексте здесь делается достаточно предположений, что сложные ситуации, на которые ссылается Борис Цирельсон , не могут возникнуть. Я думаю, что здесь нужно просто указать, что более сложные случаи обсуждаются в других статьях. Melcombe ( обсуждение ) 09:18, 10 сентября 2009 (UTC) [ ответить ]
Во-первых, условная вероятность события, при условии, что Y принадлежит двухточечному множеству (где a > 0), равна
Если вы (читатель) верите, что это просто , то подставьте это в формулу полной вероятности и наблюдайте неверный результат для безусловной вероятности. Или, в качестве альтернативы, подумайте о бесконечно малом интервале и соответствующем ему множестве (Видите ли, «соответствующее сигма-поле не должно быть упущено из виду», действительно.)
Во-вторых, условная плотность X (при тех же условиях на Y ) равна
Таким образом, наивное суммирование по точкам B (без специальных весов) не работает даже при самых обычных предположениях о совместном распределении. Как я люблю говорить, точка (континуума) не является единицей измерения ; таким образом, бессмысленно говорить, что одна точка — это всего лишь половина набора из двух точек. Иногда это две трети (или другая дробь)! Борис Цирельсон ( обсуждение ) 11:09, 10 сентября 2009 (UTC) [ ответить ]
Я не понимаю, какой случай вы выбрали для рассмотрения, но, кажется, вы говорите, что предел
по мере того как δy i приближается к нулю, зависит от их отношения по мере того, как они приближаются к нулю, что выглядит правильным. Но можно ли сохранить формулу в статье, разумно ограничив B одной точкой. Melcombe ( talk ) 12:50, 10 сентября 2009 (UTC) [ ответить ]
Да, это то, что я говорю. Да, для одного пункта формула — это просто формула из учебников (а не чье-то оригинальное исследование или ошибка), и ее можно (и нужно) сохранить. С некоторыми оговорками о «почти везде», если вы хотите, чтобы это было строго, или без, если это не проблема. Борис Цирельсон ( обсуждение ) 14:17, 10 сентября 2009 (UTC) [ ответить ]
Теперь о моем случае, который нужно рассмотреть. Я имею в виду, что мы наблюдаем не случайную величину Y , а лишь такую ее функцию:
Я заменил текст на вышеприведенное заключение относительно того, что требуется в разделе определений. К сожалению, общая структура теперь плохая, потому что теперь есть что-то вроде "вывода" в разделе определений, а затем раздел вывода. Melcombe ( talk ) 14:52, 21 сентября 2009 (UTC) [ ответить ]
Замена неточного бита
Предложенная замена неправильного текста (но я надеялся, что кто-нибудь сам внесет хорошие изменения).--
Например, если X и Y являются невырожденными и совместно непрерывными случайными величинами с плотностью ƒ X , Y ( x , y ), то, если B имеет положительную меру,
Случай, когда B имеет нулевую меру, может быть рассмотрен непосредственно только в случае, когда B = { y 0 }, представляя одну точку, и в этом случае
Важно отметить, что если A имеет меру ноль, то условная вероятность равна нулю. Указание на то, почему более общий случай нулевой меры не может быть рассмотрен аналогичным образом, можно увидеть, заметив, что предел, когда все δy i стремятся к нулю,
зависит от их отношения, когда они приближаются к нулю. Melcombe ( обсуждение ) 12:49, 11 сентября 2009 (UTC) [ ответить ]
Значительно улучшено, но последняя часть кажется немного странной, так как y i , похоже, обозначает разные вещи слева и справа. Btyner ( talk ) 01:08, 12 сентября 2009 (UTC) [ ответить ]
В чем проблема? Есть y i и δy i , что, по-моему, довольно обычная запись. Это не δ×y i . Кажущаяся сумма по y i может быть лучше, чем сумма по i ... это изменение может помочь. Melcombe ( talk ) 09:00, 14 сентября 2009 (UTC) [ ответить ]
Левая ось выглядит как функция пары (y i , δy i ) , которая определяется, однако правая ось не зависит от y i из-за суммирования. Btyner ( talk ) 00:07, 15 сентября 2009 (UTC) [ ответить ]
В левой части содержится «один из», что означает объединение, и похоже на суммирование. Борис Цирельсон ( обсуждение ) 05:52, 15 сентября 2009 (UTC) [ ответить ]
Я не использовал символ союза, в основном потому, что мне было лень искать, как это сделать, но также потому, что я несколько против использования слишком сложных математических символов там, где подойдет что-то более простое, особенно в том, что может или должно быть нетехническими статьями или разделами. Нам просто нужно найти что-то, что соответствует уровню остальной части статьи. Melcombe ( talk ) 09:25, 15 сентября 2009 (UTC) [ ответить ]
И вот интересный экспериментальный факт: из двух читателей один (я) понял вашу нотацию, а один (Бтайнер) — нет. Борис Цирельсон ( обс .) 12:49, 15 сентября 2009 (UTC) [ ответить ]
Действительно, вчера поздно вечером мне пришло в голову, что там может быть неявное объединение. Так же как и открытый интервал от y i до y i + δy i , а не , как я (неправильно) интерпретировал его в первый раз. В любом случае, мне кажется, вы хотели бы, чтобы левая конечная точка была закрытой, а не открытой. Не будет ли слишком громоздким написать
Выглядит нормально. Но будет ли предпочтительнее (привычнее?) использовать интервал, центрированный на y i ? И, возможно, знак приближения вместо знака равенства? Melcombe ( обсуждение ) 09:28, 16 сентября 2009 (UTC) [ ответить ]
Определенно предпочитаю . Что касается интервала, я думаю, нецентрированный является традиционным, потому что он чище для доказательств, включающих cdf. Btyner ( talk ) 19:15, 19 сентября 2009 (UTC) [ ответить ]
Что-то все еще не так: я думаю, что интеграл по A был забыт. Nijdam ( talk ) 11:56, 1 января 2010 (UTC) [ ответить ]
Я возражаю, согласно пунктам WP:ELNO 1, 4 и 11. - MrOllie ( обсуждение ) 20:31, 30 декабря 2009 (UTC) [ ответить ]
Я поддерживаю возражение. О, нет, этоJamie Talk 20:41, 30 декабря 2009 (UTC) [ ответить ]
Парадокс?
П(А|Б) или П(А)?
1. P(A) является условным, когда возможные результаты эксперимента сводятся к событию B. Это сокращение только выборочного пространства; оно не должно менять вероятность A. 2. Если событие B не оказывает влияния на P(A) (A и B независимы), то безусловная и условная вероятности одинаковы.
Объединяя эти утверждения, следующее возможно и верно:
3. Событие B уменьшает выборочное пространство события A, но не его вероятность. P(A|B) = P(A). 4. P(A) является условным из-за утверждения 1, но ему не нужна условная математика из-за утверждения 2. Heptalogos ( talk ) 22:08, 31 декабря 2009 (UTC) [ ответить ]
Да, это может случиться. Но я не вижу здесь никакого парадокса. Точно так же 2/4 может отличаться от 1/2, но фактически равно ей. Борис Цирельсон ( обс .) 05:49, 1 января 2010 (UTC) [ ответить ]
В случае варианта 3 это парадоксально, потому что нет смысла или пользы в том, чтобы считать ситуацию условной. Условная вероятность — это вероятность некоторого события A при условии наступления некоторого другого события B. Но событие B не влияет на вероятность события A! Heptalogos ( talk ) 10:24, 1 января 2010 (UTC) [ ответить ]
В общем случае это так; в некоторых особых случаях это не так. Независимость — это особый случай зависимости. Аналогично, ноль — это особый случай числа. Много веков назад это иногда трактовалось как парадокс: число выражает количество чего-либо; кажется, нет никакой пользы или смысла в количестве ничего... Борис Цирельсон ( обс .) 11:01, 1 января 2010 (UTC) [ ответить ]
Откуда вы знаете, что в общем случае это так? Из ссылок Гринстед и Снелл говорят о событии E как об условии (вторая строка из главы 4.1). Это может быть любое событие, даже без изменения выборочного пространства. Разве нет никакого формального определения? Каков источник утверждения в этой статье, что когда «возможные результаты эксперимента сводятся к B», вероятность условна? Heptalogos ( обсуждение ) 21:59, 1 января 2010 (UTC) [ ответить ]
Я удивлен вашими вопросами. Формальное определение, конечно,
Все эти слова о сокращении выборочного пространства, выводе (определения!) и т. д. являются довольно неформальными комментариями/объяснениями; они вам не нужны, если вы понимаете определение и принимаете его. Откуда я знаю, что в общем случае они нужны? Поскольку (опять же) независимость — это частный случай зависимости. Борис Цирельсон ( обсуждение ) 16:34, 2 января 2010 (UTC) [ ответить ]
У нас забавная, но полезная дискуссия. Большинству математиков нужны только их формулы и их понимание. Они имеют дело с математикой, а не с реальностью. Однако автору учебника нужно ответить на вопрос, какие формулы наиболее полезны. Еще один шаг вперед: энциклопедия должна предпочтительно описывать использование (искусственного) понятия, которое она описывает. Помните, это не учебник.
Средний математик, очевидно, не создает собственных проблем для решения и не сомневается в их значимости. Для меня удивительным является то, что введение к этой статье представляет P(C|A) как условную вероятность, которая просто решается аргументом «она равна 1/6, так как кость 2 должна упасть на 5». Какая польза от сложной формулы дальше? После чего она продолжает показывать, что P(B|A) имеет еще меньше смысла, используя формулу. Только в примере с ошибкой условной вероятности я нахожу (?) пользу формулы. Heptalogos ( talk ) 23:02, 2 января 2010 (UTC) [ ответить ]
Если вы можете привести более поучительные примеры, просто сделайте это. Да, мы, математики, видим вещи несколько иначе. Имея формулу, мы беспокоимся, верна ли она (в общем) или нет. Вопрос, когда и как ее следует использовать, слишком неформальный; теория не занимается такими вопросами. Опыт, интуиция, иногда даже талант подсказывают, какую формулу стоит использовать в данной ситуации. Наши примеры часто объясняют смысл формулы, а не ее типичное использование. Борис Цирельсон ( обсуждение ) 06:43, 3 января 2010 (UTC) [ ответ ]
Если в вероятностном пространстве происходит событие B, то выборочное пространство сокращается до B, а вероятность становится условной вероятностью при заданном B. Некоторые события могут быть независимыми от B, другие — нет. Если A и B независимы, P(A|B)=P(A), если C и B не являются независимыми, P(C|B)<>P(C). Сокращенное вероятностное пространство «нуждается» в условной обработке, даже если для событий, независимых от B, условная вероятность может быть легко вычислена, поскольку они равны безусловной. Nijdam ( talk ) 11:45, 1 января 2010 (UTC) [ reply ]
Когда события независимы, сокращенное вероятностное пространство не нуждается в условной обработке, потому что P(A|B)=P(A). Почему это должно быть так? Каково общее правило? Я бы хотел, чтобы статья сказала что-нибудь об этом. Heptalogos ( talk ) 18:16, 1 января 2010 (UTC) [ ответить ]
Мне писать на китайском? Nijdam ( talk ) 19:11, 1 января 2010 (UTC) [ ответить ]
Полезность условного решения
Надеюсь, что следующее верно и ясно:
Утверждение: условный метод полезен при определении вероятности причины (C) при наличии следствия (E), когда следствие неравномерно распределено по выборочному пространству.
Я буду использовать три несколько похожих примера для демонстрации. Первый из них также объясняет условный метод. Схожая часть всех трех:
Есть две корзины с фруктами. В корзине 1 два яблока и апельсин. В корзине 2 яблоко, апельсин и персик. Случайным образом выбирается корзина, из которой случайным образом выбирается предмет.
Пример 1: расчет причины по следствию.
Учитывая, что яблоко выбрано (событие E), какова вероятность того, что оно окажется в корзине 1 (событие C)?
1. Вероятность выбрать корзину 1 равна 1/2.
2. Вероятность вытащить оттуда яблоко составляет 2/3.
3. Вероятность выбрать и корзину 1, и яблоко составляет 1/2 * 2/3 = 1/3 = 2/6.
4. Вероятность выбрать корзину 2 равна 1/2.
5. Вероятность вытащить оттуда яблоко составляет 1/3.
6. Вероятность выбрать и корзину 2, и яблоко составляет 1/2 * 1/3 = 1/6.
Обе вероятности в конечном итоге выбрать яблоко составляют 2/6 для корзины 1 и 1/6 для корзины 2, вместе 3/6. Таким образом, вероятность того, что яблоко было выбрано из корзины 1, составляет 2/6 / 3/6 = 2/3. Проще говоря: вероятность того, что корзина 1 предоставила выбранное яблоко, равна вероятности обоих событий вместе (3), деленной на общую вероятность выбрать яблоко (3+6). В формуле: P(C|E) = P(C и E) / P(E).
P(E|C) = P(C и E) / P(C) = 2/6 / 1/2 = 2/3. Поскольку P(C) = 1 (причина указана) и, таким образом, P(C и E) = P(E), P(C и E) / P(C) = P(E)/1 = P(E). Следовательно, P(E|C) = P(E). Вероятность выбрать яблоко составляет 2/3, как в утверждении 2, что является безусловным. Условный метод не нужен.
Пример 3: расчет причины по следствию, когда следствие равномерно распределено по выборочному пространству.
Учитывая, что апельсин выбран (событие E), какова вероятность того, что он окажется в корзине 1 (событие C)?
P(C|E) = P(C и E) / P(E) = (1/6) / (1/6 + 1/6) = 1/2. Апельсин имеет одинаковую вероятность быть выбранным из каждой корзины, потому что он равномерно распределен по всем корзинам. Это делает вероятность такой же, как вероятность причины, как в утверждении 1. Следовательно, P(C|E) = P(C). Нет необходимости в условном методе. [[Us
Вы упускаете суть: нет такого условного метода. В каждом случае, который вы упоминаете, должна быть рассчитана условная вероятность. Вы, кажется, демонстрируете, что в некоторых случаях эта условная вероятность легко определяется без использования формулы Байеса. Ничего нового или удивительного. Nijdam ( talk ) 17:20, 18 января 2010 (UTC) [ ответить ]
По крайней мере, вы не упускаете суть; спасибо за использование правильных терминов. Приятно знать, что это не стало для вас сюрпризом. Теперь давайте побеспокоимся об остальных наших клиентах. Во-первых, я попытался привести пример (1), который был бы прост для понимания и в то же время объяснял формулу. Во-вторых, я пытаюсь рассмотреть полезность того, что вы называете формулой Байеса, полезность которой, похоже, не связана с математикой, но, по моему мнению, было бы неплохо разместить ее в Википедии. Я читал теорему Байеса , в которой формула P(C|E)=P(C и E)/P(E) упоминается только где-то наполовину как определение условной вероятности . Мне не хватает введения/определения/описания этой формулы. Heptalogos ( обсуждение ) 20:16, 18 января 2010 (UTC) [ ответить ]
Значение
Каков смысл следующего раздела статьи?
В общем, не имеет особого смысла спрашивать после наблюдения примечательной серии событий: «Какова вероятность этого?»; что является условной вероятностью, основанной на наблюдении. Различие между условными и безусловными вероятностями может быть запутанным, если наблюдатель, который спрашивает «Какова вероятность?», сам является результатом случайного выбора. Название «эффект Уайетта Эрпа» было придумано в статье «Der Wyatt Earp Effekt» (на немецком языке), демонстрирующей на нескольких примерах его тонкость и влияние в различных научных областях.
График на этой странице подразумевает, что область важна, но это не так. Я бы предложил 2-ю линию. 2010-11-29 — Предыдущий неподписанный комментарий добавлен 66.35.36.132 ( обсуждение ) 04:31, 30 ноября 2010 (UTC) [ ответ ]
Определение
Условная вероятность — это вероятность некоторого события А при условии наступления некоторого другого события В.
Я думаю об этом так,
«Условная вероятность — это вероятность того, что некоторое событие x является элементом множества A, при условии, что событие x является элементом множества B».
Я думаю о событии как о взятии мяча из мешка с мячами. Или событие может быть чем угодно. Главное, чтобы событие было членом множеств.
Я прав или лаю? Thepigdog ( обсуждение ) 11:46, 2 февраля 2011 (UTC) [ ответить ]
Barking — это сильное слово... событием не является ЭЛЕМЕНТОМ множества; это ЕСТЬ множество. Элементы называются результатами, поэтому «событие x» должно быть «исходом x». Однако вы говорите «какое-то событие x», а «какое-то» здесь намекает мне, что речь идет о КОНКРЕТНОМ x, что не так. Мне не совсем ясно, почему исходное предложение должно быть изменено, и мой английский недостаточно хорош, чтобы быть уверенным, будет ли следующее лучше, но я бы написал так:
«Условная вероятность события А при условии, что произошло событие В, — это вероятность того, что событие А произойдет, когда известно, что произойдет событие В».
Введение терминологии множеств и элементов, я думаю, может сбить с толку многих неспециалистов. -- Нет ( обсуждение ) 14:37, 2 февраля 2011 (UTC) [ ответ ]
Да, я вижу, что моя терминология была неправильной. Событие — это множество, к которому принадлежит результат.
Я предлагаю следующую формулировку:
«Условная вероятность события A при условии события B — это вероятность того, что исход x наступит в событии A, когда известно, что исход x наступит в событии B».
Я думаю, что это демистифицирует язык и объясняет, что на самом деле происходит. Я считаю, что описание вероятности в терминах элементов (результатов) облегчает понимание для неспециалиста вроде меня.
Вероятность тогда, очевидно, равна числу возможных результатов в B.
Фу
Терминология P(A|B) сбивает с толку, потому что A|B не имеет значения. Только P(A|B) имеет значение. Это также сбивает с толку неспециалиста/студента. В некотором смысле все вероятности условны, потому что P(A) = P(A|All).
В P(A|B) вы можете думать о второй части «|B» как о задании набора, который мы используем для случайного извлечения событий «A|» в первой части. Когда нет второй части, мы берем события из всего набора, подразумеваемого контекстом. Если мы вытаскиваем шары из мешка наугад, «|B» определяет мешок, из которого мы вытаскиваем шары. Таким образом, P(A|B) = P(A|вытянутый из набора B) = Вероятность вытягивания A из набора B. P(кто-то болен X|вытянутый из набора людей с положительным результатом теста) отличается от P(кто-то имеет положительный результат теста|вытянутый из набора людей с заболеванием X). P(кто-то виновен|вытянутый из набора людей, соответствующих доказательствам) отличается от P(кто-то соответствует доказательствам|вытянутый из набора людей, которые виновны). в обоих случаях нас, как правило, больше интересует первый. Starple ( talk ) 17:47, 3 апреля 2023 (UTC) [ ответить ]
Напишите (A|B) вместо P(A|B)
Условная вероятность записывается как P(A|B) или, возможно, p(A|B) или Pr(A|B). Почему бы не опустить P и не написать (A|B) вместо P(A|B) для условной вероятности и (A| ) вместо P(A) для безусловной вероятности? Как в обозначении скобок в квантовой механике .
Мы должны следовать установленной нотации. Все остальное будет, очевидно, WP:OR . Что касается более широкого вопроса о том, служит ли P на самом деле чему-либо, я думаю, что, возможно, служит — например, избегая путаницы с некоторыми обозначениями внутреннего произведения. Jheald ( talk ) 11:14, 7 июля 2011 (UTC) [ ответить ]
Раздел Терминологии
На мой взгляд, раздел Терминология не нужен. Хотя я вижу логику в том, что совместные и предельные вероятности являются частью определения условной вероятности, эта статья не должна быть предназначена для объяснения этих концепций - достаточно ссылки на соответствующие статьи. Этот материал берет начало в самом начале истории статьи, когда было заявлено: "Эта статья определяет некоторые термины, которые характеризуют распределения вероятностей двух или более переменных". Я удалил раздел, однако он был возвращен по той причине, что его существование было "чтобы избежать записей в разделе см. также". Я придерживаюсь противоположного мнения - если уж на то пошло, то более уместно и кратко ссылаться из раздела См. также на соответствующие статьи. Мысли? Gnathan87 ( обсуждение ) 13:58, 4 августа 2011 (UTC) [ ответ ]
Цель раздела "См. также" четко изложена в WP:SEEALSO . Раздел "терминология" не нужен, но статья должна достаточно говорить о связанных концепциях, упомянутых там в настоящее время, чтобы статья была самостоятельна. Melcombe ( обсуждение ) 14:10, 4 августа 2011 (UTC) [ ответ ]
Извините, я не совсем ясно выразился по этому поводу - я бы предпочел 1. удалить раздел Терминология в его нынешнем виде 2. переписать статью, включив ссылки на Совместную вероятность и Предельную вероятность в контексте, который более очевидно устанавливает релевантность теме 3. также включить эти ссылки из навигационного окна. Хотя желательно сделать статью максимально самодостаточной, следует соблюдать баланс между потребностями читателей и фокусом. Я бы сказал, что многие читатели знакомы с этими концепциями, а для тех, кто не знаком, будет полезнее указать на предпосылки. Gnathan87 ( обсуждение ) 18:36, 4 августа 2011 (UTC) [ ответ ]
Эта статья прошла долгий путь с 2007 года; я переоцениваю ее как качество класса C. - Bryanrutherford0 ( обсуждение ) 17:37, 19 июля 2013 (UTC) [ ответ ]
Интерпретации
Второй абзац этой статьи гласит: «В байесовской интерпретации вероятности кондиционирующее событие интерпретируется как свидетельство для обусловленного события [...] (На самом деле, это также частотная интерпретация.)» Существует ли интерпретация вероятности, которая отвергает эту идею? Если нет, то оговорка по этому утверждению не нужна до такой степени, что она вводит в заблуждение. Даже если есть серьезные возражения против этой идеи, этот абзац можно было бы структурировать лучше. Nejssor ( talk ) 17:00, 4 декабря 2013 (UTC) [ ответить ]
Вести
В заголовке содержится обсуждение, которое относится к тексту статьи, см. WP:LEAD . Paradoctor ( обсуждение ) 00:42, 17 января 2014 (UTC) [ ответить ]
Лучший пример для того же пространства выборки
Условная вероятность относится к событиям одного и того же пространства выборки. Но приведенный пример, по-видимому, не относится. Я понимаю, что «Какова вероятность того, что A = 2?» на самом деле означает «Какова вероятность того, что A = 2 [и 1≤B≤6]?», но «Какова вероятность того, что A+B ≤ 5» неубедительно, поскольку мы сравниваем пару (вектор) результатов с суммой результатов. Это не было бы справедливо, если бы результаты имели разные единицы. Скажем, метры и секунды. Можем ли мы привести лучший пример для событий одного и того же пространства выборки? Guswen ( talk ) 08:48, 17 сентября 2014 (UTC) [ reply ]
Я не вижу проблемы. Пространство выборки для (A,B) — это множество из 36 элементов:
Но "A+B≤5" не имеет физического смысла (нельзя прибавлять метр к секунде). Guswen ( talk ) 09:37, 17 сентября 2014 (UTC) [ ответить ]
Думая таким образом, можно отвергнуть почти всю обычную математику. Например, мы «не смогли» решить уравнение ax + b = 0, потому что ax может быть метрами, а b секундами.
Как вы могли заметить, в математике мы в основном имеем дело с числами, а не с физическими величинами (если прямо не указано иное).
Но в любом случае, в этом примере мы знаем, что A и B — это значения, выпавшие на игральных костях. Если на ваших игральных костях есть метры и секунды, то это очень необычные игральные кости. :-) Борис Цирельсон ( обсуждение ) 13:29, 17 сентября 2014 (UTC) [ ответить ]
Так что вам, математикам, стоит задуматься о том, чтобы спуститься на землю, раз уж мы живем в реальном мире :-)
* Кубики также являются реальными объектами. Представьте себе необычный паб. Бросок первого кубика (A) показывает количество 50 мл водочных шотов, которые вы купите и выпьете. Бросок второго кубика (B) показывает количество долларов США, которые вы заплатите за свой заказ. Что будет означать «A+B» в таком случае? (кстати, это будет дешевый паб :)
* линейное уравнение ax + b = 0, вероятно, наиболее распространено в физике (скажем, постоянное ускорение v=v0+at), и единицы измерения просто должны совпадать. Если нет - лучше проверьте свои предыдущие расчеты, потому что вы наверняка ошибаетесь.
* В квантовой механике квадрат модуля волновой функции частицы — это положительное действительное число, интерпретируемое как плотность вероятности того, что частица находится в некотором месте. Но это место не безразмерно, а задается в метрах [м].
Я предлагаю вынуть все эти белые, черные и красные шары из этих урн и вернуть урны обратно на похоронные церемонии :) Единицы должны согласиться. Есть ли у нас лучший, реальный, условный пример вероятности? Guswen ( talk ) 14:04, 17 сентября 2014 (UTC) [ ответить ]
Я все еще не вижу проблемы. Броски кубиков не имеют единиц измерения. Это простой пример для иллюстрации определенной концепции. А кубики являются частью реального мира — игр. Какова вероятность того, что ваша машина из «Монополии» приземлится на Мэдисон-сквер в следующий ход?
Если вы не просто тролль, то мне кажется, что вас заводит "A+B", т. е. сложение двух случайных величин. Ну, это могут быть две длины, или, в другом примере, событие может быть описано как A умножить на B < 10 Ньютонов, или что-то в этом роде.
Нет, он совсем не тролль. Скорее, он не математик, а патентный поверенный. Борис Цирельсон ( обсуждение ) 16:05, 17 сентября 2014 (UTC)[ отвечать ]
В любом случае, было бы интересно, если бы вы могли привести реальный пример, который, по вашему мнению, был бы здесь лучше. -- Нет ( обсуждение ) 15:04, 17 сентября 2014 (UTC) [ ответ ]
(Гусвену) Вы имеете право сказать: «Вы, математики, можете подумать о том, чтобы спуститься на землю». Но Википедия не меняет мир (не напрямую, я имею в виду); скорее, она отражает его таким, какой он есть. Если математики (вне Википедии) последуют вашим советам и изменят свой стиль, то мы соответствующим образом исправим статьи Википедии. Борис Цирельсон ( обсуждение ) 15:57, 17 сентября 2014 (UTC) [ ответить ]
Господа. Я не тролль и не хотел никого оскорбить, особенно тех из вас, кто создал эту статью. И мне очень нравятся статьи на английском языке Wiki по математике, поскольку здесь многое делается для того, чтобы объяснить этот относительно сложный материал таким простым людям, как я. Я просто нашел эту проблему столкновения единиц измерения странной и просто надеялся вызвать обсуждение, чтобы найти ответ на мою дилемму. Но, очевидно, вы правы - Wikipedia (даже на странице обсуждения статьи) неподходящее место для этого.
Теперь, сказав это, позвольте мне последовать совету Нё и покинуть это просвещенное обсуждение, попытавшись найти лучший пример своими собственными средствами (на данный момент я полагаю, что тот, который я нашел в [1], является лучшим выбором).
В качестве примечания: я знаю, что в математике вы в основном имеете дело с числами, а не с физическими величинами. Так, 2+2=4, 2x+3=5 и т. д., и вы можете забыть о некоторых «единицах» или величинах. Тем не менее, это не относится к области случайных величин. Случайная величина (или случайный вектор), насколько мне известно, представляет возможные значения (будь то дискретные или непрерывные) эксперимента, а эксперименты всегда происходят в реальном мире, как результат наблюдения (назовем это коллапсом волновой функции). Guswen ( talk ) 19:23, 17 сентября 2014 (UTC) [ ответить ]
Я не думаю, что случайные величины отличаются в этом отношении от неслучайных величин. Обе могут иметь физические измерения (метры, секунды), когда они происходят из «реального мира» (как вы его называете). Обе могут быть «разделены» на соответствующую единицу (метр...) и затем стать физически безразмерными. Например, формально правильно (в измерениях, я имею в виду; не обязательно верно) сказать, что человек толстый, если его вес в килограммах превышает его рост в сантиметрах минус 100. Случайно или нет, это совсем другая история. (Может быть, у вас сложилось впечатление, что теория вероятностей — это прикладная математика , в то время как алгебра (скажем) — это чистая математика, и это имеет значение?) Борис Цирельсон ( обсуждение ) 20:28, 17 сентября 2014 (UTC) [ ответить ]
Формальное выведение
Я очень сомневаюсь, что формальный вывод математически обоснован. Nijdam ( talk ) 11:33, 18 сентября 2014 (UTC) [ ответить ]
ХОРОШО,
Мне могут не нравиться некоторые используемые обозначения;
P(B) должно быть ненулевым; это можно было бы четко указать;
В математических выражениях после «Подстановка...», включая значение правой или левой части (т. е. «1»), где-то перед стрелкой импликации это может быть более понятным.
Кроме этого, я не вижу проблем. Можете ли вы быть более конкретными?-- Nø ( talk ) 14:55, 18 сентября 2014 (UTC) [ ответить ]
Я бы добавил еще две проблемы/замечания:
Это сделано в рамках дискретной вероятности;
Что вообще подразумевается под «формальным выводом»? Доказательство формально; фраза «разумно предположить, что» не допускается. Вывод, вероятно, допускает это, просто потому, что он не должен быть формальным. Борис Цирельсон ( обсуждение ) 17:11, 18 сентября 2014 (UTC) [ ответить ]
Хорошо, я согласен! В любом случае, нужен ли этот раздел вообще?-- Nø ( talk ) 19:00, 18 сентября 2014 (UTC) [ ответить ]
Может быть, под другим названием, например, «мотивация этого определения», в другом месте (ближе к началу), и немного переформулировано? Борис Цирельсон ( обс .) 20:27, 18 сентября 2014 (UTC) [ ответить ]
Новое введение
Привет всем. Я попытался написать новое введение, которое решает "слишком техническую" проблему, которой отмечена эта статья. Я удалил формальное определение (хотя оно могло бы быть ниже с другими формальными определениями) и дал простой конкретный пример условной вероятности. Это редактирование было отменено однажды, потому что я ложно заявил, что B должно произойти до A, но теперь это исправлено.
Я понимаю, что это сложная тема, и это новое вступление вряд ли понравится всем, но можем ли мы хотя бы договориться о следующих целях введения:
Должна быть возможность понять основную концепцию, даже если вы никогда не изучали статистику.
Длинные формальные определения могут быть даны далее в статье.
Должен быть хотя бы один действительно простой пример условной вероятности в конкретных, повседневных терминах.
Я не думаю, что это имеет смысл: «Например, если у вас рак, у вас может быть 90% вероятности положительного результата теста на рак, но если у вас положительный результат теста на рак, у вас может быть только 10% вероятности того, что у вас действительно есть рак, потому что рак встречается очень редко».
В первом случае, если у вас рак, у вас будет 90% шансов получить положительный результат теста - поэтому тест имеет 90% чувствительность. Во втором случае, если у вас положительный результат теста на рак, у вас есть 10% шансов иметь его? Теперь тест имеет только 10% специфичности?
Это кажется бессмысленным. Вот пример, который я придумал: например, если идет дождь, у вас может быть 20% шанс попасть в автомобильную аварию, но если вы попали в автомобильную аварию, вероятность того, что идет дождь, составляет всего 5%.
Коди Вудхаус (обсуждение) 12 мая 2015 г. - 4:29 PST
Ознакомьтесь с Confusion of the inverse , которая раньше была частью этой статьи, но в какой-то момент была отделена. В ней есть Example 2 о тестировании на редкие заболевания.-- Nø ( talk ) 12:38, 13 мая 2015 (UTC) [ ответить ]
Это очень помогает. Спасибо! Добавляю эту ссылку на главную страницу.
В первом примере отсутствует развязка
Спасибо всем, кто внес вклад в эту статью. У меня есть два связанных предложения:
Пример, касающийся условной вероятности того, что выпавшее число на первой кости равно 2, при условии, что сумма выпавших чисел на обеих костях < 5, имеет две проблемы, которые снижают его объяснительную ценность:
Во-первых, пример интуитивно ясно показывает, что правильная условная вероятность равна 0,3, но не использует определяющее уравнение для получения этого результата. Я рекомендую, чтобы промежуточные результаты были включены обратно в определяющее уравнение, достигая кульминации в 3/36 / 10/36 = 0,3 - полученный ответ.
Однако это поднимает вторую проблему: определяющее уравнение использует A для представления одного события, а B — события, которым оно обусловлено. Но в примере B используется для представления значения второй кости, а не значения их суммы, что делает для новичка менее понятным, как подставить эти значения в оригинал. Я предлагаю не использовать «B» повторно таким образом.
В разделе «Определение с помощью σ-алгебры» имеется несколько проблем:
Единственное упоминание σ-алгебры в этом разделе: «Однако можно определить условную вероятность относительно σ-алгебры таких событий (например, возникающих из непрерывной случайной величины)». Большая часть раздела посвящена рассмотрению случая, когда P(B)=0. Предлагаю разделить его на два раздела: «Определение с σ-алгеброй» и «Обусловливание событий с нулевой вероятностью».
В статье утверждается, что случай непрерывных переменных, где B состоит из одной точки, можно рассматривать как отношение двух интегралов. Я добавил ссылку на парадокс Бореля–Колмогорова, чтобы показать, что этот случай все еще проблематичен.
В первом я согласен. Во втором я сомневаюсь. Парадокс Бореля–Колмогорова проявляется, когда множество меры нуль имеет неэквивалентные приближения множествами положительной меры, и эти приближения одинаково заметны. Для одной точки приближение малыми интервалами с центром в этой точке более заметно, чем другие. Борис Цирельсон ( обсуждение ) 04:41, 22 сентября 2016 (UTC) [ ответить ]
Упс, нет, извините; по последнему пункту я тоже согласен. Например, оказывается, что условное распределение X при Y = 0 не совпадает с условным распределением X при Y / X = 0 (даже если X > 0 всегда). На оси x мы имеем дело с одной точкой, но на плоскости ( x , y ) это линия... Борис Цирельсон ( обсуждение ) 12:08, 22 сентября 2016 (UTC) [ ответ ]
Таким образом, действительно, раздел (на данный момент) не содержит почти ничего. Если вообще что-то можно сказать о единственной точке против двух (или более) точек, то это следующее: условное распределение X при условии X = 1 не вызывает споров, но (например) условное распределение X при условии является спорным; записывая его, когда получаем один результат, и записывая его, когда получаем другой результат (даже если X ≠0 всегда). Борис Цирельсон ( обсуждение ) 12:45, 22 сентября 2016 (UTC) [ ответ ]
Организация содержания
Организация темы не очень ясна и не является наиболее интуитивным способом для людей понять концепцию. Некоторые темы (например, как независимость/взаимоисключающие события вступают в игру в условной вероятности) разбросаны по статье, и не проводится четкого различия между похожими/часто путаемыми концепциями. MulingS ( обсуждение ) 15:58, 17 октября 2016 (UTC) [ ответ ]
Небольшая ошибка интерпретации.
Условная вероятность, при которой пересечение A и B равно нулю.
В теории множеств, частным аспектом которой является вероятность, нет такого понятия, как ноль, есть пустое множество, и это пустое множество НЕ равно ничему. Фактически это пустое множество содержит все и каждый элемент, не перечисленный ни в одном из них. Бесконечное множество в теории множеств не содержит всего, оно содержит рекурсор в, множество.
Ошибка саванта — предполагать, что пустое множество в условной вероятности, где пересечение A и B — пустое множество, является пустым. Это не так.
На этом основании, это также заблуждение номер один, которое приводит к неверным выводам. — Предыдущий неподписанный комментарий добавлен 186.92.249.31 (обсуждение) 14:37, 10 ноября 2016 (UTC) [ ответить ]
Приложение: Эта ошибка в предположении также приводит к похожей ошибке в анализе, где производная переменной приводит к константе, а эта производная к нулю. Такого не существует, анализ основан на дисперсии, а импликация дисперсии вложена в переменную, а не в константу. Когда вы разбираете 1 на x/x (предпочтительнее xx), полученный вывод является одним из повторяющихся обратных связей/рекурсии, но эта дифференциация НЕ обязательно является константой или нулем. (вероятность ноль, коррелирует 100%, является циклической, т. е. с обратной связью/рекурсией). — Предыдущий комментарий без знака добавлен 186.92.249.31 (обсуждение) 14:45, 10 ноября 2016 (UTC) [ ответить ]
Где в статье вы нашли эту ошибку? -- Конечно, вы правы, что пересечение A B не может быть нулем (хотя это может быть пустое множество). Но P(A пересечение B) может быть нулем, либо потому что A и B являются взаимно исключающими, либо потому что пересечение непусто, но имеет вероятность ноль. Есть несколько ситуаций, когда вероятность множества может быть нулевой: Если вы бросаете честную игральную кость, одна (глупая) вероятностная модель заключается в том, что выборочное пространство равно {0,1,2,3,4,5,6} с вероятностями 0, 1/6, 1/6, 1/6, 1/6, 1/6, 1/6, поэтому P({0})=0, хотя {0} не является пустым множеством. Кроме того, если вы вращаете циферблат и записываете, где он останавливается, как угол X в градусах между 0 и 360 (включая 0, но исключая 360, скажем), мы можем смоделировать его как непрерывное равномерное распределение, где вероятность любого отдельного результата, например X=90, равна нулю, тогда как вероятность, например, 89,5 <= X < 90,5 равна 1/360. Опять же, P(X=90)=0, хотя "X=90" (который в обозначениях, используемых для стохастических переменных, на самом деле является множеством) не пуст, и в этом случае даже не невозможно, в некотором смысле.-- Nø ( talk ) 17:49, 10 ноября 2016 (UTC) [ reply ]
Дальнейшее определение
Разве нам не нужно дальнейшее определение, как это дано Джеффри Субъективной Вероятностью p 12 (первоначально принадлежащее де Финетти), как цена билета на ставку «Заплатите 1 доллар, если A&B; верните платеж, если не-B». Я немного переформулировал, но моя переформулировка, я думаю, лучше. Это приводит к правилу частного вполне естественно. Это приводит к более сложной проблеме, что произойдет, если у меня есть P(A&B) и P(B), и я впоследствии узнаю, что B является истинным. Это на самом деле единственная (нечастотная) линия обсуждения, которая оправдывает слово «дано». Это приводит к неразрешимой проблеме, что произойдет, если я впоследствии обновлю P(B). Это сбивает людей с толку. Мне потребовалось 30 лет. Комментарии? Катлер ( обсуждение ) 16:30, 20 июля 2017 (UTC) [ ответить ]