Неравенство Маркова

Понятие в теории вероятностей
Неравенство Маркова дает верхнюю границу для меры множества (обозначено красным), где превышает заданный уровень . Граница объединяет уровень со средним значением . ф ( х ) {\displaystyle f(x)} ε {\displaystyle \varepsilon} ε {\displaystyle \varepsilon} ф {\displaystyle f}

В теории вероятностей неравенство Маркова дает верхнюю границу вероятности того , что неотрицательная случайная величина больше или равна некоторой положительной константе . Неравенство Маркова является узким в том смысле, что для каждой выбранной положительной константы существует случайная величина, такая что неравенство фактически является равенством. [1]

Названо в честь русского математика Андрея Маркова , хотя появилось ранее в трудах Пафнутия Чебышева (учителя Маркова), и многие источники, особенно в анализе , называют его неравенством Чебышева (иногда, называя его первым неравенством Чебышева, при этом ссылаясь на неравенство Чебышева как на второе неравенство Чебышева) или неравенством Бьенеме .

Неравенство Маркова (и другие подобные неравенства) связывают вероятности с ожиданиями и предоставляют (часто грубые, но все же полезные) границы для кумулятивной функции распределения случайной величины. Неравенство Маркова также можно использовать для верхней границы ожидания неотрицательной случайной величины в терминах ее функции распределения.

Заявление

Если X — неотрицательная случайная величина и a  > 0 , то вероятность того, что X по крайней мере равно a, не превышает математического ожидания X, деленного на a : [1]

П ( Х а ) Э ( Х ) а . {\displaystyle \operatorname {P} (X\geq a)\leq {\frac {\operatorname {E} (X)}{a}}.}

Когда , мы можем взять для переписать предыдущее неравенство как Э ( Х ) > 0 {\displaystyle \operatorname {E} (X)>0} а = а ~ Э ( Х ) {\displaystyle a={\tilde {a}}\cdot \operatorname {E} (X)} а ~ > 0 {\displaystyle {\тильда {а}}>0}

П ( Х а ~ Э ( Х ) ) 1 а ~ . {\displaystyle \operatorname {P} (X\geq {\tilde {a}} \cdot \operatorname {E} (X))\leq {\frac {1}{\tilde {a}}}.}

На языке теории меры неравенство Маркова утверждает, что если ( X , Σ,  μ )пространство с мерой , — измеримая расширенная вещественная функция и ε > 0 , то ф {\displaystyle f}

μ ( { х Х : | ф ( х ) | ε } ) 1 ε Х | ф | г μ . {\displaystyle \mu (\{x\in X:|f(x)|\geq \varepsilon \}) \leq {\frac {1}{\varepsilon }}\int _{X}|f|\, д\му .}

Это теоретико-мерное определение иногда называют неравенством Чебышева . [2]


Расширенная версия для неубывающих функций

Если φ — неубывающая неотрицательная функция, X — (не обязательно неотрицательная) случайная величина и φ ( a ) > 0 , то [3]

П ( Х а ) Э ( φ ( Х ) ) φ ( а ) . {\displaystyle \operatorname {P} (X\geq a)\leq {\frac {\operatorname {E} (\varphi (X))}{\varphi (a)}}.}

Непосредственное следствие, использующее более высокие моменты X , поддерживаемые значениями больше 0, имеет вид

П ( | Х | а ) Э ( | Х | н ) а н . {\displaystyle \operatorname {P} (|X|\geq a)\leq {\frac {\operatorname {E} (|X|^{n})}{a^{n}}}.}


Равномерно рандомизированное неравенство Маркова

Если X — неотрицательная случайная величина и a  > 0 , а U — равномерно распределенная случайная величина , не зависящая от X , то [4] [ 0 , 1 ] {\displaystyle [0,1]}

П ( Х У а ) Э ( Х ) а . {\displaystyle \operatorname {P} (X\geq Ua)\leq {\frac {\operatorname {E} (X)}{a}}.}

Поскольку U почти наверняка меньше единицы, эта граница строго сильнее неравенства Маркова. Примечательно, что U нельзя заменить никакой константой, меньшей единицы, что означает, что детерминированные улучшения неравенства Маркова не могут существовать в общем случае. В то время как неравенство Маркова выполняется с равенством для распределений, поддерживаемых на , указанный выше рандомизированный вариант выполняется с равенством для любого распределения, ограниченного на . { 0 , а } {\displaystyle \{0,a\}} [ 0 , а ] {\displaystyle [0,а]}


Доказательства

Мы отделяем случай, в котором пространство меры является вероятностным пространством, от более общего случая, поскольку вероятностный случай более доступен для широкого круга читателей.

Интуиция

Э ( Х ) = П ( Х < а ) Э ( Х | Х < а ) + П ( Х а ) Э ( Х | Х а ) {\displaystyle \operatorname {E} (X)=\operatorname {P} (X<a)\cdot \operatorname {E} (X|X<a)+\operatorname {P} (X\geq a)\cdot \operatorname {E} (X|X\geq a)} где больше или равно 0, так как случайная величина неотрицательна, и больше или равно, так как условное математическое ожидание учитывает только значения, большие или равные, которые может принимать случайная величина . Э ( Х | Х < а ) {\displaystyle \operatorname {E} (X|X<a)} Х {\displaystyle X} Э ( Х | Х а ) {\displaystyle \operatorname {E} (X|X\geq a)} а {\displaystyle а} а {\displaystyle а} Х {\displaystyle X}

Свойство 1: П ( Х < а ) Э ( Х Х < а ) 0 {\displaystyle \operatorname {P} (X<a)\cdot \operatorname {E} (X\mid X<a)\geq 0}

При неотрицательной случайной величине условное ожидание , поскольку . Кроме того, вероятности всегда неотрицательны, т.е. . Таким образом, произведение: Х {\displaystyle X} Э ( Х Х < а ) 0 {\displaystyle \operatorname {E} (X\mid X<a)\geq 0} Х 0 {\displaystyle X\geq 0} П ( Х < а ) 0 {\displaystyle \operatorname {P} (X<a)\geq 0}

П ( Х < а ) Э ( Х Х < а ) 0 {\displaystyle \operatorname {P} (X<a)\cdot \operatorname {E} (X\mid X<a)\geq 0} .

Это интуитивно понятно, поскольку условие still приводит к неотрицательным значениям, гарантируя, что произведение останется неотрицательным. Х < а {\displaystyle X<a}

Свойство 2: П ( Х а ) Э ( Х Х а ) а П ( Х а ) {\displaystyle \operatorname {P} (X\geq a)\cdot \operatorname {E} (X\mid X\geq a)\geq a\cdot \operatorname {P} (X\geq a)}

Для , ожидаемое значение задано как минимум . Умножая обе части на , получаем: Х а {\displaystyle X\geq a} Х а {\displaystyle X\geq a} а . Э ( Х Х а ) а {\displaystyle a.\operatorname {E} (X\mid X\geq a)\geq a} П ( Х а ) {\displaystyle \operatorname {P} (X\geq a)}

П ( Х а ) Э ( Х Х а ) а П ( Х а ) {\displaystyle \operatorname {P} (X\geq a)\cdot \operatorname {E} (X\mid X\geq a)\geq a\cdot \operatorname {P} (X\geq a)} .

Это интуитивно понятно, поскольку все рассматриваемые значения не меньше , что делает их среднее значение также больше или равным . а {\displaystyle а} а {\displaystyle а}

Отсюда интуитивно следует, что , что напрямую приводит к . Э ( Х ) П ( Х а ) Э ( Х | Х а ) а П ( Х а ) {\displaystyle \operatorname {E} (X)\geq \operatorname {P} (X\geq a)\cdot \operatorname {E} (X|X\geq a)\geq a\cdot \operatorname {P} (X\geq a)} P ( X a ) E ( X ) a {\displaystyle \operatorname {P} (X\geq a)\leq {\frac {\operatorname {E} (X)}{a}}}

Доказательство теории вероятности

Метод 1: Из определения ожидания:

E ( X ) = x f ( x ) d x {\displaystyle \operatorname {E} (X)=\int _{-\infty }^{\infty }xf(x)\,dx}

Однако X является неотрицательной случайной величиной, поэтому,

E ( X ) = x f ( x ) d x = 0 x f ( x ) d x {\displaystyle \operatorname {E} (X)=\int _{-\infty }^{\infty }xf(x)\,dx=\int _{0}^{\infty }xf(x)\,dx}

Из этого мы можем сделать вывод,

E ( X ) = 0 a x f ( x ) d x + a x f ( x ) d x a x f ( x ) d x a a f ( x ) d x = a a f ( x ) d x = a Pr ( X a ) {\displaystyle \operatorname {E} (X)=\int _{0}^{a}xf(x)\,dx+\int _{a}^{\infty }xf(x)\,dx\geq \int _{a}^{\infty }xf(x)\,dx\geq \int _{a}^{\infty }af(x)\,dx=a\int _{a}^{\infty }f(x)\,dx=a\operatorname {Pr} (X\geq a)}

Отсюда деление на позволяет нам увидеть, что a {\displaystyle a}

Pr ( X a ) E ( X ) / a {\displaystyle \Pr(X\geq a)\leq \operatorname {E} (X)/a}

Метод 2: Для любого события пусть будет индикаторной случайной величиной , то есть если происходит и в противном случае. E {\displaystyle E} I E {\displaystyle I_{E}} E {\displaystyle E} I E = 1 {\displaystyle I_{E}=1} E {\displaystyle E} I E = 0 {\displaystyle I_{E}=0}

Используя эту нотацию, имеем, если событие происходит, и если . Тогда, учитывая , I ( X a ) = 1 {\displaystyle I_{(X\geq a)}=1} X a {\displaystyle X\geq a} I ( X a ) = 0 {\displaystyle I_{(X\geq a)}=0} X < a {\displaystyle X<a} a > 0 {\displaystyle a>0}

a I ( X a ) X {\displaystyle aI_{(X\geq a)}\leq X}

что становится ясно, если рассмотреть два возможных значения . Если , то , и так . В противном случае имеем , для которого и так . X a {\displaystyle X\geq a} X < a {\displaystyle X<a} I ( X a ) = 0 {\displaystyle I_{(X\geq a)}=0} a I ( X a ) = 0 X {\displaystyle aI_{(X\geq a)}=0\leq X} X a {\displaystyle X\geq a} I X a = 1 {\displaystyle I_{X\geq a}=1} a I X a = a X {\displaystyle aI_{X\geq a}=a\leq X}

Так как — монотонно возрастающая функция, то взятие математического ожидания от обеих сторон неравенства не может обратить ее вспять. Следовательно, E {\displaystyle \operatorname {E} }

E ( a I ( X a ) ) E ( X ) . {\displaystyle \operatorname {E} (aI_{(X\geq a)})\leq \operatorname {E} (X).}

Теперь, используя линейность ожиданий, левая часть этого неравенства такая же, как

a E ( I ( X a ) ) = a ( 1 P ( X a ) + 0 P ( X < a ) ) = a P ( X a ) . {\displaystyle a\operatorname {E} (I_{(X\geq a)})=a(1\cdot \operatorname {P} (X\geq a)+0\cdot \operatorname {P} (X<a))=a\operatorname {P} (X\geq a).}

Таким образом, мы имеем

a P ( X a ) E ( X ) {\displaystyle a\operatorname {P} (X\geq a)\leq \operatorname {E} (X)}

и поскольку a  > 0, мы можем разделить обе части на  a .

Теоретико-мерное доказательство

Мы можем предположить, что функция неотрицательна, поскольку в уравнение входит только ее абсолютное значение. Теперь рассмотрим вещественную функцию s на X , заданную как f {\displaystyle f}

s ( x ) = { ε , if  f ( x ) ε 0 , if  f ( x ) < ε {\displaystyle s(x)={\begin{cases}\varepsilon ,&{\text{if }}f(x)\geq \varepsilon \\0,&{\text{if }}f(x)<\varepsilon \end{cases}}}

Тогда . По определению интеграла Лебега 0 s ( x ) f ( x ) {\displaystyle 0\leq s(x)\leq f(x)}

X f ( x ) d μ X s ( x ) d μ = ε μ ( { x X : f ( x ) ε } ) {\displaystyle \int _{X}f(x)\,d\mu \geq \int _{X}s(x)\,d\mu =\varepsilon \mu (\{x\in X:\,f(x)\geq \varepsilon \})}

и поскольку , обе стороны можно разделить на , получив ε > 0 {\displaystyle \varepsilon >0} ε {\displaystyle \varepsilon }

μ ( { x X : f ( x ) ε } ) 1 ε X f d μ . {\displaystyle \mu (\{x\in X:\,f(x)\geq \varepsilon \})\leq {1 \over \varepsilon }\int _{X}f\,d\mu .}

Дискретный случай

Теперь мы приведем доказательство для особого случая, когда — дискретная случайная величина, принимающая только неотрицательные целые значения. X {\displaystyle X}

Пусть будет положительным целым числом. По определению a {\displaystyle a} a Pr ( X > a ) {\displaystyle a\operatorname {Pr} (X>a)} = a Pr ( X = a + 1 ) + a Pr ( X = a + 2 ) + a Pr ( X = a + 3 ) + . . . {\displaystyle =a\operatorname {Pr} (X=a+1)+a\operatorname {Pr} (X=a+2)+a\operatorname {Pr} (X=a+3)+...} a Pr ( X = a ) + ( a + 1 ) Pr ( X = a + 1 ) + ( a + 2 ) Pr ( X = a + 2 ) + . . . {\displaystyle \leq a\operatorname {Pr} (X=a)+(a+1)\operatorname {Pr} (X=a+1)+(a+2)\operatorname {Pr} (X=a+2)+...} Pr ( X = 1 ) + 2 Pr ( X = 2 ) + 3 Pr ( X = 3 ) + . . . {\displaystyle \leq \operatorname {Pr} (X=1)+2\operatorname {Pr} (X=2)+3\operatorname {Pr} (X=3)+...} + a Pr ( X = a ) + ( a + 1 ) Pr ( X = a + 1 ) + ( a + 2 ) Pr ( X = a + 2 ) + . . . {\displaystyle +a\operatorname {Pr} (X=a)+(a+1)\operatorname {Pr} (X=a+1)+(a+2)\operatorname {Pr} (X=a+2)+...} = E ( X ) {\displaystyle =\operatorname {E} (X)}

Деление на дает желаемый результат. a {\displaystyle a}

Следствия

Неравенство Чебышева

Неравенство Чебышева использует дисперсию для ограничения вероятности того, что случайная величина сильно отклоняется от среднего значения. В частности,

P ( | X E ( X ) | a ) Var ( X ) a 2 , {\displaystyle \operatorname {P} (|X-\operatorname {E} (X)|\geq a)\leq {\frac {\operatorname {Var} (X)}{a^{2}}},}

для любого a > 0. [ 3] Здесь Var( X )дисперсия X, определяемая как:

Var ( X ) = E [ ( X E ( X ) ) 2 ] . {\displaystyle \operatorname {Var} (X)=\operatorname {E} [(X-\operatorname {E} (X))^{2}].}

Неравенство Чебышева следует из неравенства Маркова, если рассмотреть случайную величину

( X E ( X ) ) 2 {\displaystyle (X-\operatorname {E} (X))^{2}}

и константа, для которой неравенство Маркова имеет вид a 2 , {\displaystyle a^{2},}

P ( ( X E ( X ) ) 2 a 2 ) Var ( X ) a 2 . {\displaystyle \operatorname {P} ((X-\operatorname {E} (X))^{2}\geq a^{2})\leq {\frac {\operatorname {Var} (X)}{a^{2}}}.}

Этот аргумент можно резюмировать (где «MI» указывает на использование неравенства Маркова):

P ( | X E ( X ) | a ) = P ( ( X E ( X ) ) 2 a 2 ) M I E ( ( X E ( X ) ) 2 ) a 2 = Var ( X ) a 2 . {\displaystyle \operatorname {P} (|X-\operatorname {E} (X)|\geq a)=\operatorname {P} \left((X-\operatorname {E} (X))^{2}\geq a^{2}\right)\,{\overset {\underset {\mathrm {MI} }{}}{\leq }}\,{\frac {\operatorname {E} \left((X-\operatorname {E} (X))^{2}\right)}{a^{2}}}={\frac {\operatorname {Var} (X)}{a^{2}}}.}

Другие следствия

  1. «Монотонный» результат можно продемонстрировать следующим образом:
    P ( | X | a ) = P ( φ ( | X | ) φ ( a ) ) M I E ( φ ( | X | ) ) φ ( a ) {\displaystyle \operatorname {P} (|X|\geq a)=\operatorname {P} {\big (}\varphi (|X|)\geq \varphi (a){\big )}\,{\overset {\underset {\mathrm {MI} }{}}{\leq }}\,{\frac {\operatorname {E} (\varphi (|X|))}{\varphi (a)}}}
  2. Результат, что для неотрицательной случайной величины X функция квантиля X удовлетворяет :
    Q X ( 1 p ) E ( X ) p , {\displaystyle Q_{X}(1-p)\leq {\frac {\operatorname {E} (X)}{p}},}
    доказательство с использованием
    p P ( X Q X ( 1 p ) ) M I E ( X ) Q X ( 1 p ) . {\displaystyle p\leq \operatorname {P} (X\geq Q_{X}(1-p))\,{\overset {\underset {\mathrm {MI} }{}}{\leq }}\,{\frac {\operatorname {E} (X)}{Q_{X}(1-p)}}.}
  3. Пусть — самосопряженная матричная случайная величина и . Тогда M 0 {\displaystyle M\succeq 0} A 0 {\displaystyle A\succ 0}
    P ( M A ) tr ( E ( X ) A 1 ) {\displaystyle \operatorname {P} (M\npreceq A)\leq \operatorname {tr} (\operatorname {E} (X)A^{-1})}
    что можно доказать аналогичным образом. [5]

Примеры

Если предположить, что ни один доход не является отрицательным, неравенство Маркова показывает, что не более 10% (1/10) населения может иметь доход, превышающий средний более чем в 10 раз. [6]

Другой простой пример: Эндрю делает в среднем 4 ошибки на тестах по курсу статистики. Лучшая верхняя граница вероятности того, что Эндрю сделает не менее 10 ошибок, составляет 0,4, поскольку Обратите внимание, что Эндрю может сделать ровно 10 ошибок с вероятностью 0,4 и не сделать ни одной ошибки с вероятностью 0,6; ожидание составляет ровно 4 ошибки. P ( X 10 ) E ( X ) α = 4 10 . {\displaystyle \operatorname {P} (X\geq 10)\leq {\frac {\operatorname {E} (X)}{\alpha }}={\frac {4}{10}}.}

Смотрите также

Ссылки

  1. ^ ab Huber, Mark (2019-11-26). «Уменьшение вдвое границ неравенств Маркова, Чебышева и Чернова с помощью сглаживания». The American Mathematical Monthly . 126 (10): 915–927 . arXiv : 1803.06361 . doi : 10.1080/00029890.2019.1656484. ISSN  0002-9890.
  2. ^ Стайн, Э. М .; Шакарчи, Р. (2005), Реальный анализ , Принстонские лекции по анализу , т. 3 (1-е изд.), стр. 91.
  3. ^ ab Lin, Zhengyan (2010). Вероятностные неравенства . Springer. стр. 52.
  4. ^ Рамдас, Аадитья; Маноле, Тудор (2023), Рандомизированные и взаимозаменяемые улучшения неравенств Маркова, Чебышева и Чернова , arXiv : 2304.02611.
  5. ^ Ту, Стивен (2017-11-04). "Неравенство Маркова для матриц" . Получено 27 мая 2024 г.
  6. ^ Росс, Кевин. 5.4 Вероятностные неравенства | Введение в вероятность и моделирование.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Markov%27s_inequality&oldid=1262797655"