Показать меню

Неравенство Маркова

03.04.2021
19

Неравенство Маркова в теории вероятностей даёт оценку вероятности, что неотрицательная случайная величина превзойдёт по модулю фиксированную положительную константу, в терминах её математического ожидания. Хотя получаемая оценка обычно груба, она позволяет получить определённое представление о распределении, когда последнее не известно явным образом.

Формулировка

Пусть неотрицательная случайная величина X : Ω → R + {displaystyle Xcolon Omega o mathbb {R} ^{+}} определена на вероятностном пространстве ( Ω , F , P ) {displaystyle (Omega ,{mathcal {F}},mathbb {P} )} , и её математическое ожидание E X {displaystyle mathbb {E} X} конечно. Тогда

P ( X ⩾ a ) ⩽ E X a {displaystyle mathbb {P} left(Xgeqslant a ight)leqslant {frac {mathbb {E} X}{a}}} ,

где a > 0 {displaystyle a>0} .

Примеры

1. Пусть X ⩾ 0 {displaystyle Xgeqslant 0} — неотрицательная случайная величина. Тогда, взяв a = 2 E X {displaystyle a=2mathbb {E} X} , получаем

P ( X ⩾ 2 E X ) ⩽ 1 2 {displaystyle mathbb {P} (Xgeqslant 2mathbb {E} X)leqslant {frac {1}{2}}} .

2. Пусть в среднем ученики опаздывают на 3 минуты, и нас интересует, какова вероятность того, что ученик опоздает на 15 и более минут. Чтобы получить грубую оценку сверху, можно воспользоваться неравенством Маркова:

P ( | X | ⩾ 15 ) ⩽ 3 15 = 0 , 2 {displaystyle mathbb {P} (|X|geqslant 15)leqslant {frac {3}{15}}=0{,}2} .

Доказательство

Пусть неотрицательная случайная величина X {displaystyle X} имеет плотность распределения p ( x ) {displaystyle p(x)} , тогда для a > 0 {displaystyle a>0}

E X = ∫ 0 ∞ x p ( x ) d x ⩾ ∫ a ∞ x p ( x ) d x ⩾ ∫ a ∞ a p ( x ) d x = a P ( X ⩾ a ) {displaystyle mathbb {E} X=int _{0}^{infty }xp(x)dxgeqslant int _{a}^{infty }xp(x)dxgeqslant int _{a}^{infty }ap(x)dx=amathbb {P} left(Xgeqslant a ight)} .

Связь с другими неравенствами

Если в неравенство подставить вместо случайной величины X {displaystyle X} случайную величину ( Y − E Y ) 2 {displaystyle (Y-mathbb {E} Y)^{2}} , то получим неравенство Чебышёва:

P ( | Y − E ( Y ) | ≥ b ) ≤ Var ( Y ) b 2 . {displaystyle mathbb {P} (|Y-mathbb {E} (Y)|geq b)leq {frac {{ extrm {Var}}(Y)}{b^{2}}}.}

И наоборот, представив неотрицательную случайную величину X {displaystyle X} в виде квадрата другой случайной величины X = Y 2 {displaystyle X=Y^{2}} , такой что E Y = 0 {displaystyle mathbb {E} Y=0} , из неравенства Чебышева для Y {displaystyle Y} получим неравенство Маркова для X {displaystyle X} . Распределение случайной величины Y {displaystyle Y} определяется так: P ( Y < − a ) = P ( Y > a ) = P ( X > a ) / 2 {displaystyle mathbb {P} (Y<-{sqrt {a}})=mathbb {P} (Y>{sqrt {a}})=mathbb {P} (X>a)/2} , P ( Y = 0 ) = P ( X = 0 ) {displaystyle mathbb {P} (Y=0)=mathbb {P} (X=0)} .

Если ϕ ( x ) {displaystyle phi (x)} произвольная положительная неубывающая функция, то

P ( X ⩾ a ) = P ( ϕ ( X ) ⩾ ϕ ( a ) ) ⩽ E [ ϕ ( X ) ] ϕ ( a ) {displaystyle mathbb {P} left(Xgeqslant a ight)=mathbb {P} left(phi (X)geqslant phi (a) ight)leqslant {frac {mathbb {E} left[phi (X) ight]}{phi (a)}}} .

В частности при ϕ ( x ) = e x t {displaystyle phi (x)=e^{xt}} , для любых t ⩾ 0 {displaystyle tgeqslant 0}

P ( X ⩾ a ) ⩽ E [ e X t ] e a t = M X ( t ) e a t {displaystyle mathbb {P} left(Xgeqslant a ight)leqslant {frac {mathbb {E} left[e^{Xt} ight]}{e^{at}}}={frac {M_{X}(t)}{e^{at}}}} ,

где M X ( t ) {displaystyle M_{X}(t)} — производящая функция моментов. Минимизируя правую часть по t {displaystyle t} , получим неравенство Чернова.

Неравенство Чернова дает лучшую оценку, чем неравенство Чебышёва, а неравенство Чебышёва — лучшую, чем неравенство Маркова. Это неудивительно, поскольку неравенство Маркова предполагает знание только первого момента случайной величины X {displaystyle X} , Чебышёва — первого и второго, Чернова — всех моментов.

Еще по этой теме:
Теорема Гротендика о расщеплении
15:52, 18 декабрь
Теорема Гротендика о расщеплении
Теорема Гротендика о расщеплении даёт классификацию голоморфных векторных расслоений над комплексной проективной прямой. А именно, она утверждает, что каждое голоморфное векторное расслоение над
Линейная частотная модуляция
20:29, 16 декабрь
Линейная частотная модуляция
Линейная частотная модуляция (ЛЧМ) сигнала — это вид частотной модуляции, при которой частота несущего сигнала изменяется по линейному закону. Математическое описание Во временной области
Гладкая функция
08:57, 13 декабрь
Гладкая функция
Гладкая функция, или непрерывно дифференцируемая функция, — функция, имеющая непрерывную производную на всём множестве определения. Очень часто под гладкими функциями подразумевают функции, имеющие
Большой термодинамический потенциал
09:10, 11 декабрь
Большой термодинамический потенциал
Большой термодинамический потенциал (потенциал Ландау) — термодинамический потенциал, используемый для описания систем с переменным числом частиц (большого канонического ансамбля). Был введён Гиббсом
Вязкостное решение
04:18, 06 декабрь
Вязкостное решение
Вязкостное решение — определённый тип слабого решения дифференциального уравнения в частных производных, а точнее вырожденного эллиптического уравнения. Определения Вырожденное эллиптическое
Тождество Якоби
10:05, 05 декабрь
Тождество Якоби
Тождество Якоби — математическое тождество на билинейную операции [ ⋅ , ⋅ ] : V × V
Комментарии:
Добавить комментарий
Ваше Имя:
Ваш E-Mail:
  • bowtiesmilelaughingblushsmileyrelaxedsmirk
    heart_eyeskissing_heartkissing_closed_eyesflushedrelievedsatisfiedgrin
    winkstuck_out_tongue_winking_eyestuck_out_tongue_closed_eyesgrinningkissingstuck_out_tonguesleeping
    worriedfrowninganguishedopen_mouthgrimacingconfusedhushed
    expressionlessunamusedsweat_smilesweatdisappointed_relievedwearypensive
    disappointedconfoundedfearfulcold_sweatperseverecrysob
    joyastonishedscreamtired_faceangryragetriumph
    sleepyyummasksunglassesdizzy_faceimpsmiling_imp
    neutral_faceno_mouthinnocent