Nierówność Czebyszewa

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Nierówność Czebyszewa podaje górne ograniczenie prawdopodobieństwa zdarzenia, że wartość nieujemnej zmiennej losowej jest większa lub równa od z góry ustalonej dodatniej liczby.

Jedynym warunkiem na rozkład zmiennej losowej jest jej nieujemność (ściślej: zerowe prawdopodobieństwo P\{X<0\}\;) Nierówność ta jest więc bardzo ogólnym ograniczeniem. Nierówność Czebyszewa-Bienayme jest odpowiednikiem nierówności Czebyszewa także dla zmiennych nie spełniających tego warunku i często również jest nazywana po prostu nierównością Czebyszewa, co może prowadzić do nieporozumień.

Twierdzenie[edytuj | edytuj kod]

Dla każdej zmiennej losowej \,X spełniającej warunek P\{X<0\}=0\; o wartości oczekiwanej \,E(X), dla każdego \varepsilon > 0 zachodzi:

P\left\{X \geqslant \varepsilon\right\}\leqslant \frac{E(X)}{\varepsilon}

Dowód[edytuj | edytuj kod]

Z prawdopodobieństwem 1 zachodzą następujące nierówności:

\,X \geqslant X \cdot \mathbf{1}_{\{X\geqslant\varepsilon\}} \geqslant \varepsilon \cdot \mathbf{1}_{\{X\geqslant\varepsilon\}}

gdzie \, \mathbf{1}_{A} jest funkcją wskaźnikową zdarzenia \,A, zdefiniowaną jako:

\, \mathbf{1}_{A}(x) = \begin{cases} 0\quad dla\ x \notin A \\ 1\quad dla\ x \in A \end{cases}

Pierwsza z nierówności wynika w oczywisty sposób z następujących dwóch nierówności (z których pierwsza zachodzi z prawdopodobieństwem 1):

\,X \geqslant 0 oraz \, 1 \geqslant \mathbf{1}_{A}

Druga nierówność przyjmuje postać:

\, X \cdot \mathbf{1}_{\{X\geqslant\varepsilon\}} \geqslant \varepsilon \cdot \mathbf{1}_{\{X\geqslant\varepsilon\}} \iff \begin{cases}
0 \geqslant 0 \quad dla\ X \not\geqslant \varepsilon \\
X \geqslant \varepsilon \quad dla\ X \geqslant \varepsilon \end{cases}

czyli jest oczywista.

Biorąc wartości oczekiwane powyższych zmiennych losowych i korzystając z elementarnych własności wartości oczekiwanej otrzymujemy łańcuszek nierówności:

\,E(X) \geqslant E(X \cdot \mathbf{1}_{\{X\geqslant\varepsilon\}}) \geqslant E(\varepsilon \cdot \mathbf{1}_{\{X\geqslant\varepsilon\}}) = 
\varepsilon \cdot E(\mathbf{1}_{\{X\geqslant\varepsilon\}}) = \varepsilon \cdot P\{X \geqslant \varepsilon\}

i dzieląc skrajne wyrazy przez \,\varepsilon otrzymujemy nierówność Czebyszewa.

Z nierówności Czebyszewa wynikają nierówności: Markowa, Czebyszewa-Bienayme, wykładnicza Czebyszewa.

Zobacz też[edytuj | edytuj kod]