Wariancja

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania

Wariancja to w statystyce klasyczna miara zmienności. Intuicyjnie utożsamiana ze zróżnicowaniem zbiorowości; jest średnią arytmetyczną kwadratów odchyleń (różnic) poszczególnych wartości cechy od wartości oczekiwanej.

Wariancja zmiennej losowej  X , oznaczana jako  \operatorname{Var}[X] lub  D^2 (X) , zdefiniowana jest wzorem:

\operatorname{Var}[X]=E[(X-\mu)^2],

gdzie:

E[\dots ] jest wartością oczekiwaną zmiennej losowej podanej w nawiasach kwadratowych,
\mu\; jest wartością oczekiwaną zmiennej X\;.

Innym, często prostszym sposobem wyznaczania wariancji jest wzór:

D^2(X)=E(X^2)-[E(X)]^2\;.

Wariancja jest momentem centralnym drugiego rzędu zmiennej losowej.


Jeżeli ponadto  \mathbb EX^2 \leq \infty oraz \mathcal G jest σ-ciałem zdarzeń, to wariancją warunkową nazywamy:

Var(X|\mathcal G) := \mathbb E\Big (\big ( X - \mathcal E(X|\mathcal G)\big )^2\Big | \ \mathcal G \Big )

Estymatory[edytuj | edytuj kod]

Wariancję dla szeregu szczegółowego wyznacza się ze wzoru:

 s^2 = \frac{1}{n} \sum_{i=1}^n ( x_i - m )^2

a dla szeregu rozdzielczego:

 s^2 = \frac{1}{n} \sum_{i=1}^k n_i \cdot ( x_i - m )^2

Wariancja próby losowej o wartościach x_i, gdzie i=1,2,3,..., jest następująca:

\sigma^2 = \lim_{n \to \infty} \frac{1}{n} \sum_{i=1}^n
 \left( x_i - \overline{x} \right) ^ 2.

Wariancję dla populacji można estymować za pomocą n-elementowej próby losowej. Estymator największej wiarygodności:

s^2 = \frac{1}{n} \sum_{i=1}^n \left( x_i - \overline{x} \right) ^ 2

jest zgodnym lecz obciążonym estymatorem wariancji (jest nieobciążony asymptotycznie). Innymi słowy, gdybyśmy z populacji losowali próbkę wielokrotnie i obliczali jego wyniki, to ich średnia nie byłaby równa wariancji w całej populacji. Dlatego też częściej używa się również zgodnego, lecz nieobciążonego estymatora:

s^2 = \frac{1}{n-1} \sum_{i=1}^n \left( x_i - \overline{x} \right) ^ 2.

W przypadku, gdy znamy dokładną wartość oczekiwaną \mu w populacji, wówczas estymator

s^2 = \frac{1}{n} \sum_{i=1}^n \left( x_i - \mu \right) ^ 2

jest już nieobciążony i zgodny.

Własności wariancji[edytuj | edytuj kod]

Dla zmiennych losowych X , Y i dowolnych stałych a, b, c zachodzą następujące własności:

1.\  D^2(c) = 0\;

Dowód. Korzystając z własności wartości oczekiwanej (wartość oczekiwana stałej jest równa tej stałej), mamy:

D^2(c) = E[(c-Ec)^2] = E[0^2] = E[0] = 0


2.\  D^2(X) \geq 0\;

Dowód. Korzystamy z własności wartości oczekiwanej mówiącej o tym, że jeżeli zmienna losowa jest dodatnio określona prawie wszędzie to jej wartość oczekiwana jest dodatnia. Ponieważ zmienna losowa  (X-EX)^2 jest dodatnio określona, mamy:

D^2(X) = E[(X-EX)^2] \geq 0


3.\  D^2(a \cdot X) = a^2 \cdot D^2(X)

Dowód. Korzystając z definicji wariancji, a następnie z liniowości wartości oczekiwanej mamy:

 D^2(a \cdot X)=E[(aX-E(aX))^2]= E[(aX-aEX)^2]=E[(a(X-EX))^2]=E[a^2(X-EX)^2] = a^2E[(X-EX)^2]=a^2\cdot D^2(X)


4.\ D^2(X+b) = D^2(X)\;

Dowód. Korzystamy z własności wartości oczekiwanej mówiącej o tym, że Ec=c dla c stałej i z liniowości:

 D^2(X+b)=E[(X+b-E(X+b))^2]=E[(X+b-EX-Eb)^2]=E[(X+b-EX-b)^2]=E[(X-EX)^2]=D^2(X)


5.\ D^2(X \pm Y) = D^2(X) + D^2(Y) \pm 2\operatorname{Cov}(X,Y) w ogólnym przypadku; (gdzie  \operatorname{Cov}(X,Y) to kowariancja)

Dowód. Sprawdzone zostanie tylko twierdzenie dla sumy, twierdzenie dla różnicy rozwiązuje się analogicznie. Czyli mamy:

 D^2(X+Y)= E[(X+Y-E(X+Y))^2]=E[(X+Y-EX-EY)^2]=E[((X-EX)+(Y-EY))^2]=

=E[(X-EX)^2+2(X-EX)(Y-EY)+(Y-EY)^2]=...

Korzystając z liniowości wartości oczekiwanej i definicji kowariancji, mamy:

...=E[(X-EX)^2]+2E[(X-EX)(Y-EY)]+E[(Y-EY)^2]=D^2(X)+D^2(Y)+2\operatorname{Cov}(X,Y)


Z powyższego twierdzenia łatwo wysnuć wniosek, że jeżeli zmienne X i Y są niezależne liniowo, zachodzi:

 D^2(X \pm Y) = D^2(X) + D^2(Y)


Pierwiastek kwadratowy z wariancji definiujemy jako odchylenie standardowe.

Pierwiastek z estymatora nieobciążonego wariancji jest często używany jako estymator odchylenia standardowego, jednak jest wówczas obciążony (zobacz odchylenie standardowe).

Zobacz też[edytuj | edytuj kod]

WiktionaryPl nodesc.svg
Zobacz hasło wariancja w Wikisłowniku

Bibliografia[edytuj | edytuj kod]

  • W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006, s. 48. ISBN 83-01-14292-8.
  • Jacek Jakubowski, Rafał Sztencel: Wstęp do teorii prawdopodobieństwa. Warszawa: Script, 2004, s. 84. ISBN 83-89716-01-1.