Jednoczynnikowa analiza wariancji

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania

Jednoczynnikowa analiza wariancji jest testem statystycznym służącym do porównywania średnich w wielu populacjach. Nazwa metody pochodzi od algorytmu postępowania przy testowaniu układu hipotez. Całkowita wariancja (zmienność wyników) dzielona jest na część pochodzącą z różnic między populacjami (zabiegami) oraz część pochodzącą z różnic między wynikami wewnątrz populacji (błąd losowy).

Założenia[edytuj | edytuj kod]

Wyniki uzyskane metodą analizy wariancji mogą być uznane za prawdziwe, gdy spełnione są następujące założenia:

W przypadku, gdy założenia analizy wariancji nie są spełnione należy posługiwać się testem Kruskala-Wallisa.

Teoria[edytuj | edytuj kod]

Rozważmy  r \, populacji o rozkładzie normalnym, jednakowej wariancji  \sigma^2 \, i wartości oczekiwanej  \mu_i \,, gdzie  i = 1, \dots ,r . Z populacji tych losujemy niezależne próby o liczebnościach  n_i \,, na których przeprowadzamy pomiary otrzymując wartości  x_{ij} \, dla  i=1, \dots , r , j= 1 \dots , n_i . Całkowita wielkość próby wynosi n=n_1+n_2+ \cdots +n_r\;.

Układ hipotez jest następujący:

  • Hipoteza zerowa:
    H_0\colon \mu_1=\mu_2= \dots =\mu_r\;
  • Hipoteza alternatywna:
    H_1\colon\; nie wszystkie  \mu_i \; są sobie równe (i = 1, \dots ,r) \;

Do weryfikacji powyższej hipotezy obliczamy wartość statystyki  F \, postaci:

 F= \frac{MSTR}{MSE}\;

gdzie:

  • MSTR = \frac{1}{r-1} \sum\limits_{i=1}^r n_i(\overline{x_i}-\widehat{x})^2 \; oznacza średni kwadratowy błąd "zabiegowy",
  • MSE = \frac{1}{n-r} \sum_{i=1}^r\sum_{j=1}^{n_i} (x_{ij} - \overline{x_i})^2 \; oznacza średni kwadratowy błąd losowy,
  •  \overline {x_i} \, oznacza średnią arytmetyczną z i-tej próby,
  •  \widehat {x}\; oznacza średnią arytmetyczną ze wszystkich obserwacji ze wszystkich r prób.

Przy założeniu prawdziwości hipotezy zerowej statystyka  F \, ma rozkład F-Snedecora z  r-1 \; stopniami swobody w liczniku i  n-r\; stopniami swobody w mianowniku. Obszar krytyczny jest postaci:

 Q = \{ F \colon F \geqslant F_{\alpha} \}

gdzie  F_{\alpha} \, jest wartością krytyczną odczytaną z tablic rozkładu F-Snedecora dla  ( r-1, n-r ) \, stopni swobody.

  • Jeżeli obliczona wartość statystyki  F \, należy do obszaru krytycznego  Q \, to hipotezę zerową odrzucamy na korzyść hipotezy alternatywnej i wnioskujemy, że badane średnie nie są jednorodne.
  • Jeżeli obliczona wartość statystyki  F \, nie należy do obszaru krytycznego  Q \, to nie ma podstaw do odrzucenia hipotezy zerowej i wnioskujemy, że badane średnie są jednorodne.

Przykład[edytuj | edytuj kod]

Fabryka gwoździ zamierza kupić jedną z czterech maszyn do produkcji. Wszystkie maszyny mają podobną cenę. Na podstawie analizy wariancji należy sprawdzić czy istnieje istotna różnica między wydajnościami maszyn. Tabela przedstawia procentowe wydajności uzyskane na poszczególnych maszynach.

Maszyna A Maszyna B Maszyna C Maszyna D
93.95 93.12 95.61 96.11
96.18 90.01 92.61 91.97
90.59 94.22 95.73 96.43
87.86 90.91 91.17 92.93
93.00 93.12 91.53 95.13
93.28 90.70 90.45 94.70
93.50 93.85 93.35 97.08
96.66 93.18 91.12 94.50
92.33 92.98 93.41 96.42
95.71 92.88 93.15 94.96
93.20 91.24 94.02 91.88
97.96 90.41 93.94 95.93
90.96 91.79 90.89 94.75
90.52 93.14 92.53 90.85
95.59 91.03 92.83 93.96
96.07 95.12 94.43 93.07
92.13 93.38 89.8 100.82
95.24 89.73 93.20 94.54
94.10 94.98 94.77 95.75



Wyniki dla każdej z maszyn należy traktować jak inną populację.
W zadaniu r = 4, a każde próba ni ma wielkość 19. Łączna wartość próby n wynosi zatem 76.

Dla danych z tabeli:

MSTR = 21.23\;


MSE = 4.26\;

Wartość emipryczna statystyki F wynosi 4.99

Liczba stopni swobody licznika wynosi 3, natomiast liczba stopni swobody mianownika wynosi 72.

Dla rozkładu F-Snedecora(3,72) wartość krytyczna na poziomie istotności α = 0.05 wynosi 2.732[1] . Obliczona wartość empiryczna statystyki testowej odpowiada p-wartości równej  0.0034\;

Należy zatem odrzucić hipotezę zerową na rzecz hipotezy alternatywnej.

Dalsza analiza[edytuj | edytuj kod]

Analiza wariancji daje informację tylko o tym czy między populacjami występują istotne statystycznie różnice. Nie mówi ona, które populacje różnią się między sobą. Na podstawie przeprowadzonego testu można powiedzieć, że między wydajnościami maszyn występują różnice. Przeprowadzając badanie za pomocą jednoczynnikowej analizy wariancji nie wiadomo, które maszyny mają tę samą wydajność, a które różnią się między sobą. Odpowiedź na to pytanie można uzyskać stosując testy post hoc, np. test Tukey'a.

Przypisy

Bibliografia[edytuj | edytuj kod]

Siegmund Brandt, Lech Szymanowski: Analiza danych : metody statystyczne i obliczeniowe. Warszawa: Wydawnictwo Naukowe PWN, 1998. ISBN 83-01-12425-3.

Zobacz też[edytuj | edytuj kod]