Jednoczynnikowa analiza wariancji

Z Wikipedii, wolnej encyklopedii

Jednoczynnikowa analiza wariancjitest statystyczny służący do porównywania średnich w wielu populacjach.

Nazwa metody pochodzi od algorytmu postępowania przy testowaniu układu hipotez. Całkowita wariancja (zmienność wyników) dzielona jest na część pochodzącą z różnic między populacjami (zabiegami) oraz część pochodzącą z różnic między wynikami wewnątrz populacji (błąd losowy).

Założenia[edytuj | edytuj kod]

Wyniki uzyskane metodą analizy wariancji mogą być uznane za prawdziwe, gdy spełnione są następujące założenia:

W przypadku, gdy założenia analizy wariancji nie są spełnione, należy posługiwać się testem Kruskala-Wallisa.

Teoria[edytuj | edytuj kod]

Rozważmy populacji o rozkładzie normalnym, jednakowej wariancji i wartości oczekiwanej gdzie Z populacji tych losujemy niezależne próby o liczebnościach na których przeprowadzamy pomiary, otrzymując wartości dla Całkowita wielkość próby wynosi

Układ hipotez jest następujący:

  • Hipoteza zerowa:
  • Hipoteza alternatywna:
    nie wszystkie są sobie równe

Do weryfikacji powyższej hipotezy obliczamy wartość statystyki postaci:

gdzie:

  • oznacza średni kwadratowy błąd „zabiegowy”,
  • oznacza średni kwadratowy błąd losowy,
  • oznacza średnią arytmetyczną z i-tej próby,
  • oznacza średnią arytmetyczną ze wszystkich obserwacji ze wszystkich prób.

Przy założeniu prawdziwości hipotezy zerowej statystyka ma rozkład F-Snedecora z stopniami swobody w liczniku i stopniami swobody w mianowniku.

Obszar krytyczny jest postaci:

gdzie jest wartością krytyczną odczytaną z tablic rozkładu F-Snedecora dla stopni swobody.

  • Jeżeli obliczona wartość statystyki należy do obszaru krytycznego to hipotezę zerową odrzucamy na korzyść hipotezy alternatywnej i wnioskujemy, że badane średnie nie są jednorodne.
  • Jeżeli obliczona wartość statystyki nie należy do obszaru krytycznego to nie ma podstaw do odrzucenia hipotezy zerowej i wnioskujemy, że badane średnie są jednorodne.

Przykład[edytuj | edytuj kod]

Fabryka gwoździ zamierza kupić jedną z czterech maszyn do produkcji. Wszystkie maszyny mają podobną cenę. Na podstawie analizy wariancji należy sprawdzić czy istnieje istotna różnica między wydajnościami maszyn. Tabela przedstawia procentowe wydajności uzyskane na poszczególnych maszynach.

Maszyna A Maszyna B Maszyna C Maszyna D
93,95
96,18
90,59
87,86
93,00
93,28
93,50
96,66
92,33
95,71
93,20
97,96
90,96
90,52
95,59
96,07
92,13
95,24
94,10
93,12
90,01
94,22
90,91
93,12
90,70
93,85
93,18
92,98
92,88
91,24
90,41
91,79
93,14
91,03
95,12
93,38
89,73
94,98
95,61
92,61
95,73
91,17
91,53
90,45
93,35
91,12
93,41
93,15
94,02
93,94
90,89
92,53
92,83
94,43
89,8
93,20
94,77
96,11
91,97
96,43
92,93
95,13
94,70
97,08
94,50
96,42
94,96
91,88
95,93
94,75
90,85
93,96
93,07
100,82
94,54
95,75

Wyniki dla każdej z maszyn należy traktować jak inną populację.
W zadaniu r = 4, a każde próba ni ma wielkość 19. Łączna wartość próby n wynosi zatem 76.

Dla danych z tabeli:

Wartość emipryczna statystyki F wynosi 4,99

Liczba stopni swobody licznika wynosi 3, natomiast liczba stopni swobody mianownika wynosi 72.

Dla rozkładu F-Snedecora(3,72) wartość krytyczna na poziomie istotności α = 0,05 wynosi 2,732[1]. Obliczona wartość empiryczna statystyki testowej odpowiada -wartości równej

Należy zatem odrzucić hipotezę zerową (wydajność maszyn jest taka sama) na rzecz hipotezy alternatywnej (jedna z maszyn ma statystycznie różną wydajność od pozostałych).

Dalsza analiza[edytuj | edytuj kod]

Analiza wariancji daje informację tylko o tym czy między populacjami występują istotne statystycznie różnice. Nie mówi ona, które populacje różnią się między sobą. Dla przykładu, na podstawie przeprowadzonego testu można powiedzieć, że między wydajnościami maszyn występują różnice, przeprowadzając badanie za pomocą jednoczynnikowej analizy wariancji nie wiadomo jednak, które maszyny mają tę samą wydajność, a które różnią się między sobą. Odpowiedź na te pytanie można uzyskać stosując dodatkowe testy, zwane testami porównań wielokrotnych (tzw. post-hoc) – przykłady takich algorytmów stanowią test Tukeya lub test NIR.

Test NIR

Test ten ma na celu wyznaczenie tzw. najmniejszych istotnych różnic dla każdej pary oraz (dla oraz ) – wyznaczenie te odbywa się w oparciu o wzór ogólny o postaci:

gdzie: stanowi wartość odczytaną z tablic rozkładu t-Studenta o stopniach swobody.

Mając na uwadze powyższe przyjmuje się, że jeśli prawdziwa jest nierówność wartości oraz różnią się istotnie pomiędzy sobą[2].

Zobacz też[edytuj | edytuj kod]

Przypisy[edytuj | edytuj kod]

Bibliografia[edytuj | edytuj kod]

  • Siegmund Brandt, Lech Szymanowski: Analiza danych. Metody statystyczne i obliczeniowe. Warszawa: Wydawnictwo Naukowe PWN, 1998. ISBN 83-01-12425-3.