Moc testu

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
Przy niskiej mocy rozkłady prawdopodobieństwa dla statystyki testowej w hipotezie zerowej i alternatywnej znacząco się pokrywają, więc test nie rozróżnia ich rzetelnie
Rozkłady prawdopodobieństwa dla statystyki testowej w hipotezie zerowej i alternatywnej, w teście t dla dwóch grup niezależnych, przy N=60, d=0,2 co oznacza poziom mocy statystycznej ok. 12%
Przy mocy ok 70% rozkłady prawdopodobieństwa dla statystyki testowej w hipotezie zerowej i alternatywnej w znacznej części nie pokrywają się
Rozkłady prawdopodobieństwa dla statystyki testowej w hipotezie zerowej i alternatywnej, w teście t dla dwóch grup niezależnych, przy N=100, d=0,5 co oznacza poziom mocy statystycznej ok. 70%
Przy bardzo wysokiej mocy rozkłady prawdopodobieństwa statystyki testowej w hipotezie zerowej i alternatywnej pokrywają się w bardzo małym stopniu, i test z wysokim prawdopodobieństwem dobrze je rozróżni
Rozkłady prawdopodobieństwa dla statystyki testowej w hipotezie zerowej i alternatywnej, w teście t dla dwóch grup niezależnych, przy N=100, d=0,8 co oznacza poziom mocy statystycznej ok. 98%
Wizualny nomogram pozwalający oszacować moc testu dla określonej wielkości efektu.
Nomogram pozwalający oszacować moc statystyczną lub wielkość próby przy określonej wielkości efektu, dla prostych testów jak test t-Studenta.
Nawet przy mocy 80% i badaniu prawdziwego zjawiska, można się spodziewać że tylko w 51,2% przypadków trzy na trzy replikacje badania przyniosą istotny wynik.
Nawet przy mocy 80% i badaniu prawdziwego zjawiska, można się spodziewać że tylko w 51,2% przypadków trzy na trzy replikacje badania przyniosą istotny wynik.

Moc testu (moc statystyczna) to prawdopodobieństwo niepopełnienia błędu drugiego rodzaju – przyjęcia hipotezy zerowej, gdy w rzeczywistości jest ona fałszywa. Im większe jest to prawdopodobieństwo, tym lepszy jest dany test jako narzędzie do różnicowania między hipotezą prawdziwą i fałszywą. Moc można wyrazić jako dopełnienie prawdopodobieństwa popełnienia błędu drugiego rodzaju (β), czyli 1-β. Pojęcie to należy do paradygmatu częstościowego w metodologii weryfikacji hipotez statystycznych[1].

Moc zależy bezpośrednio i przede wszystkim od poniższych zmiennych, oraz od dodatkowych parametrów, głównie specyficznych dla konkretnego testu[1].

Testy różnią się ponadto mocą pomiędzy sobą, w zależności od tego na ile są stratne informacyjne, oraz w jakim stopniu są dostosowane do konkretnego rodzaju i rozkładu danych[2].

Badacze mogą podnosić moc statystyczną swoich badań poprzez celowy dobór testu oraz różne metody wpływu na powyższe zmienne. Dbałość naukowców o zapewnienie wysokiej mocy statystycznej w projektowanych badaniach zwiększa jakość nauki i oszczędza zasoby dzięki nieorganizowaniu badań zbyt słabych. Występowanie badań o niskiej mocy w połączeniu z efektem szuflady zaburza proporcje pomiędzy błędami I i II rodzaju oraz prawidłowymi rozpoznaniami w publikacjach, i zniekształca naukowy obraz rzeczywistości. Statystyk Jacob Cohen zalecił badaczom i wydawcom czasopism naukowych dążenie do przyjęcia konwencjonalnego poziomu mocy 0,8 – analogicznie do używania konwencjonalnego poziomu istotności α=0,05[1][3].

Metody zwiększania mocy badań[edytuj]

Zabiegi jakie umożliwiają naukowcom zwiększenie mocy statystycznej badań to np.[1]:

  • zwiększenie próby badawczej – szczególnie przez określenie z wyprzedzeniem oczekiwanej wielkości efektu, np. na podstawie badań innych autorów, lub własnych badań pilotażowych, i wykonanie analizy mocy a priori w celu ustalenia wielkości próby zapewniającej testom pożądaną moc[4]; rekomenduje się, aby traktować oszacowania pochodzące z małych pilotaży konserwatywnie, i jedynie orientacyjnie[5] – względnie najwiarygodniejsze przybliżenia wielkości efektu zapewniają metaanalizy[6],
  • redukcja losowej zmienności obserwowanej w próbach, np. przez wykorzystanie statystyk odpornościowych[7], większej liczby wskaźników, lub metod pomiaru z mniejszym błędem pomiaru, a wyższą trafnością i rzetelnością[8],
  • wykorzystanie testów lub struktur badania, które mają z natury wyższą moc statystyczną, takich jak testy parametryczne, prerejestrowane testy hipotez jednostronnych, oraz badania w schemacie wewnątrzgrupowym (pomiary powtarzane)[6].

Narzędzia do obliczania[edytuj]

Większość pakietów statystycznych, takich jak SPSS lub darmowe i otwarte oprogramowanie R posiada funkcje obliczania mocy. Przykładowym, najczęściej spotykanym narzędziem służącym specjalnie do tego celu jest darmowy program G*Power. Programy te pozwalają na obliczanie mocy przed badaniem (a priori), w celu określenia wielkości próby potrzebnej do osiągnięcia pożądanego poziomu mocy, jak również po badaniu (post hoc), np. na potrzeby kontroli jakości.

Przeglądy mocy statystycznej dziedzin nauki[edytuj]

Statystycy regularnie publikują rezultaty badań przeglądowych dla różnych dziedzin nauki, z których wynika że przeciętna moc badań jest dużo niższa niż rekomendowany poziom 0,8. Przykładowo, w przeglądzie dla neuronauki z 2013 r. obejmującym 49 meta-analiz i 730 osobnych badań, mediana mocy dla obserwowanych efektów wyniosła zaledwie 21%[9]. W przeglądzie badań psychologicznych z 1990 r., moc wyniosła 17% dla małych, i 57% dla średnich efektów[10] – a takie wielkości efektu najczęściej spotyka się w tej dziedzinie[11][12]. Analiza z 2006 r. obejmująca publikacje informatyczne wykazała moc 11% dla małych, i 36% dla średnich efektów[13].

Konsekwencje niskiej mocy badań[edytuj]

Nawet jeśli badacz projektuje badanie o mocy na rekomendowanym poziomie 0,8, powinien spodziewać się że badając rzeczywiście występujące zjawisko, spotka się z nieudanymi replikacjami. Przykładowo, przy tej mocy, prawdopodobieństwo przyjęcia hipotezy alternatywnej za każdym razem w trzech replikacjach wynosi bowiem tylko 0,83 ≈ 51,2%. W sytuacji w której moc badań jest bliższa poziomu α=0,05 niż 0,8, należy się spodziewać, że znaczna część wyników istotnych statystycznie jest fałszywa, natomiast nieznana część wyników nieistotnych to odrzucone pochopnie prawidłowe hipotezy. Oznacza to zniekształcenie obrazu rzeczywistości, jaki sugeruje treść opublikowanych badań, zwłaszcza w połączeniu z „efektem szuflady”.

Testy o niskiej mocy przeszacowują ponadto obserwowaną wielkość efektu prawdziwych zjawisk, ponieważ istotność statystyczną jest częściej osiągana w próbach, w których z naturalnej wariancji zjawisko występuje z większą siłą[14].

W świetle m.in. powyższych problemów, Ioannidis zadeklarował w publikacji z 2005 r., że większość publikacji naukowych może być błędna[15]. W ostatnich latach statystycy, wydawcy czasopism naukowych oraz towarzystwa zawodowe, takie jak Amerykańskie Towarzystwo Psychologiczne, rekomendują, a w niektórych wypadkach nawet wymagają od badaczy dokumentowania decyzji dotyczących wielkości próby, ze względu na systematyczny problem z niewystarczającą mocą badań[16]. Zaleca się też używanie przedziałów ufności, raportowanie wielkości efektów, prerejestrację planów badawczych, przeprowadzanie replikacji naukowych, stosowanie technik metaanalitycznych, oraz innych metod zwiększających jakość nauki[17][18][19].

Przypisy

  1. a b c d Cohen, Jacob, 1923-1998., Statistical power analysis for the behavioral sciences, L. Erlbaum Associates, 1988, ISBN 0805802835, OCLC 17877467.
  2. David Colquhoun, Lectures on Biostatistics An Introduction to Statistics with Applications in Biology and Medicine, Oxford University Press, 1971, s. 96-97 [dostęp 2017-01-09].
  3. Jacob Cohen, A power primer., „Psychological Bulletin”, 112 (1), 1992, s. 155–159, DOI10.1037/0033-2909.112.1.155, ISSN 1939-1455 [dostęp 2017-01-31] (ang.).
  4. Publikacja w otwartym dostępie – możesz ją bezpłatnie przeczytać Jeehyoung Kim, Bong Soo Seo, How to Calculate Sample Size and Why, „Clinics in Orthopedic Surgery”, 5 (3), 2017, s. 235–242, DOI10.4055/cios.2013.5.3.235, ISSN 2005-291X, PMID24009911, PMCIDPMC3758995 [dostęp 2017-01-31].
  5. Helena Chmura Kraemer i inni, Caution Regarding the Use of Pilot Studies to Guide Power Calculations for Study Proposals, „Archives of General Psychiatry”, 63 (5), 2006, DOI10.1001/archpsyc.63.5.484, ISSN 0003-990X [dostęp 2017-01-31] (ang.).
  6. a b Publikacja w otwartym dostępie – możesz ją bezpłatnie przeczytać Daniël Lakens, Calculating and reporting effect sizes to facilitate cumulative science: a practical primer for t-tests and ANOVAs, „Frontiers in Psychology”, 4, 2013, DOI10.3389/fpsyg.2013.00863, ISSN 1664-1078, PMID24324449, PMCIDPMC3840331 [dostęp 2017-01-31].
  7. David M. Erceg-Hurn, Vikki M. Mirosevich, Modern robust statistical methods: an easy way to maximize the accuracy and power of your research, „The American Psychologist”, 63 (7), 2008, s. 591–601, DOI10.1037/0003-066X.63.7.591, ISSN 0003-066X, PMID18855490 [dostęp 2017-02-01].
  8. Kanyongo i inni, Reliability and Statistical Power: How Measurement Fallibility Affects Power and Required Sample Sizes for Several Parametric and Nonparametric Statistics, „Journal of Modern Applied Statistical Methods”, 6 (1), 2007 [dostęp 2017-01-31] (ang.).
  9. Katherine S. Button i inni, Power failure: why small sample size undermines the reliability of neuroscience, „Nature Reviews Neuroscience”, 5, 2013, s. 365–376, DOI10.1038/nrn3475, ISSN 1471-003X [dostęp 2017-01-06] (ang.).
  10. J. S. Rossi, Statistical power of psychological research: what have we gained in 20 years?, „Journal of Consulting and Clinical Psychology”, 5, 1990, s. 646–656, ISSN 0022-006X, PMID2254513 [dostęp 2017-01-06].
  11. Frank A. Bosco i inni, Correlational effect size benchmarks, „The Journal of Applied Psychology”, 2, 2015, s. 431–449, DOI10.1037/a0038047, ISSN 1939-1854, PMID25314367 [dostęp 2017-01-06].
  12. F. D. Richard, Charles F. Bond, Juli J. Stokes-Zoota, One Hundred Years of Social Psychology Quantitatively Described., „Review of General Psychology”, 4, 2003, s. 331–363, DOI10.1037/1089-2680.7.4.331, ISSN 1939-1552 [dostęp 2017-01-06].
  13. Tore Dybå, Vigdis By Kampenes, Dag I. K. Sjøberg, A systematic review of statistical power in software engineering experiments, „Information and Software Technology”, 8, 2006, s. 745–755, DOI10.1016/j.infsof.2005.08.009 [dostęp 2017-01-06].
  14. John P. A. Ioannidis, Why most discovered true associations are inflated, „Epidemiology (Cambridge, Mass.)”, 5, 2008, s. 640–648, DOI10.1097/EDE.0b013e31818131e7, ISSN 1531-5487, PMID18633328 [dostęp 2017-01-06].
  15. Publikacja w otwartym dostępie – możesz ją bezpłatnie przeczytać John P. A. Ioannidis, Why Most Published Research Findings Are False, „PLOS Medicine”, 8, 2005, e124, DOI10.1371/journal.pmed.0020124, ISSN 1549-1676, PMID16060722, PMCIDPMC1182327 [dostęp 2017-01-06].
  16. Statistical methods in psychology journals: Guidelines and explanations., „American Psychologist”, 8, 1999, DOI10.1037/0003-066X.54.8.594, ISSN 1935-990X [dostęp 2017-01-06].
  17. D. Lakens, E. R. K. Evers, Sailing From the Seas of Chaos Into the Corridor of Stability: Practical Recommendations to Increase the Informational Value of Studies, „Perspectives on Psychological Science”, 3, 2014, s. 278–292, DOI10.1177/1745691614528520 [dostęp 2017-01-06] (ang.).
  18. Open Science Collaboration, An Open, Large-Scale, Collaborative Effort to Estimate the Reproducibility of Psychological Science, „Perspectives on Psychological Science”, 6, 2012, s. 657–660, DOI10.1177/1745691612462588 [dostęp 2017-01-06] (ang.).
  19. Publikacja w otwartym dostępie – możesz ją bezpłatnie przeczytać Daniel Lakens, Calculating and reporting effect sizes to facilitate cumulative science: a practical primer for t-tests and ANOVAs, „Cognition”, 4, 2013, s. 863, DOI10.3389/fpsyg.2013.00863, PMID24324449, PMCIDPMC3840331 [dostęp 2017-01-06].

Bibliografia[edytuj]

Jacob Cohen (1988), Statistical Power Analysis for the Behavioral Sciences (2nd ed.), New Jersey: Lawrence Erlbaum Associates, ISBN 0-8058-0283-5,

Zobacz też[edytuj]

Przypisy[edytuj]