Przejdź do zawartości

Statystyka w ujęciu bayesowskim

Z Wikipedii, wolnej encyklopedii
Thomas Bayes

Statystyka bayesowska (ang. Bayesian statistics) – podejście rozwijane we współczesnej statystyce, będące alternatywą dla klasycznej, częstościowej statystyki opartej na testach istotności statystycznej hipotezy zerowej i przedziałach ufności[1]. Oparta jest na bayesowskiej koncepcji prawdopodobieństwa (czyli prawdopodobieństwie subiektywnym), gdzie prawdopodobieństwo interpretowane jest jako stopień wiary w wystąpienie danego wydarzenia. Nazwa tego podejścia pochodzi od nazwiska angielskiego matematyka i duchownego Thomasa Bayesa, który był twórcą twierdzenia Bayesa, a więc twierdzenie sformułowanego w ramach rachunku prawdopodobieństwa, wiążącego prawdopodobieństwa warunkowe dwóch zdarzeń warunkujących się nawzajem[1]. W statystyce bayesowskiej wykorzystuje się wnioskowanie bayesowskie, będące alternatywą dla wnioskowania częstościowego[1].

Powstanie i rozwój statystyki bayesowskiej[edytuj | edytuj kod]

Podstawą statystyki bayesowskiej jest twierdzenie Bayesa, które zostało po raz pierwszy opublikowane w 1763 r. (a więc dwa lata po śmierci jego autora) w książce An Essay towards solving a Problem in the Doctrine of Chances. Zwolennikami podejścia bayesowskiego byli najwybitniejsi matematycy jak Pierre Simon de Laplace i Henri Poincaré, a także znany ekonomista John Maynard Keynes[2]. Jednak dopiero rozwój i upowszechnienie współczesnych komputerów umożliwił przekształcenie się podejścia zapoczątkowanego przez Bayesa w poważny i awangardowy nurt współczesnej statystyki[2]. Współczesna statystyka bayesowska, wzbogacona o narzędzia informatyczne (np. język programowania R, program JASP itd.), umożliwia stawianie i rozwiązywanie problemów niedostępnych dla klasycznej statystyki częstościowej[2].

Ważną postacią dla rozwoju statystyki bayesowskiej był Harold Jeffreys, brytyjski astronom, statystyk i geofizyk. Nazwa programu do analizy statystycznej JASP (notabene umożliwiającego szeroki wybór procedur statystyki bayesowskiej) jest akronimem od Jeffreys’s Amazing Statistics Program i stanowi uhonorowanie (ze strony twórców programu) jego zasług dla rozwoju statystyki bayesowskiej[3]. Włoski matematyk Bruno de Finetti, który również rozwijał subiektywne rozumienie prawdopodobieństwa, wyraził znane, chociaż budzące kontrowersje wśród statystyków stwierdzenie: Prawdopodobieństwo nie istnieje (ang. Probability does not exist)[4]. Stwierdzenie to jest wyrazem sceptycyzmu co do istnienia prawdopodobieństwa w sensie obiektywnym. Izraelski informatyk Judea Pearl oraz amerykański matematyk Richard Neapolitan zapoczątkowali rozwój sieci bayesowskich. Izraelski statystyka Gideon Schwarz stworzył Bayesowskie kryterium informacyjne Schwarza[5], jeden ze wskaźników dopasowania modelu, używany w modelowaniu równań strukturalnych. Innymi współczesnymi statystykami rozwijającymi podejście bayesowskie są Dennis Lindley oraz Nils Lid Hjort.

Porównanie podejścia klasycznego i bayesowskiego[edytuj | edytuj kod]

Statystyka bayesowska różni się od podejścia klasycznego zarówno pod względem postrzegania tego, czym jest prawdopodobieństwo (czy ma ono charakter obiektywny, czy subiektywny), stosowanego wnioskowania statystycznego, odwoływania się do testów istotności statystycznej i przedziałów ufności, aby wesprzeć wnioskowanie statystyczne[1].

Podejście klasyczne (częstościowe) Podejście bayesowskie
Prawdopodobieństwo Obiektywne Subiektywne
Wnioskowanie statystyczne Wnioskowanie częstościowe Wnioskowanie bayesowskie
Testy istotności statystycznej Tak Nie
Przedziały ufności Tak Nie
Prawdopodobieństwo warunkowe Nie Tak

Metody statystyki bayesowskiej[edytuj | edytuj kod]

W statystyce bayesowskiej odróżnia się dwa rodzaje prawdopodobieństwa:
1) prawdopodobieństwo początkowe (a priori) – mówi o tym, że hipoteza jest prawdziwa i jest ono subiektywnie określane przez osobę interpretującą wyniki,
2) prawdopodobieństwo końcowe (a posteriori) – jest tym, co badacz chce obliczyć. Jest ono obliczane na podstawie prawdopodobieństwa początkowego i w oparciu o dane, wykorzystując do tego tzw. czynnik Bayesa (wskaźnik, który jest obliczany na podstawie danych i oceniający szansę na to, że hipoteza nie jest prawdziwa)[6].

Metody używane w statystyce bayesowskiej wymagają użycia informacji zdobytych a priori i danych empirycznych w celu wygenerowania rozkładu a posteriori, który z kolei posłuży do sformułowania wniosku statystycznego. Celem statystyki bayesowskiej jest ustalenie prawdopodobieństwa końcowego (prawdopodobieństwa a posteriori) dla testowanej hipotezy[7].

King i Minium w swoim podręczniku[8] podają następujący przykład ilustrujący logikę wnioskowania bayesowskiego i różnicę pomiędzy nim a podejściem klasycznym: Pewna osoba budzi się w środku nocy z bólem głowy. W ciemności wybiera z apteczki jedną z trzech butelek z lekarstwem i zażywa tablektę. Po pewnym czasie budzi się spocona, mając dreszcze i mdłości. Po włączeniu światła okazuje się, że w dwóch butelkach z apteczki była aspiryna, a w trzeciej trucizna. Jak można obliczyć prawdopodobieństwo, że dana osoba zażyła truciznę? Posiadamy dodatkowo informację, że prawdopodobieństwo pojawienia się wskazanych wyżej objawów po zażyciu aspiryny wynosi 5%, zaś po zażyciu trucizny 80%. Zgodnie z podejściem klasycznym w statystyce prawdopodobieństwo wynosi 33%. Natomiast zgodnie z podejściem bayesowskim wynosi ono 89%, gdyż uwzględniono również informacje dotyczące prawdopodobieństwa wystąpienia objawów[1].

Przypisy[edytuj | edytuj kod]

  1. a b c d e Bruce M. King, Edward W. Minium, Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa 2009, s. 442–443.
  2. a b c Marek Biesiada. Statystyka w ujęciu Bayesowskim. Skrypty dla studentów Ekonofizyki na Uniwersytecie Śląskim.
  3. Oficjalna strona programu JASP
  4. John J. O’Connor; Edmund F. Robertson: Bruno de Finetti w MacTutor History of Mathematics archive
  5. Bohn, M. A. (2015, June). Assessment of description quality of models by information theoretical criteria based on Akaike and Schwarz-Bayes applied with stability data of energetic materials. In „Proceedings of the 46th international annual conference of the Fraunhofer ICT” (pp. 6-1).
  6. Bruce M. King, Edward W. Minium, Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa 2009, s. 442–444.
  7. Bruce M. King, Edward W. Minium, Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa 2009, s. 443.
  8. Bruce M. King, Edward W. Minium, Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa 2009, s. 442.