Rozkład prawdopodobieństwa

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Rozkład prawdopodobieństwa – w najczęstszej interpretacji (rozkład zmiennej losowej) miara probabilistyczna określona na sigma-ciele podzbiorów zbioru wartości zmiennej losowej (wektora losowego), pozwalająca przypisywać prawdopodobieństwa zbiorom wartości tej zmiennej, odpowiadającym zdarzeniom losowym. Formalnie rozkład prawdopodobieństwa może być jednak rozpatrywany także bez stosowania zmiennych losowych.

Definicja[edytuj | edytuj kod]

Rozkładem prawdopodobieństwa nazywa się dowolną miarę probabilistyczną P\; określoną na σ-ciele podzbiorów borelowskich pewnej przestrzeni polskiej. Dla rozkładów ciągłych często jest nią zbiór liczb rzeczywistych \mathbb R (tzw. rozkład jednowymiarowy) lub przestrzeń euklidesowa \mathbb{R}^n dla pewnej liczby naturalnej n\; (rozkład wielowymiarowy).

Zastosowanie dla zmiennych losowych[edytuj | edytuj kod]

Zwykle rozważa się tzw. przestrzeń probabilistyczną, złożoną z przestrzeni zdarzeń elementarnych \Omega\;, określonego na niej σ-ciała \mathcal F, którego elementy są nazywane zdarzeniami losowymi, oraz miary probabilistycznej P\;, przyporządkowującej zdarzeniom liczby zwane prawdopodobieństwami. Tak określone prawdopodobieństwa są jednak niewygodne do badania, gdyż \Omega\; może być dowolnym zbiorem, nawet bez zadanych jakichkolwiek relacji między jego elementami.

Wprowadza się zatem funkcję mierzalną zwaną zmienną losową, która przyporządkowuje elementom przestrzeni zdarzeń elementarnych \Omega\; elementy pewnej przestrzeni mierzalnej Y\; o pożądanych właściwościach[1]. Najczęściej wykorzystuje się przestrzeń euklidesową Y=\mathbb R^n, n\in\mathbb N_{+}\; a zmienną nazywa się wówczas wektorem losowym. Czasem miano zmiennej losowej rezerwuje się tylko dla przypadku jednowymiarowego Y=\mathbb R\;.

Obrazem każdego zdarzenia losowego (elementu rodziny\mathcal F) poprzez zmienną losową X\; jest mierzalny podzbiór Y\;. Mierzalne podzbiory Y\; tworzą także σ-ciało \mathcal B(Y)\;. Ponieważ zmienna losowa nie musi być funkcją różnowartościową, więc ten sam zbiór mierzalny A\in\mathcal B(Y)\; można w ogólnym przypadku otrzymać z wielu różnych zdarzeń o różnych prawdopodobieństwach. Aksjomaty σ-ciała zapewniają, że wśród tych zdarzeń jest także ich suma i do niej jest przypisane największe prawdopodobieństwo. Suma ta jest równa przeciwobrazowi zbioru A\;, czyli X^{-1}(A)\;.

Rozkład zmiennej losowej X\; to funkcja P_X\; określona na \mathcal B(Y)\; wzorem P_X(A) = P (X^{-1}(A)),\ A\in \mathcal B(Y)\;.

Rozkład P_X\; jest nową miarą probabilistyczną. Jest on w przestrzeni stanów Y\; odpowiednikiem miary probabilistycznej P\;.
Uwaga: Zapis P_X\; gdzie X\; jest zdarzeniem a nie zmienną losową jest stosowany na oznaczenie prawdopodobieństwa warunkowego.

Wyróżnia się niżej omówione rozkłady ciągłe i dyskretne, jednak należy pamiętać, iż oprócz nich istnieją także rozkłady nie mieszczące się w żadnej z tych kategorii – na przykład rozkład o dystrybuancie Cantora.

Rozkład ciągły[edytuj | edytuj kod]

Jeżeli istnieje funkcja f\colon Y\to [0,\infty)\;, taka że

P(A)=\int\limits_A~f(x)\;dx

(całka Lebesgue'a) dla dowolnego zbioru borelowskiego A \in \mathcal B(Y), to funkcję tę nazywa się gęstością (rozkładu) prawdopodobieństwa lub funkcją gęstości prawdopodobieństwa. Nazwa pochodzi od intuicji fizycznych, zob. gęstość masy. O rozkładzie P\; mającym gęstość mówi się, że jest ciągły (lub typu ciągłego).

Powyższa definicja jest poprawna dla dowolnych rozkładów prawdopodobieństwa, także wielowymiarowych – wówczas x\; jest wektorem.

Rozkład P_X\; zmiennej losowej X\; spełniający powyższe warunki definiuje się analogicznie. O zmiennej losowej również mówi się wówczas, iż jest ciągła (lub typu ciągłego).

Rozkład dyskretny[edytuj | edytuj kod]

Rozkład P nazywa się dyskretnym, jeśli jest skupiony na zbiorze przeliczalnym, tzn. istnieje zbiór (co najwyżej) przeliczalny S \subseteq Y dla którego P(S) = 1. Jeżeli

S = \{s_i\colon i \in I\} oraz p_i = P(\{s_i\}) dla każdego i \in I,

to dla dowolnego zbioru borelowskiego A

P(A) = P(A \cap S) = \sum_{i \in I}~p_i \boldsymbol 1_A(s_i),

gdzie \boldsymbol 1_A to indykator (funkcja charakterystyczna) zbioru A.

Zatem zbiór par \{(s_i, p_i)\colon i \in I\} jednoznacznie wyznacza rozkład P. Stąd dowolny zbiór tej postaci, gdzie p_i > 0 oraz \sum p_i = 1 (co wynika z własności rozkładu), nazywa się czasami rozkładem (dyskretnym). Odwzorowanie s_i \mapsto p_i, oznaczane \operatorname{pmf}(s_i) = p_i, nosi nazwę funkcji masy prawdopodobieństwa i jest ono dyskretnym odpowiednikiem gęstości prawdopodobieństwa.

Dyskretna zmienna losowa X to zmienna losowa o rozkładzie dyskretnym. Wówczas można go zdefiniować podobnie jak wyżej równością

P_X(\{x_i\}) = P (X^{-1}(A)),

jednakże w tym wypadku zachodzi dodatkowo

P (X^{-1}(A)) = P (\{\omega \in \Omega\colon X(\omega) = x_i\}) \overset\underset\mathrm{ozn}\ {=} P (X = x_i) \overset\underset\mathrm{ozn}\ {=} \operatorname{pmf}_X(x_i),

gdzie \left\{x_i\right\}_{i \in I} jest zbiorem wszystkich wartości przyjmowanych przez zmienną X.

Dystrybuanta[edytuj | edytuj kod]

 Osobny artykuł: dystrybuanta.

Badanie rozkładu jako miary jest zadaniem dość trudnym, jednak można je znacząco uprościć wprowadzając funkcję dystrybuanty, która całkowicie go opisuje i jest funkcją przestrzeni euklidesowej w przedział [0,1].

Dystrybuanta rozkładu jednowymiarowego[edytuj | edytuj kod]

Dystrybuanta jednowymiarowego rozkładu (prawdopodobieństwa) P\; to funkcja F_P\colon \mathbb R \to \mathbb R, zdefiniowana wzorem:

F_P(t) = P((-\infty, t]).

Dystrybuanta (rozkładu) zmiennej losowej X\;, to dystrybuanta F_{P_X}\;, oznaczana zwykle symbolem F_X\;, otrzymana z rozkładu tej zmiennej losowej:

F_X(t) =  P_X(\{x\colon x \leqslant t\})

Dystrybuanta w pełni wyznacza rozkład, tzn. dwie zmienne o tej samej dystrybuancie muszą mieć ten sam rozkład; obrazuje to poniższy przykład.

Jeśli rozkład P\; ma gęstość f\;, jego dystrubuanta F_P\; wyraża się wzorem:

F_P(t) = \int\limits_{-\infty}^t~f(x)\;dx.

Przykład[edytuj | edytuj kod]

Niech \Omega_1 = \{\mathrm O, \mathrm R\}\; będzie modelem doświadczenia losowego polegającego na rzucie monetą, które może z jednakowym prawdopodobieństwem dać dwa wyniki: orła i reszkę. Stąd

P (\mathrm O) = \tfrac{1}{2} oraz P (\mathrm R) = \tfrac{1}{2}.

Jeżeli zmienna X\colon \Omega_1 \to \mathbb R jest określona równościami

X(\mathrm O) = -1\; oraz X(\mathrm R) = 1\;,

to jej rozkład P_X\; jest określony następująco:

P (X \in A) = \begin{cases} 0, & \mbox{dla } A = \mathbb R \setminus \{-1, 1\} \\ \tfrac{1}{2}, & \mbox{dla } A = \{-1\} \mbox{ lub } A = \{1\} \\ 1, & \mbox{dla } A = \{-1, 1\} \end{cases},

funkcja masy prawdopodobieństwa ma z kolei postać:

P (X = x) = \begin{cases} 0, & \mbox{dla } x \ne -1\ \mbox{ i }\ \ x \ne 1  \\ \tfrac{1}{2}, & \mbox{dla } x = -1 \mbox{ lub } x = 1 \end{cases},

co oznacza, że zmienna losowa X\; odwzorowuje zdarzenia

\Omega_1 \ni \mathrm O \mapsto -1 \in \mathbb R \iff X(\mathrm O) = -1,
\Omega_1 \ni \mathrm R \mapsto \,\ \ 1 \in \mathbb R \iff X(\mathrm R) = \,\ \ 1

oraz zachowuje prawdopodobieństwo określone na (\Omega_1, \mathcal F) przekształcając je w rozkład określony na (\mathbb R, \mathcal B(\mathbb R)).

Niech \Omega_2 = \{\mathrm O, \mathrm R, \mathrm K\; będzie modelem opisującym jak wyżej rzut monetą poszerzone o dodatkowy wynik: upadek na kant, który prawie na pewno się nie zdarzy. Jeżeli

P (\mathrm O) = P (\mathrm R) = \tfrac{1}{2} oraz P (\mathrm K) = 0\;,

to zmienna losowa Y\colon \Omega_2 \to \mathbb R określona równościami

Y(\mathrm O) = -1,\; Y(\mathrm R) = 1 oraz Y(\mathrm K) = 7\;,

będzie miała taki sam rozkład P_Y\; (oraz funkcję masy) co zmienna X\; określona wyżej, mimo iż są one różne.

Z definicji dystrybuanty wynika, iż prawdopodobieństwo zdarzenia

A = \{\omega \in \Omega\colon a < X(\omega) \leqslant b\} \overset\underset\mathrm{ozn}\ {=} \{a < X \leqslant b\}

dane jest wzorem

P (X \in A) = P (a < X \leqslant b) =  F_X(b) - F_X(a).

Dystrybuanta zmiennej X\; to funkcja F_X\colon \mathbb R \to [0, 1] określona wzorem

F_X(t) = \begin{cases} 0, & \mbox{dla } t \leqslant -1 \\ \tfrac{1}{2}, & \mbox{dla } -1 < t \leqslant 1 \\ 1, & \mbox{dla } t > 1. \end{cases}

Warto zauważyć, iż dystrybuanta F_Y\; zmiennej Y\; dana jest tym samym wzorem co dystrybuanta F_X\;.

Dystrybuanta rozkładu wielowymiarowego[edytuj | edytuj kod]

Jeśli X\; jest wektorem losowym, tzn. X\colon \Omega \to \mathbb R^n, to zmienia się nieco postać dystrybuanty. Rozważa się wówczas przedziały wielowymiarowe, tzn. zbiory będące iloczynami kartezjańskimi przedziałów prostej postaci

(-\infty, t_1] \times (-\infty, t_2] \times \dots \times (-\infty, t_n];

dystrybuanta F_P\colon \mathbb R^n \to \mathbb R takiego zdarzenia zapisywana jest zwykle jako

F_P(t_1, t_2, \dots, t_n) = P((-\infty, t_1] \times (-\infty, t_2] \times \dots \times (-\infty, t_n]).

Stosuje się następujący zapis dystrybuanty rozkładu zmiennej losowej:

F_X(t_1, t_2, \dots, t_n) = P (\{X\colon X_1 \leqslant t_1\wedge X_2 \leqslant t_2 \wedge \dots \wedge X_n \leqslant t_n\}),

gdzie X = (X_1, X_2, \dots, X_n). Jeżeli przyjmie się t = (t_1, t_2, \dots, t_n), to zapis

F_X(t) = P (X \leqslant t)

nie prowadzi zwykle do większych nieporozumień.

Jeśli rozkład wielowymiarowy P\; ma gęstość f\;, jego dystrybuanta F_P\; wyraża się wzorem (całka Lebesgue'a):

F_P(t) = \int\limits_{(-\infty, t_1] \times (-\infty, t_2] \times \dots \times (-\infty, t_n]}~f(t)\;dt.

Zwykle wzór ten spotyka się w prostszej wersji, choć o mniejszym zakresie stosowalności (nie każdą całkę Lebesgue'a da się w ten sposób rozbić):

F_P(t) = \int\limits_{-\infty}^{t_1}\int\limits_{-\infty}^{t_2}\cdots\int\limits_{-\infty}^{t_n} f(t_1,t_2,\dots,t_n) dt_n \dots dt_2 dt_1

Dodatkowe definicje[edytuj | edytuj kod]

Zmienna losowa X\; ma rozkład osobliwy (singularny), jeśli ma ciągłą dystrybuantę i istnieje zbiór A \subseteq \mathbb R, który ma zerową miarę Lebesgue'a, ale jednostkowy rozkład (miarę) prawdopodobieństwa, tzn. \lambda(A) = 0\; oraz P(A) = 1\;

Rozkłady skoncentrowane na zbiorze punktów postaci kc\;, gdzie k \in \mathbb Z nazywa się arytmetycznymi. To, iż rozkład P\; jest skupiony na zbiorze \left\{\tfrac{2\pi k}{t} \colon k \in \mathbb Z\right\} jest równoważne temu, iż jego funkcja charakterystyczna \varphi ma okres równy t\; bądź \varphi(t) = 1\; dla pewnego t \ne 0\;. Z obserwacji funkcji charakterystycznych wynika, iż arytmetyczne są rozkłady: geometryczny, Bernoulliego i Poissona; rozkłady jedno- i dwupunktowe są przesuniętymi rozkładami tego typu.

Popularne rozkłady[edytuj | edytuj kod]

Rozkłady ciągłe[edytuj | edytuj kod]

Wybrane rozkłady gęstości prawdopodobieństwa:
ƒN(x)rozkład normalny,
ƒE(x)rozkład wykładniczy,
ƒR(x)rozkład jednostajny,
ƒT(x)rozkład trójkątny,
ƒD(x)– rozkład delty Diraca dla zmiennej pewnej.

Rozkłady dyskretne[edytuj | edytuj kod]

Pozostałe[edytuj | edytuj kod]

Statystyka[edytuj | edytuj kod]

Jeśli mamy na myśli rzeczywiste prawdopodobieństwa wystąpienia danej wartości cechy w populacji, to mówimy o rozkładzie w populacji. Jeśli mamy na myśli prawdopodobieństwa wystąpienia danej cechy wyznaczone podczas badania statystycznego, to mówimy o rozkładzie empirycznym.

Zobacz też[edytuj | edytuj kod]

Przypisy

  1. Ściślej musi to być funkcja \mathcal{F}/\mathcal{B}(Y)-mierzalna, gdzie \mathcal{B}(Y) jest rodziną podzbiorów borelowskich przestrzeni Y\;. Jako Y\; zwykle wybiera się jedną z tzw. przestrzeni polskich, do których zaliczają się w szczególności przestrzenie euklidesowe.