Rozkład Poissona

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania
Rozkład Poissona
Funkcja rozkładu prawdopodobieństwa
Funkcja masy prawdopodobieństwa rozkładu Poissona
Na osi poziomej jest indeks k. Funkcja jest zdefiniowana tylko dla całkowitych wartości k. Linie łączące te punkty są jedynie konwencją wykresu i nie oznaczają ciągłości.
Dystrybuanta
Wykres dystrybuanty rozkładu Poissona
Na osi poziomej jest indeks k.
Parametry \lambda \in (0,\infty)
Nośnik \{0,1,2,\ldots\}
Funkcja rozkładu prawdopodobieństwa \tfrac{e^{-\lambda} \lambda^k}{k!}\!
Dystrybuanta \tfrac{\Gamma(\lfloor k+1\rfloor, \lambda)}{\lfloor k\rfloor !}\!\text{ dla }k\geqslant 0

(gdzie \Gamma(x, y) to niekompletna funkcja gamma)

Wartość oczekiwana (średnia) \lambda\,
Mediana \approx \lfloor\lambda+\tfrac{1}{3}-\tfrac{0.02}{\lambda}\rfloor
Moda \lfloor\lambda\rfloor i \lambda-1 gdzie \lambda jest całkowite
Wariancja \lambda\,
Współczynnik skośności \lambda^{-1/2}\,
Kurtoza \lambda^{-1}\,
Entropia \lambda[1\!-\!\ln(\lambda)]\!+\!e^{-\lambda}\sum_{k=0}^\infty \tfrac{\lambda^k\ln(k!)}{k!}


dla dużych \lambda:
\tfrac{1}{2}\log(2 \pi e \lambda)- \tfrac{1}{12 \lambda}- \tfrac{1}{24 \lambda^2}- \tfrac{19}{360 \lambda^3}+ O(\tfrac{1}{\lambda^4})

Funkcja generująca momenty \exp(\lambda (e^t-1))\,
Funkcja charakterystyczna \exp(\lambda (e^{it}-1))\,
Odkrywca Siméon Denis Poisson
(rozkład pierwszy raz pod tą nazwą wystąpił u H. E. Sopera)

W teorii prawdopodobieństwa i statystyce, rozkład Poissona (czytaj [pwasɔ̃]) (lub Prawo Poissona małych liczb[1]) jest dyskretnym rozkładem prawdopodobieństwa, wyrażającym prawdopodobieństwo szeregu wydarzeń mających miejsce w określonym czasie, gdy te wydarzenia występują ze znaną średnią częstotliwością i w sposób niezależny od czasu jaki upłynął od ostatniego zajścia takiego zdarzenia. (Rozkład Poissona można również stosować w odniesieniu do liczby zdarzeń w innych określonych przedziałach, takich jak odległość, powierzchnia lub objętość).

Rozkład został wprowadzony i opublikowany przez Siméona-Denisa Poissona (1781-1840) wraz z jego teorią prawdopodobieństwa, w 1838 roku w jego pracy Recherches sur la probabilité des jugements en matière criminelle et en matière civile ("Badania nad prawdopodobieństwem orzeczeń sądowych w sprawach cywilnych i karnych"). Praca skupiała się na niektórych zmiennych losowych N, wyrażających, między innymi, liczbę dyskretnych zdarzeń, które odbywają się w przedziale czasu, o określonej długości.

Jeśli oczekiwaną liczbą zdarzeń w tym przedziale jest λ, to prawdopodobieństwo, że jest dokładnie k wystąpień, gdzie k jest nieujemną liczbą całkowitą, k = 0, 1, 2, ...) jest równe

f(k, \lambda)=\frac{\lambda^k e^{-\lambda}}{k!},\,\!

gdzie

  • e jest podstawą logarytmu naturalnego (e = 2,71828 ...)
  • k jest liczbą wystąpień zdarzenia - prawdopodobieństwo, dane funkcją
  • k! jest silnią k
  • λ jest dodatnią liczbą rzeczywistą, równą oczekiwanej liczbie zdarzeń w danym przedziale czasu. Na przykład, jeżeli zdarzenia występują średnio 4 razy na minutę, a ktoś jest zainteresowany prawdopodobieństwem zdarzenia k razy występującego w 10 minut, może użyć rozkładu Poissona jako model z λ = 10 * 4 = 40.

Jako funkcja k jest to funkcja masy prawdopodobieństwa. Rozkład Poissona można wyprowadzić jako graniczny przypadek rozkładu dwumianowego.

Rozkład Poissona może być stosowany do systemów z dużą liczbą możliwych zdarzeń, z których każde jest bardzo rzadkie. Klasycznym przykładem jest rozpad jąder atomowych.

Rozkład Poissona jest czasami nazywany Poissonianem.

Charakterystyka szumu Poissona i małych zdarzeń[edytuj | edytuj kod]

Parametr λ jest nie tylko średnią liczbą wystąpień E[k] , ale także ich wariancją \sigma_k^2=E[k^2]-E[k]^2 (patrz tabela). Tym samym liczba zaobserwowanych zdarzeń oscyluje wokół średniej λ z odchyleniem standardowym \scriptstyle\sigma_{k}\, =\, \sqrt{\lambda} . Wahania te są oznaczone jako szum Poissona lub (zwłaszcza w elektronice) jako szum śrutowy. Korelacja średniej i odchylenie standardowe w liczeniu niezależnych zdarzeń dyskretnych jest przydatna naukowo. Dzięki monitorowaniu jak wahania różnią się od średniej sygnału, można oszacować wkład jednego zdarzenia, nawet jeśli ten wkład jest zbyt mały do wykrycia bezpośrednio. Na przykład ładunek e elektronu może być określony poprzez skorelowanie wielkości prądu elektrycznego z jego szumem śrutowym. Jeżeli przez punkt przechodzi w czasie t średnio N elektronów, średni prąd jest równy I=eN/t, ponieważ wahania prądu powinny być rzędu \sigma_I=e\sqrt{N}/t (tj. standardowe odchylenie procesu Poissona), ładunek e może być oszacowany ze współczynnika \sigma_I^2/I. Codziennym przykładem jest ziarnistość, która pojawia się przy powiększeniach fotografii, ziarnistość ta pojawia się w związku z wahaniami Poissona w ograniczonej liczbie ziaren srebra a nie w związku z pojedynczymi ziarnami. Korelując ziarnistość ze stopniem powiększenia można oszacować udział indywidualnych ziaren (które są zbyt małe, aby je inaczej postrzegać samodzielnie). Opracowano wiele innych zastosowań molekularnych szumu Poissona, np. szacowanie gęstości liczby cząsteczek receptora w błonie komórkowej.

 \Pr(N_t=k) = f(k;\lambda t) = \frac{e^{-\lambda t} (\lambda t)^k}{k!}

Rozkłady powiązane[edytuj | edytuj kod]

  • Jeśli X_1 \sim \mathrm{Pois}(\lambda_1)\,, i X_2 \sim \mathrm{Pois}(\lambda_2)\,, to różnica  Y = X_1 - X_2\; ma rozkład Skellama.
  • Jeśli X_1 \sim \mathrm{Pois}(\lambda_1)\, i X_2 \sim \mathrm{Pois}(\lambda_2)\, są niezależne, a Y = X_1 + X_2\; , to rozkład X_1\; pod warunkiem Y=y jest dwumianowy. W szczególności, X_1|(Y=y) \sim \mathrm{Binom}(y, \lambda_1/(\lambda_1+\lambda_2))\, . Ogólnie rzecz biorąc, jeśli X 1, X 2 ,..., X n są niezależnymi zmiennymi losowymi Poissona z parametrami λ 1, λ 2 ,..., n λ wtedy
X_i \left|\sum_{j=1}^n X_j\right. \sim \mathrm{Binom}\left(\sum_{j=1}^nX_j,\frac{\lambda_i}{\sum_{j=1}^n\lambda_j}\right)
  • Rozkład Poissona może zostać wyprowadzony jako graniczny przypadek rozkładu dwumianowego gdy liczba prób dąży do nieskończoności a oczekiwana liczba sukcesów jest stała - patrz prawo rzadkich zdarzeń poniżej. Może być on zatem stosowany jako przybliżenie rozkład dwumianowego gdy liczba n jest wystarczająco duża i p jest dostatecznie małe. Istnieje praktyczna reguła, stwierdzająca, że rozkład Poissona jest dobrym przybliżeniem rozkładu dwumianowego, jeśli n jest co najmniej 20 i p jest mniejsza lub równa 0,05, oraz bardzo dobrym przybliżeniem, jeśli n ≥ 100 i np ≤ 10. [2]
  • Dla dostatecznie dużych wartości λ, (powiedzmy λ>1000), rozkład normalny ze średnią λ i wariancją λ (odchylenie standardowe \sqrt{\lambda} ), jest znakomitym przybliżeniem rozkładu Poissona. Jeśli λ jest większe niż około 10 wtedy rozkład normalny jest dobrym przybliżeniem, jeżeli są wykonywane odpowiednie korekty ciągłości , tj. P (Xx), gdzie (z małej litery) x jest liczbą całkowitą nieujemną, otrzymuje P (Xx + 0,5).
F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda)\,
  • Transformacja stabilizująca wariancję: gdy zmienna ma rozkład Poissona, jej pierwiastek kwadratowy ma w przybliżeniu rozkład normalny z wartością oczekiwaną około \sqrt \lambda i wariancją około 1/4. [3] W ramach tej transformacji, zbieżność do normalności jest znacznie szybsza niż zmiennej przed transformacją. Są dostępne inne, nieco bardziej skomplikowane transformacje stabilizujące wariancję [4] z których jedna jest transformacja Anscombe'a. Zobacz transformacja danych (statystyka) do bardziej ogólnego zastosowania przekształceń.
  • Jeśli liczba zajść zdarzenia w danym przedziale czasu [0,t] jest zgodna z rozkładem Poissona, ze średnią = \lambda t , wtedy długość okresu oczekiwania pomiędzy zajściami zdarzenia ma rozkład wykładniczy ze średnią 1/\lambda.

Występowanie[edytuj | edytuj kod]

Rozkład Poissona powstaje w związku z procesami Poissona. Ma on zastosowanie do różnych zjawisk dyskretnych właściwości (czyli tych, które mogą się zdarzyć 0, 1, 2, 3, ... razy w danym przedziale czasu lub w danym obszarze), gdy prawdopodobieństwo wystąpienia zjawiska jest stałe w czasie lub przestrzeni. Przykłady zdarzeń, które mogą być modelowane rozkładem Poissona to:

  • Liczbę zabitych przez kopnięcie konia każdego roku w korpusie kawalerii w Prusach. Ten przykład zasłynął z książki Władysława Józefowicza Bortkiewicza (1868–1931).
  • Liczba połączeń telefonów przychodzących do centrali na minutę.
  • Przy założeniu jednorodności, ile razy serwer jest dostępny na minutę.
  • Liczba mutacji w danym odcinku DNA po ekspozycji na pewną dawkę promieniowania.
  • Odsetek komórek, które zostaną zakażone dla danej liczności zakażeń.

W jaki sposób powstają takie rozkłady? - Prawo rzadkich zdarzeń[edytuj | edytuj kod]

Porównanie rozkładu Poissona (czarne kropki) i rozkładu dwumianowego dla n = 10 (czerwona linia), n = 20 (niebieska linia), n = 1000 (zielona linia).Wszystkie rozkłady mają wartość oczekiwaną równą 5.Oś pozioma pokazuje liczbę zdarzeń k. Należy zauważyć, że gdy n rośnie, rozkład Poissona staje się coraz lepszym przybliżeniem rozkładu dwumianowego o tej samej wartości oczekiwanej.

W kilku z powyższych przykładach - takich jak liczba mutacji w danej sekwencji DNA - zdarzenia które są liczone są w wynikami pojedynczych prób, a dokładniej są modelowane przy użyciu rozkładu dwumianowego, to jest

X \sim \textrm{B}(n,p). \,

W takich przypadkach n jest bardzo duże a p jest bardzo małe (i tak oczekiwane np jest pośrednich rozmiarów). Rozkład może być wtedy przybliżany przez mniej uciążliwy rachunkowo rozkład Poissona

X \sim \textrm{Pois}(np). \,

To jest znane jako prawo rzadkich zdarzeń , gdyż każde z poszczególnych zdarzeń Bernoulliego n rzadko występuje. Nazwa może być myląca, ponieważ całkowita liczba zajścia sukcesu w procesie Poissona, nie musi być mała, jeśli parametr np nie jest mały. Na przykład, liczba telefonów do zajętej centrali w ciągu jednej godziny stosuje się do rozkładu Poissona ze zdarzeniami pojawiającymi się często u operatora, ale są one rzadkie z punktu widzenia przeciętnego członka społeczeństwa, u którego jest bardzo mało prawdopodobne, by dzwonił do centrali w tej godzinie.

Dowód[edytuj | edytuj kod]

Będziemy dowodzić, że dla stałych \lambda \, , jeśli

X_n \sim \textrm{B}(n,\lambda /n); \qquad Y\sim\textrm{Pois}(\lambda). \,

to dla każdego ustalonego k

\lim_{n\to\infty}P(X_n=k) = P(Y=k) .

Aby zobaczyć związek z powyższym uzasadnieniem, dla każdej zmiennej losowej o rozkładzie dwumianowym z dużych n i małych p, ustalmy \lambda=np . Należy zauważyć, że wartość oczekiwania E(X_n)=\lambda jest stała względem n.

Po pierwsze, przypomnijmy, że

\lim_{n\to\infty}\left(1-{\lambda \over n}\right)^n=e^{-\lambda},

wtedy ponieważ p = \lambda/n, w tym przypadku mamy

 \begin{align} \lim_{n\to\infty} P(X_n=k)&=\lim_{n\to\infty}{n \choose k} p^k (1-p)^{n-k} \\ &=\lim_{n\to\infty}{n! \over (n-k)!k!} \left({\lambda \over n}\right)^k \left(1-{\lambda\over n}\right)^{n-k}\\ &=\lim_{n\to\infty} \underbrace{\left[\frac{n!}{n^k\left(n-k\right)!}\right]}_{A_n} \left(\frac{\lambda^k}{k!}\right) \underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)} \underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1} \\ &= \left[ \lim_{n\to\infty} A_n \right] \left(\frac{\lambda^k}{k!}\right)\exp\left(-\lambda\right) \end{align}

Dalej, należy pamiętać, że

 \begin{align} A_n &= \frac{n!}{n^k\left(n-k\right)!}\\ &= \frac{n\cdot (n-1)\cdots \big(n-(k-1)\big)}{n^k}\\ &= 1\cdot(1-\tfrac{1}{n})\cdots(1-\tfrac{k-1}{n})\\ &\to 1\cdot 1\cdots 1 = 1, \end{align}

gdzie rozpatrujemy granicę każdego z członów niezależnie, co można zrobić, ponieważ liczba członów zależnych od n jest stała (jest ich k). W związku z tym, musimy wykazać, że

\lim_{n\to\infty}P(X_n=k) = \frac{\lambda^k \exp\left(-\lambda\right)}{k!} = P(Y=k) .

Uogólnienie[edytuj | edytuj kod]

Wykazaliśmy, że jeżeli

X_n \sim \textrm{B}(n,p_n); \qquad Y\sim\textrm{Pois}(\lambda), \,

gdzie p_n=\lambda / n , a następnie X_n\to Y w rozkładzie. Odnosi się to w bardziej ogólnej sytuacji, że p_n jest dowolny ciąg taki, że

\lim_{n\rightarrow\infty} np_n = \lambda.

2-wymiarowy proces Poissona[edytuj | edytuj kod]

Information icon.svg Osobny artykuł: Proces Poissona.
 P(N(D)=k)=\frac{(\lambda|D|)^k e^{-\lambda|D|}}{k!}

gdzie

  • e jest podstawą logarytmu naturalnego (e = 2,71828 ...)
  • k jest liczbą wystąpień zdarzenia - prawdopodobieństwo, dane funkcją
  • k! jest silnią k
  • D jest 2-wymiarowym obszarem
  • |D| oznacza pole obszaru
  • N(D) jest liczbą punktów w procesie rozwoju w obszarze

Właściwości[edytuj | edytuj kod]

  • Wartość oczekiwana rozkładu Poissona zmiennej losowej jest równa λ i jest też ona równa jego wariancji. Wyższe momenty rozkładu Poissona są wielomianami Toucharda z parametrem λ, których współczynniki mają kombinatoryczne znaczenie. W rzeczywistości, gdy wartość oczekiwana rozkładu Poissona jest 1, to wzór Dobińskiego mówi, że n-ty moment jest równy liczbie podziałów zbioru n elementowego.
  • Dominanta zmiennej losowej o rozkładzie Poissona z niecałkowitą λ jest równa \scriptstyle\lfloor \lambda \rfloor , która jest największą liczbę całkowitą mniejszą lub równą λ. To jest również zapisane jako podłoga (λ). Gdy λ jest liczbą calkowitą, mody są równe λ i λ - 1.
  • Sumy zmiennych losowych o rozkładach Poissona:
Jeśli X_i \sim \mathrm{Pois}(\lambda_i)\, mają rozkład Poissona z parametrem \lambda_i\, i X_i\,niezależne, to
Y = \sum_{i=1}^N X_i \sim \mathrm{Pois}\left(\sum_{i=1}^N \lambda_i\right)\,
również ma rozkład Poissona o parametrze będącym sumą parametrów składowych. Odwrotne jest twierdzenie Rajkowa, które mówi, że jeśli suma dwóch niezależnych zmiennych losowych ma rozkład Poissona, to ma go również każda z tych dwóch niezależnych zmiennych losowych.
  • Suma znormalizowanych odchyleń kwadratowych ma w przybliżeniu rozkład chi kwadrat, jeśli średnia jest umiarkowanej wielkości (zalecana jest \lambda>5 ). [5] Jeśli X_1,\dots,X_N są obserwacjami z niezależnych rozkładów Poissona ze średnimi \lambda_1,\dots,\lambda_N wtedy \sum_{i=1}^N \frac{(X_i-\lambda_i)^2}{\lambda_i}\sim \chi^2
  • Funkcją generującą momenty rozkładu Poissona z oczekiwaną wartość λ jest
\mathrm{E}\left(e^{tX}\right)=\sum_{k=0}^\infty e^{tk} f(k;\lambda)=\sum_{k=0}^\infty e^{tk} {\lambda^k e^{-\lambda} \over k!} =e^{\lambda(e^t-1)}.
D_{\mathrm{KL}}(\lambda\|\lambda_0) = \lambda_0 - \lambda + \lambda \log \frac{\lambda}{\lambda_0}.

Ocena rozkładu Poissona[edytuj | edytuj kod]

Chociaż rozkład Poissona jest ograniczony przez

0 ,

licznik i mianownik f(k,\lambda)\, może osiągnąć skrajne wartości dla dużych wartości k lub \lambda .

Jeżeli rozkład Poissona jest szacowany na komputerze z ograniczoną dokładnością najpierw wyliczając jego licznik i mianownik, a następnie dzieląc je, to może wystąpić znaczna utrata precyzji .

Na przykład, dla typowej podwójnej precyzji zdarzy się całkowita utrata dokładności jeśli f(150, 150) jest obliczana w ten sposób.

Pewniejszą metodą liczenia jest:

 \begin{align} f(k,\lambda) &= \exp{(\ln{(f(k,\lambda))})} \\ &= \exp{(\ln{(\frac{\lambda^k \exp{(-\lambda)}}{k!})})} \\ &= \exp{(k\ln{(\lambda)} - \lambda - \sum_{i=1}^k \ln{(i)})}. \end{align}

Generowanie zmiennych losowych o rozkładzie Poissona[edytuj | edytuj kod]

Prosty sposób na generowanie losowych liczb o rozkładzie Poissona, jest podany przez Knutha, zobacz odniesienia poniżej.

algorytm  poisson random number (Knuth): 
 init: 
  Let L ← e^-λ, k ← 0 i p ← 1.
 do:
  k ← k + 1.
  Wygeneruj losową liczbę u z przedziału [0,1] i przypisz p ← p × u.
 while p > L.
 return k - 1.

Podczas gdy jest prosty, złożoność jest liniowa względem λ. Istnieje wiele innych algorytmów na przezwyciężenie tego. Niektóre z nich są podane w Ahrens & Dieter, patrz odniesienia poniżej. Ponadto, dla dużych wartości λ, mogą być problemy ze stabilnością numeryczną ze względu na człon \exp(-\lambda)\,. Jednym z rozwiązań dla dużych wartości λ jest Pobieranie z odrzuceniem, innym jest wykorzystanie przybliżenia Poissona przez Gaussa.

Metoda odwrotnej transformacji jest prosta i skuteczna dla małych wartości λ i wymaga tylko jednej jednolitej losowej liczby u na próbkę. Skumulowane prawdopodobieństwa badane są z kolei aż jedno przekracza u.

Estymacja parametrów[edytuj | edytuj kod]

Największa wiarygodność[edytuj | edytuj kod]

Dana jest próbka n mierzonych wartości ki i chcemy oszacować wartość parametru λ populacji Poissona z której próbka została zaczerpnięta. Aby obliczyć wartość największej wiarygodności, tworzymy funkcję log-prawdopodobieństwo

 \begin{align} L(\lambda) & = \ln \prod_{i=1}^n f(k_i \mid \lambda) \\ & = \sum_{i=1}^n \ln\!\left(\frac{e^{-\lambda}\lambda^{k_i}}{k_i!}\right) \\ & = -n\lambda + \left(\sum_{i=1}^n k_i\right) \ln(\lambda) - \sum_{i=1}^n \ln(k_i!). \end{align}

Weź pochodną L względem λ i przyrównaj ją do zera:

\frac{\mathrm{d}}{\mathrm{d}\lambda} L(\lambda) = 0 \iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!

Rozwiązanie dla λ daje punkt stacjonarny, który, jeśli druga pochodna jest ujemna, jest oszacowaniem maksymalnego prawdopodobieństwa λ:

\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i. \!

Sprawdzając drugą pochodną, okazuje się, że jest negatywna dla wszystkich λ i ki większych od zera, dlatego ten stacjonarny punkt jest rzeczywiście maksimum początkowej funkcji prawdopodobieństwa:

\frac{\partial^2 L}{\partial \lambda^2} = -\lambda^{-2}\sum_{i=1}^n k_i

Ponieważ każda obserwacja ma oczekiwane λ więc tak samo średnią tej próbki. Dlatego jest nieobciążonym estymatorem λ. Jest to również efektywny estymator, tj. jego oszacowanie wariancji osiąga dolne ograniczenie nierówności Rao-Craméra. Stąd MVUE - estymator nieobciążony o minimalnej wariancji. Ponadto można udowodnić, że średnia próbki jest kompletna i wystarczająca statystycznie dla λ.

Statystyka bayesowska[edytuj | edytuj kod]

W statystyce bayesowskiej, sprzężony rozkład a priori dla parametru skali λ rozkładu Poissona jest rozkładem gamma. Niech

\lambda \sim \mathrm{Gamma}(\alpha, \beta) \!

oznacza że λ ma rozkład zgodnie z gęstością Gamma g parametryzowaną ze względu na parametr kształtu α i odwrotny parametrem skali: β

 g(\lambda \mid \alpha,\beta) = \frac{\beta^{\alpha}}{\Gamma(\alpha)} \; \lambda^{\alpha-1} \; e^{-\beta\,\lambda} \qquad \text{ for } \lambda>0 \,\!.

Następnie biorąc tą samą próbkę n zmierzonych wartości ki jak poprzednio, i a priori Gamma (α, β), rozkład a posteriori jest

\lambda \sim \mathrm{Gamma}(\alpha + \sum_{i=1}^n k_i, \beta + n). \!

Średnia a posteriori E[λ] zbliża się do oszacowania maksymalnego prawdopodobieństwa \widehat{\lambda}_\mathrm{MLE} w granicy, jako \alpha\to 0,\ \beta\to 0 .

Przewidujący rozkład a posteriori dodatkowych danych jest rozkładem Gamma-Poissona (tj. ujemnym dwumianowym).

Przedział ufności[edytuj | edytuj kod]

Prosta i szybka metoda obliczania przybliżonego przedziału ufności dla oszacowania λ jest zaproponowana w Guerriero et al.(2009). Metoda ta zapewnia dobre przybliżenie granic przedziału ufności dla próbek zawierających co najmniej 15 - 20 elementów. Oznaczając przez N liczbę próbkowanych punktów lub zdarzeń, a przez L długość linii próbek (lub przedział czasowy), górna i dolna granica 95% przedziału ufności dane są przez:

 \lambda_{low}=N/L (1-1{,}96/\sqrt{N-1})
 \lambda_{upp}=N/L (1+1{,}96/\sqrt{N-1})

"Prawo małych liczb"[edytuj | edytuj kod]

Słowo prawo jest czasami używane jako synonim rozkładu prawdopodobieństwa i konwergencja tu oznacza konwergencję w rozkładzie. W związku z tym rozkład Poissona jest czasami nazywany prawem małych liczb, ponieważ jest to rozkład prawdopodobieństwa ilości wystąpień zdarzenia, które zdarza się rzadko ale ma bardzo wiele możliwości, aby się zdarzyć. Prawo małych liczb to książka Władysława Bortkiewicza o rozkładzie Poissona opublikowana w 1898 roku. Niektórzy historycy matematyki twierdzili, że rozkład Poissona powinien być nazywany rozkładem Bortkiewicza. [6]

Zobacz też[edytuj | edytuj kod]

Przypisy

  1. Jan Gullberg: Mathematics from the birth of numbers. 1997, s. 963–965. ISBN 039304002X.
  2. NIST/SEMATECH, '6.3.3.1. Counts Control Charts', e-Handbook of Statistical Methods, accessed 25 October 2006
  3. Peter McCullagh: Generalized Linear Models. Nelder, John. London: Chapman and Hall, 1989. ISBN 0-412-31760-5. page 196 gives the approximation and the subsequent terms.
  4. Johnson, N.L., Kotz, S., Kemp, A.W. (1993) Univariate Discrete distributions (2nd edition). Wiley. ISBN 0-471-54897-9, p163
  5. Box, Hunter and Hunter: Statistics for experimenters. Wiley, s. 57.
  6. I.J. Good. Some statistical applications of Poisson's work. „Statistical Science”. 1 (2), s. 157–180, 1986. doi:10.1214/ss/1177013690. 

Bibliografia[edytuj | edytuj kod]

  • Rozkład po raz pierwszy tak nazwany w pracy:
Herbert Edward Soper. Tables of Poisson’s exponential binomial limit. „Biometrika”. 10, s. 25-35, 1914. 

Referencje[edytuj | edytuj kod]

Linki zewnętrzne[edytuj | edytuj kod]