Estymator

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Estymator jest statystyką służącą do szacowania wartości parametru rozkładu.

Celem zastosowania estymatora jest znalezienie parametru rozkładu cechy w populacji.

Przykładowo badamy rozkład wzrostu ludności w Polsce. Zakładamy, że rozkład tej cechy X w populacji jest rozkładem normalnym, zaś szukaną wielkością jest wartość oczekiwana m. Wartość m jest zatem szukanym parametrem rozkładu cechy X. W celu oszacowania tych wielkości zbieramy dane z próby losowej o liczebności n. Następnym krokiem będzie znalezienie wygodnej statystyki \hat{\theta} z próby, która posłuży do oszacowania parametru m. Rolę takiej statystyki może spełniać wartość średnia z próby. Mówimy zatem, że wartość średnia z próby jest estymatorem wartości oczekiwanej rozkładu normalnego. Obliczoną przez nas na podstawie konkretnej próby wartość średnią nazywamy oceną parametru.

Definicja[edytuj | edytuj kod]

Niech

\mathcal{P}=\{P_\theta \colon \theta \in \Theta\}

będzie rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby \mathcal{X}, indeksowaną parametrem \theta\; (w szczególności może to być wektor parametrów rzeczywistych). P_\theta\; opisuje wielowymiarowy łączny rozkład wszystkich obserwacji w próbie X\;.

Zagadnienie estymacji punktowej polega na takim skonstruowaniu pewnej statystyki \hat{\theta}(X)\colon \mathcal{X} \to \mathbf{R}^k zwanej estymatorem, aby wartości \hat{\theta}(X) były bliskie (w jakimś ustalonym sensie) wartości \theta\;. W szczególności, jeśli estymowany jest tylko jeden z parametrów rozkładu (czyli jedna ze współrzędnych wektora \theta\;), to odległość między \hat{\theta}(X) i \theta\; liczona jest tylko dla tej współrzędnej.

Ponieważ każda ze zmiennych losowych X_i\; ma rozkład identyczny z rozkładem cechy X\; w populacji generalnej, a rozkład ten zależy od parametru \theta\;, estymatory są zmiennymi losowymi, mającymi rozkład również zależny od parametru \theta\;.

Estymacja przedziałowa w jednowymiarowym przypadku polega na skonstruowaniu dwóch statystyk \overline{\theta}(X) i \underline{\theta}(X) takich, że zachodzi:

P\left( \theta \in [\underline{\theta}(X),\overline{\theta}(X)]\right) \geqslant \gamma

gdzie \gamma\; jest ustalonym prawdopodobieństwem (tzw. poziom ufności). Przedział [\underline{\theta}(X),\overline{\theta}(X)] to przedział ufności na poziomie \gamma\;.

O estymacji z zadaną precyzją mówi się jeśli nałożone jest górne ograniczenie na wielkość \overline{\theta}(X)-\underline{\theta}(X).

Oceną parametru lub estymatą nazwiemy każdą realizację estymatora (zmiennej losowej \hat{\theta}).

Ocena parametru będzie prawie zawsze różnić się od oryginalnej wartości parametru \theta\;. Wprowadza się zatem miarę błędu estymacji:
Błąd szacunku

d = \hat{\theta} - \theta

Właściwości estymatorów[edytuj | edytuj kod]

Definicja estymatora pozostawia dużą dowolność w wybraniu danej statystyki do szacowania parametru, nie pozwalając jednocześnie na ocenę która ze statystyk jest "dobrym" estymatorem. Aby sprawdzić, czy dana statystyka jest dobrym kandydatem na estymator parametru, powinniśmy sprawdzić, czy spełnia ona zestaw własności charakteryzujących estymator.

Nieobciążoność[edytuj | edytuj kod]

Estymator jest nieobciążony, jeśli wartość oczekiwana rozkładu estymatora jest równa wartości szacowanego parametru:

E\ (\hat{\theta})\ =\ \theta

Jeśli różnica pomiędzy wartością oczekiwaną rozkładu estymatora a wartością szacowanego parametru jest zależna funkcyjnie od estymatora:

E\ (\hat{\theta})\ - \ \theta \ =\ b\ (\hat{\theta})

to estymator nazywamy obciążonym, zaś samą różnicę nazywamy obciążeniem estymatora.

Asymptotyczna nieobciążoność[edytuj | edytuj kod]

Estymator nazywamy asymptotycznie nieobciążonym, jeśli obciążenie estymatora dąży do zera przy rosnącej liczebności próby:

\lim_{n \to \infty} b\ (\hat{\theta})\ =\ 0

Każdy estymator nieobciążony jest estymatorem asymptotycznie nieobciążonym.

Zgodność[edytuj | edytuj kod]

Estymator nazywamy zgodnym, jeśli jest stochastycznie zbieżny do szacowanego parametru:

\bigwedge\limits_{\varepsilon > 0 } \ \lim_{n \to \infty} P \ \{|\hat{\theta}-\theta| < \epsilon\} = 1

Oznacza to, że jeśli rośnie liczebność próby, rośnie też prawdopodobieństwo, że oszacowanie przy pomocy estymatora będzie przyjmować wartości coraz bliższe wartości szacowanego parametru. Inaczej: zwiększając liczebność próby, zmniejszamy ryzyko popełnienia błędu większego niż pewna ustalona wielkość.

Efektywność[edytuj | edytuj kod]

Spośród zbioru wszystkich nieobciążonych estymatorów \hat{\theta}_1,\hat{\theta}_2,\dots,\hat{\theta}_r najefektywniejszym nazywamy estymator o najmniejszej wariancji.

Definicja ta jest bardzo niewygodna, ponieważ do wyznaczenia najefektywniejszego estymatora potrzebna jest znajomość wariancji wszystkich estymatorów nieobciążonych danego parametru rozkładu. W praktyce o wiele łatwiej jest skorzystać z nierówności Rao-Cramera.

Asymptotyczna efektywność[edytuj | edytuj kod]

Estymator \hat{\theta} jest asymptotycznie najefektywniejszy, jeśli przy wzrastającej liczebności próby wariancja estymatora \hat{\theta} dąży do wariancji estymatora najefektywniejszego \hat{\theta}^*:

\lim_{n \to \infty} \frac{D^2(\hat{\theta})}{D^2(\hat{\theta}^*)} = 1

gdzie D^2(\hat{\theta}) oznacza wariancję estymatora.

Dostateczność[edytuj | edytuj kod]

Estymator \hat{\theta} jest dostateczny, jeśli można, ze względu na niego dokonać faktoryzacji (rozłożenia na iloczyn) łącznej funkcji gęstości f(x) wektora wyników próby X=(X_1,X_2,\dots,X_n)

f\ (x,\theta)\ =\ f(\hat{\theta},\theta) g(x,\hat{\theta})

gdzie g(x,\hat{\theta}) jest funkcją niezależną od parametru \theta

Metody wyznaczania estymatorów[edytuj | edytuj kod]

Jeśli nie jest oczywiste jaką statystykę należy wybrać jako kandydata na estymator, z pomocą przychodzą różnorodne metody ich wyznaczania.

Metoda momentów[edytuj | edytuj kod]

Etap 1.

Przedstawiamy momenty (zwykłe lub centralne) jako funkcje parametrów rozkładu:

\begin{matrix}
\eta_1 & = & f_1(\theta_1, & \theta_2, & \dots, & \theta_r),\\
\eta_2 & = & f_2(\theta_1, & \theta_2, & \dots, & \theta_r),\\
\vdots\\
\eta_r & = & f_r(\theta_1, & \theta_2, & \dots, & \theta_r),
\end{matrix}

Momenty wybieramy w taki sposób, aby powstały w ten sposób układ równań miał jednoznaczne rozwiązanie.

Etap 2.

Rozwiązujemy układ równań względem parametrów \theta_i i w miejsce momentów z populacji \eta_i wstawiamy momenty z próby M_i

Metoda największej wiarygodności[edytuj | edytuj kod]

(W literaturze stosowana jest zarówno pisownia "wiarygodności", jak i "wiarogodności").

Etap 1.

Wyznaczamy funkcję wiarygodności próby zgodnie ze wzorami:

L(x_1, ..., x_n; \theta_1, ..., \theta_r) = \prod_{i=1}^{n} f(x_i; \theta_1, ..., \theta_r) dla rozkładów ciągłych

L(x_1, ..., x_n; \theta_1, ..., \theta_r) = \prod_{i=1}^{n} p(x_i; \theta_1, ..., \theta_r) dla rozkładów skokowych

gdzie f oznacza funkcję gęstości rozkładu, zaś p funkcję prawdopodobieństwa.

Etap 2.

Wyznaczamy \ln L (funkcje \ln L(\theta) i  L(\theta) osiągają maksimum dla tej samej wartości, a często zamiast L(\theta) wygodniej jest używać logarytmu funkcji wiarygodności).

Etap 3.

Wyznaczamy pochodne cząstkowe \frac {\partial \ln L} {\partial \theta_i} dla i = 1, ..., r. Gdy L(\theta) jest dyskretna nie możemy różniczkować, wyliczamy \frac {L(n+1)} {L(n)} . Wiarygodność wtedy jest maksymalizowana przez najmniejsze n przy którym ten stosunek jest \le 1.

Etap 4.

Rozwiązujemy układ równań \frac {\partial \ln L} {\partial \theta_i} = 0 względem \theta_i

Rozwiązanie układu stanowią estymatory szukanych parametrów.
Uwaga! W ogólności wynikiem są ekstrema funkcji wiarygodności, a więc należy sprawdzić, czy funkcja dla wyliczonych \theta_i przyjmuje maksimum (a nie minimum). Można to zrobić sprawdzając, czy druga pochodna w punktach \theta_i jest ujemna lub poprzez analizę zmienności znaku funkcji uzyskanej z obliczenia pierwszej pochodnej wokół miejsc zerowych.

Przykład

Poszukujemy estymatorów rozkładu normalnego, funkcja gęstości prawdopodobieństwa:

f(x; m, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x-m)^2}{2\sigma^2}\right)

Wyznaczamy logarytm w celu uproszczenia obliczeń:

\ln f(x; m, \sigma^2) = -\ln \sqrt{2\pi\sigma^2} - \frac{(x-m)^2}{2\sigma^2} = -\frac{1}{2}\ln {2\pi\sigma^2} - \frac{(x-m)^2}{2\sigma^2}
=-\frac{1}{2}\ln {2\pi} - \frac{1}{2}\ln {\sigma^2} - \frac{(x-m)^2}{2\sigma^2}

Funkcja wiarygodności L:

\ln L(x_1, \dots. x_N; m, \sigma^2)  = \sum_{i=1}^N \ln f(x_i; m, \sigma^2)

Maksymalizujemy L ze względu na m:

0 = \frac{\partial \ln L}{\partial m} = \sum_{i=1}^N \frac{\partial \ln f(x_i; m, \sigma^2)}{\partial m} = \sum_{i=1}^N \left( \frac{x_i - m}{\sigma^2} \right)
= \frac{1}{\sigma^2} \left(\left( \sum_{i=1}^N x_i \right) - Nm \right)

Co daje standardowy estymator średniej, jako estymator parametru m:

m = \frac{1}{N}\sum_{i=1}^N x_i

Podobnie maksymalizujemy L ze względu na \sigma^2:

0 = \frac{\partial \ln L}{\partial \sigma^2} = \sum_{i=1}^N \frac{\partial \ln f(x_i; m, \sigma^2)}{\partial \sigma^2} =

\sum_{i=1}^N \left( -\frac{1}{2\sigma^2} + \frac{(x_i - m)^2}{2\sigma^4} \right)

0 = -\frac{N}{2\sigma^2} + \frac{1}{2\sigma^4}\sum_{i=1}^N (x_i - m)^2

Co daje ostatecznie standardowy estymator wariancji, jako estymator parametru \sigma^2:

\sigma^2 =\frac{1}{N} \sum_{i=1}^N (x_i - m)^2 = \frac{1}{N} \sum_{i=1}^N \left(x_i - \frac{1}{N}\sum_{i=1}^N x_i \right)^2

Wady[edytuj | edytuj kod]

Alternatywne podejście do statystyki, tzn. statystyka subiektywna, bayesowska, gradacyjna i metody rangowe ogranicza stosowanie estymatorów. Wskazuje się, że estymatory tak naprawdę dobierane są ad-hoc, a wszystkie ważne kryteria takie jak nieobciążoność i minimalna wariancja zależą od wyboru układu odniesienia, a kryteria doboru estymatora przy danym rozkładzie zależą od "kosztów" błędnego oszacowania – jeśli np. przeszacowane o 1 kosztuje nas tyle co niedoszacowanie o 5, nieobciążony estymator będzie złym wyborem.

Na przykład jeśli badamy rozmiary baniek mydlanych (idealnie kulistych) i wyniki pomiarów to:

Numer pomiaru Średnica [cm] Pole przekroju [cm2] Objętość [cm3]
1 2 1 \pi 1 \frac 1 3 \cdot \pi
2 4 4 \pi 10 \frac 2 3 \cdot \pi
3 6 9 \pi 36 \cdot \pi
4 8 16 \pi 85 \frac 1 3 \cdot \pi

Mamy teraz kilka możliwości:

  • możemy przyjąć za wymiar podstawowy średnicę, wybrać estymator dla średnicy, i obliczyć pozostałe wymiary na podstawie średnicy,
  • możemy zrobić to samo z polem przekroju,
  • lub objętością,
  • lub estymować każdy wymiar osobno

Wyniki to:

Metoda Średnica Pole przekroju Objętość
Średnica 5 6,25 π 20,83 π
Pole przekroju 5,48 7,5 π 27,29 π
Objętość 5,84 8,55 π 33,33 π
Niezależnie 5 7,5 π 33,33 π

Zatem estymator nieobciążony dla każdego z wymiarów daje "obciążone" wyniki dla pozostałych, a estymowanie każdego wymiaru z osobna prowadzi do niezachowania zależności między wymiarami.

Metoda stosowana w statystyce subiektywistycznej wymusza na nas:

  • Przyjęcie explicite założeń co do rozkładu, czyli rozkładu a priori (co w przeciwnym wypadku musimy zrobić niejawnie, np. w powyższym przykładzie wybierając jeden z wymiarów). Na tej podstawie z reguły Bayesa wyprowadzamy wzór na rozkład a posteriori parametrów modelu (w statystyce klasycznej żaden z tych dwóch rozkładów nie jest dopuszczalny, choć są czasem stosowane niejawnie).
  • Przyjęcie explicite funkcji kosztu. Na podstawie funkcji kosztu oraz rozkładu a posteriori wyliczamy jedyny możliwy w tym przypadku estymator.

Ucięty rozkład normalny[edytuj | edytuj kod]

Istnieją też relatywnie proste rozkłady w których lepiej jest przyjąć rozkład obciążony od nieobciążonego. Przyjmijmy, że zmienna X ma rozkład normalny o znanej wariancji i nieznanej (ale należącej do znanego przedziału) wartości oczekiwanej, ale odczyty Y z naszych urządzeń pomiarowych wszystkie wartości ujemne przedstawiają jako 0. Przyjmijmy że dla danych zawierających tylko liczby dodatnie estymator zwraca dodatnie oszacowanie parametru. Jest to bardzo pożądana cecha. Estymator musiałby jednak zwracać coś również dla odczytów zawierających wyłącznie zera – przyjmijmy że dla k odczytów będących samymi zerami zwraca z_k.

Załóżmy że wartość oczekiwana wynosi \phi. Chcemy jednak żeby estymator był nieobciążony – w tym celu, jeśli z_k < \phi, niedoszacowania w wyniku wylosowania samych zer mogą być równoważone przez przeszacowania w wyniku wylosowania jakiegoś niezerowego wyniku. Jeśli jednak z_k \ge \phi to nie istnieje żaden estymator nieobciążony, gdyż niezależnie od wyniku pomiarów estymator zwróci oszacowanie wyższe od \phi. A zatem żeby estymator był nieobciążony, to dla każdego k oszacowanie z_k musi być nie większe od najmniejszej możliwej wartości parametru, a ponieważ w rozkładzie normalnym szansa na odczyt innej wartości niż zero jest niezerowa (choć może być bardzo mała), to żeby równoważyć estymację z_k musi być ostro mniejsze od najmniejszej możliwej wartości parametru. Szacowanie odczytu serii kolejnych zer na wartość mniejszą od najmniejszej dopuszczalnej zdecydowanie nie jest pożądaną własnością estymatora.

Lepiej jest więc przyjąć jakiś estymator obciążony – np. estymator Bayesowski powstały przez przyjęcie wszystkich wartości parametru za równie prawdopodobne oraz funkcji kosztu za kwadrat różnicy między parametrem a jego estymacją. Taki estymator będzie bardzo bliski średniej arytmetycznej dla wyników dodatnich (nie będzie ściśle równy średniej ze względu na istnienie górnej granicy możliwych wartości parametru), a dla serii zer przyjmie rozsądniejsze wartości, zaczynając powyżej połowy ujemnego przedziału (być może w przedziale dodatnim) dla niskich k i obniżając się powoli asymptotycznie do najmniejszej dopuszczalnej wartości dla przedziału ujemnego.

Obserwacje odstające[edytuj | edytuj kod]

Information icon.svg Osobny artykuł: Estymacja odporna.

Estymatory z zasady wyznaczają jeden z parametrów rozkładu, a zatem zakładają pewną określony rozkład lub klasę rozkładów, do których ma należeć rozkład danej zmiennej losowej. Na ogół jest to rozkład normalny, lub (w przypadku wielowymiarowych zmiennych losowych) wielowymiarowy rozkład normalny.

W praktyce jednak dane na ogół zawierają tzw. obserwacje odstające (ang. outliers), czyli wartości, które dostały się do zbioru przypadkowo i nie odzwierciedlają rzeczywistości. Mogą to być efekty błędnego zrozumienia pytania przez osobę ankietowaną, zaburzeń w procesie pomiaru, itp.. Można milcząco zakładać, że dobrze przeprowadzony eksperyment nigdy nie wyprodukuje elementów odstających, jednak w praktyce zbiory bez elementów odstających zdarzają się bardzo rzadko.

Elementy odstające zaburzają w sposób nieprzewidywalny rozkład z próby danej zmiennej losowej. Nawet jeden element odstający może sprawić, że niektóre estymatory i inne statystyki mogą dać całkowicie błędne wartości.

Przykładowo szczególnym przypadkiem estymacji jest znajdowanie parametrów regresji liniowej za pomocą metody najmniejszych kwadratów. Metoda ta w przypadku dodania do zbioru danych nawet jednego elementu znacznie oddalonego od prostej regresji może całkowicie zmienić wynik. Tendencja rosnąca może nagle stać się malejącą, korelacja dodatnia, ujemną, itp.

Niektóre metody obejścia tego problemu:

Zobacz też[edytuj | edytuj kod]

Bibliografia[edytuj | edytuj kod]

  • W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006. ISBN 83-01-14292-8.