Przejdź do zawartości

Estymator

Z Wikipedii, wolnej encyklopedii
Estymator

Estymatorstatystyka służąca do szacowania wartości parametru rozkładu cechy w populacji, tj. pewnego rozkładu prawdopodobieństwa pod założeniem, że rozkład ten (opisujący, na przykład pewne doświadczenie) należy do rodziny rozkładów dla pewnego zbioru

Przykładowo badamy rozkład wzrostu ludności w Polsce. Zakładamy, że rozkład tej cechy w populacji jest rozkładem normalnym, zaś szukaną wielkością jest wartość oczekiwana Wartość jest zatem szukanym parametrem rozkładu cechy W celu oszacowania tych wielkości zbieramy dane z próby losowej o liczebności Następnym krokiem będzie znalezienie wygodnej statystyki z próby, która posłuży do oszacowania parametru Rolę takiej statystyki może spełniać wartość średnia z próby. Mówimy zatem, że wartość średnia z próby jest estymatorem wartości oczekiwanej rozkładu normalnego. Obliczoną przez nas na podstawie konkretnej próby wartość średnią nazywamy oceną parametru.

Definicja

[edytuj | edytuj kod]

Niech

będzie rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby indeksowaną parametrem (w szczególności może to być wektor parametrów rzeczywistych). opisuje wielowymiarowy łączny rozkład wszystkich obserwacji w próbie

Zagadnienie estymacji punktowej polega na takim skonstruowaniu pewnej statystyki zwanej estymatorem, aby wartości były bliskie (w jakimś ustalonym sensie) wartości W szczególności, jeśli estymowany jest tylko jeden z parametrów rozkładu (czyli jedna ze współrzędnych wektora ), to odległość między i liczona jest tylko dla tej współrzędnej.

Ponieważ każda ze zmiennych losowych ma rozkład identyczny z rozkładem cechy w populacji generalnej, a rozkład ten zależy od parametru estymatory są zmiennymi losowymi, mającymi rozkład również zależny od parametru

Estymacja przedziałowa

[edytuj | edytuj kod]

Estymacja przedziałowa w przypadku jednowymiarowym, tj. gdy polega na skonstruowaniu dwóch statystyk i tak by

gdzie jest ustalonym prawdopodobieństwem (tzw. poziom ufności). Przedział to przedział ufności na poziomie

O estymacji z zadaną precyzją mówi się jeśli nałożone jest górne ograniczenie na wielkość Oceną parametru lub estymatą nazywa się każdą realizację estymatora (zmiennej losowej ). Ocena parametru będzie prawie zawsze różnić się od oryginalnej wartości parametru Wprowadza się zatem miarę błędu estymacji, tj. różnicę

Właściwości estymatorów

[edytuj | edytuj kod]

Definicja estymatora pozostawia dużą dowolność w wybraniu danej statystyki do szacowania parametru, nie pozwalając jednocześnie na ocenę, która ze statystyk jest „dobrym” estymatorem. Aby sprawdzić, czy dana statystyka jest dobrym kandydatem na estymator parametru, sprawdza się czy spełnia ona zestaw własności charakteryzujących estymator.

Nieobciążoność

[edytuj | edytuj kod]

Estymator jest nieobciążony gdy wartość oczekiwana rozkładu estymatora jest równa wartości szacowanego parametru:

Jeśli różnica pomiędzy wartością oczekiwaną rozkładu estymatora a wartością szacowanego parametru jest zależna funkcyjnie od estymatora:

to estymator nazywany jest obciążonym, zaś sama różnica nazywana jest obciążeniem estymatora.

Asymptotyczna nieobciążoność

[edytuj | edytuj kod]

Estymator nazywany jest asymptotycznie nieobciążonym, gdy obciążenie estymatora dąży do zera przy rosnącej liczebności próby:

Każdy estymator nieobciążony jest estymatorem asymptotycznie nieobciążonym.

Zgodność

[edytuj | edytuj kod]

Estymator nazywany zgodnym, jeśli jest stochastycznie zbieżny do szacowanego parametru, tj. dla każdego zachodzi

Zbieżność taka oznacza, że jeśli rośnie liczebność próby, to rośnie też prawdopodobieństwo, że oszacowanie przy pomocy estymatora będzie przyjmować wartości coraz bliższe wartości szacowanego parametru. Innymi słowy, zwiększając liczebność próby, zmniejszamy ryzyko popełnienia błędu większego niż pewna ustalona wielkość.

Efektywność

[edytuj | edytuj kod]

Spośród zbioru wszystkich nieobciążonych estymatorów najefektywniejszym nazywamy estymator o najmniejszej wariancji.

Definicja ta jest bardzo niewygodna, ponieważ do wyznaczenia najefektywniejszego estymatora potrzebna jest znajomość wariancji wszystkich estymatorów nieobciążonych danego parametru rozkładu. W praktyce o wiele łatwiej jest skorzystać z nierówności Rao-Craméra.

Asymptotyczna efektywność

[edytuj | edytuj kod]

Estymator jest asymptotycznie najefektywniejszy, jeśli przy wzrastającej liczebności próby wariancja estymatora dąży do wariancji estymatora najefektywniejszego

gdzie oznacza wariancję estymatora.

Dostateczność

[edytuj | edytuj kod]

Estymator jest dostateczny, jeśli można ze względu na niego dokonać faktoryzacji (rozłożenia na iloczyn) łącznej funkcji gęstości wektora wyników próby

gdzie jest funkcją niezależną od parametru

Metody wyznaczania estymatorów

[edytuj | edytuj kod]

Jeśli nie jest oczywiste, jaką statystykę należy wybrać jako kandydata na estymator, z pomocą przychodzą różnorodne metody ich wyznaczania.

Metoda momentów

[edytuj | edytuj kod]

Etap 1.

Przedstawiamy momenty (zwykłe lub centralne) jako funkcje parametrów rozkładu:

Momenty wybieramy w taki sposób, aby powstały w ten sposób układ równań miał jednoznaczne rozwiązanie.

Etap 2.

Rozwiązujemy układ równań względem parametrów i w miejsce momentów z populacji wstawiamy momenty z próby

Metoda największej wiarygodności

[edytuj | edytuj kod]

(W literaturze stosowana jest zarówno pisownia „wiarygodności”, jak i „wiarogodności”).

Etap 1.

Wyznaczamy funkcję wiarygodności próby zgodnie ze wzorami:

dla rozkładów ciągłych,
dla rozkładów skokowych,

gdzie oznacza funkcję gęstości rozkładu, zaś funkcję prawdopodobieństwa.

Etap 2.

Wyznaczamy (funkcje i osiągają maksimum dla tej samej wartości, a często zamiast wygodniej jest używać logarytmu funkcji wiarygodności).

Etap 3.

Wyznaczamy pochodne cząstkowe dla Gdy jest dyskretna nie możemy różniczkować, wyliczamy Wiarygodność wtedy jest maksymalizowana przez najmniejsze n przy którym ten stosunek jest 1.

Etap 4.

Rozwiązujemy układ równań względem

Rozwiązanie układu stanowią estymatory szukanych parametrów.

Uwaga! W ogólności wynikiem są ekstrema funkcji wiarygodności, a więc należy sprawdzić, czy funkcja dla wyliczonych przyjmuje maksimum (a nie minimum). Można to zrobić, sprawdzając, czy druga pochodna w punktach jest ujemna lub poprzez analizę zmienności znaku funkcji uzyskanej z obliczenia pierwszej pochodnej wokół miejsc zerowych.

Przykład

Poszukujemy estymatorów rozkładu normalnego, funkcja gęstości prawdopodobieństwa:

Wyznaczamy logarytm w celu uproszczenia obliczeń:

Funkcja wiarygodności

Maksymalizujemy ze względu na

Co daje standardowy estymator średniej, jako estymator parametru

Podobnie maksymalizujemy ze względu na

Co daje ostatecznie standardowy estymator wariancji, jako estymator parametru

Alternatywne podejście do statystyki, tzn. statystyka subiektywna, bayesowska, gradacyjna i metody rangowe ogranicza stosowanie estymatorów. Wskazuje się, że estymatory tak naprawdę dobierane są ad-hoc, a wszystkie ważne kryteria takie jak nieobciążoność i minimalna wariancja zależą od wyboru układu odniesienia, a kryteria doboru estymatora przy danym rozkładzie zależą od „kosztów” błędnego oszacowania – jeśli np. przeszacowane o 1 kosztuje nas tyle co niedoszacowanie o 5, nieobciążony estymator będzie złym wyborem. Zagadnienie to jest sformalizowane jako kompromis między obciążeniem a wariancją estymatorów.

Na przykład jeśli badamy rozmiary baniek mydlanych (idealnie kulistych) i wyniki pomiarów to:

Numer pomiaru Średnica [cm] Pole przekroju [cm²] Objętość [cm³]
1 2
2 4
3 6
4 8

Mamy teraz kilka możliwości:

  • możemy przyjąć za wymiar podstawowy średnicę, wybrać estymator dla średnicy, i obliczyć pozostałe wymiary na podstawie średnicy,
  • możemy zrobić to samo z polem przekroju,
  • lub objętością,
  • lub estymować każdy wymiar osobno.

Wyniki to:

Metoda Średnica Pole przekroju Objętość
Średnica 5 6,25 π 20,83 π
Pole przekroju 5,48 7,5 π 27,29 π
Objętość 5,84 8,55 π 33,33 π
Niezależnie 5 7,5 π 33,33 π

Zatem estymator nieobciążony dla każdego z wymiarów daje „obciążone” wyniki dla pozostałych, a estymowanie każdego wymiaru z osobna prowadzi do niezachowania zależności między wymiarami.

Metoda stosowana w statystyce subiektywistycznej wymusza na nas:

  • Przyjęcie explicite założeń co do rozkładu, czyli rozkładu a priori (co w przeciwnym wypadku musimy zrobić niejawnie, np. w powyższym przykładzie wybierając jeden z wymiarów). Na tej podstawie z reguły Bayesa wyprowadzamy wzór na rozkład a posteriori parametrów modelu (w statystyce klasycznej żaden z tych dwóch rozkładów nie jest dopuszczalny, choć są czasem stosowane niejawnie).
  • Przyjęcie explicite funkcji kosztu. Na podstawie funkcji kosztu oraz rozkładu a posteriori wyliczamy jedyny możliwy w tym przypadku estymator.

Ucięty rozkład normalny

[edytuj | edytuj kod]

Istnieją też relatywnie proste rozkłady w których lepiej jest przyjąć rozkład obciążony od nieobciążonego. Przyjmijmy, że zmienna ma rozkład normalny o znanej wariancji i nieznanej (ale należącej do znanego przedziału) wartości oczekiwanej, ale odczyty z naszych urządzeń pomiarowych wszystkie wartości ujemne przedstawiają jako 0. Przyjmijmy, że dla danych zawierających tylko liczby dodatnie estymator zwraca dodatnie oszacowanie parametru. Jest to bardzo pożądana cecha. Estymator musiałby jednak zwracać coś również dla odczytów zawierających wyłącznie zera – przyjmijmy, że dla odczytów będących samymi zerami zwraca

Załóżmy, że wartość oczekiwana wynosi Chcemy jednak żeby estymator był nieobciążony – w tym celu, jeśli niedoszacowania w wyniku wylosowania samych zer mogą być równoważone przez przeszacowania w wyniku wylosowania jakiegoś niezerowego wyniku. Jeśli jednak to nie istnieje żaden estymator nieobciążony, gdyż niezależnie od wyniku pomiarów estymator zwróci oszacowanie wyższe od A zatem żeby estymator był nieobciążony, to dla każdego oszacowanie musi być nie większe od najmniejszej możliwej wartości parametru, a ponieważ w rozkładzie normalnym szansa na odczyt innej wartości niż zero jest niezerowa (choć może być bardzo mała), to żeby równoważyć estymację musi być ostro mniejsze od najmniejszej możliwej wartości parametru. Szacowanie odczytu serii kolejnych zer na wartość mniejszą od najmniejszej dopuszczalnej zdecydowanie nie jest pożądaną własnością estymatora.

Lepiej jest więc przyjąć jakiś estymator obciążony – np. estymator Bayesowski powstały przez przyjęcie wszystkich wartości parametru za równie prawdopodobne oraz funkcji kosztu za kwadrat różnicy między parametrem a jego estymacją. Taki estymator będzie bardzo bliski średniej arytmetycznej dla wyników dodatnich (nie będzie ściśle równy średniej ze względu na istnienie górnej granicy możliwych wartości parametru), a dla serii zer przyjmie rozsądniejsze wartości, zaczynając powyżej połowy ujemnego przedziału (być może w przedziale dodatnim) dla niskich k i obniżając się powoli asymptotycznie do najmniejszej dopuszczalnej wartości dla przedziału ujemnego.

Obserwacje odstające

[edytuj | edytuj kod]
 Osobny artykuł: statystyka odpornościowa.

Estymatory z zasady wyznaczają jeden z parametrów rozkładu, a zatem zakładają pewny określony rozkład lub klasę rozkładów, do których ma należeć rozkład danej zmiennej losowej. Na ogół jest to rozkład normalny, lub (w przypadku wielowymiarowych zmiennych losowych) wielowymiarowy rozkład normalny.

W praktyce jednak dane na ogół zawierają tzw. obserwacje odstające (ang. outliers), czyli wartości, które dostały się do zbioru przypadkowo i nie odzwierciedlają rzeczywistości. Mogą to być efekty błędnego zrozumienia pytania przez osobę ankietowaną, zaburzeń w procesie pomiaru itp. Można milcząco zakładać, że dobrze przeprowadzony eksperyment nigdy nie wyprodukuje elementów odstających, jednak w praktyce zbiory bez elementów odstających zdarzają się bardzo rzadko.

Elementy odstające zaburzają w sposób nieprzewidywalny rozkład z próby danej zmiennej losowej. Nawet jeden element odstający może sprawić, że niektóre estymatory i inne statystyki mogą dać całkowicie błędne wartości.

Przykładowo szczególnym przypadkiem estymacji jest znajdowanie parametrów regresji liniowej za pomocą metody najmniejszych kwadratów. Metoda ta w przypadku dodania do zbioru danych nawet jednego elementu znacznie oddalonego od prostej regresji może całkowicie zmienić wynik. Tendencja rosnąca może nagle stać się malejącą, korelacja dodatnia, ujemną itp.

Niektóre metody obejścia tego problemu:

Bibliografia

[edytuj | edytuj kod]
  • W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006. ISBN 83-01-14292-8.