Estymator

Z Encyklopedia Zarządzania
Wersja z dnia 21:06, 10 paź 2023 autorstwa Sw (dyskusja | edycje) (Dodanie MetaData Description)
Estymator
Polecane artykuły


Estymatorem parametru populacji jest statystyka z próby używana do oszacowania tego parametru. Aby oszacować niewiadomy parametr na podstawie próby należy wyznaczyć z próby wartości zn estymatora Zn, którego rozkład jest zależny od estymowanego parametru i przyjmowania tej wartości za oszacowanie parametru. Przy takiej metodzie naturalnym wydaje się warunek, aby wartości estymatora były skupione na pobliskim otoczeniu rzeczywistej wartości niewiadomego parametru. Oznacza to, że nie wszystkie estymatory są identycznie dobre i nie należy wymagać, aby estymatory, z których korzystamy, spełniały dane warunki. Aby sprecyzować te warunki należy wprowadzić kilka określeń wymienionych niżej.

TL;DR

Estymatory są statystykami używanymi do oszacowania parametru populacji na podstawie próby. Istnieją różne cechy estymatorów, takie jak nieobciążoność, asymptotyczna nieobciążoność, zgodność i efektywność. Metody uzyskiwania estymatorów to metoda momentów i metoda największej wiarygodności. Istnieje wiele różnych estymatorów modalnych, takich jak estymator Chernoffa, estymator Daleniusa, estymator Vantera, itp.

Cechy estymatorów

Nieobciążoność

Estymator jest nieobciążony, jeśli wartość oczekiwana rozkładu estymatora jest równa wartości szacowanego parametru:

Jeśli różnica pomiędzy wartością oczekiwaną rozkładu estymatora a wartością szacowanego parametru jest zależna funkcyjnie od
estymatora:

to estymator nazywamy obciążonym, zaś samą różnicę nazywamy obciążeniem estymatora.

Asymptotyczna nieobciążoność

Estymator nazywamy asymptotycznie nieobciążonym, jeśli obciążenie estymatora dąży do zera przy rosnącej liczebności próby:

Każdy estymator nieobciążony jest oczywiście estymatorem asymptotycznie nieobciążonym.

Zgodność

Estymator nazywamy zgodnym, jeśli jest stochastycznie zbieżny do szacowanego parametru:

Oznacza to, że jeśli rośnie liczebność próby, rośnie też prawdopodobieństwo, że oszacowanie przy pomocy estymatora będzie przyjmować wartości coraz bliższe wartości szacowanego parametru. Inaczej: zwiększając liczebność próby, zmniejszamy ryzyko popełnienia błędu.

Efektywność

"Estymatorem najefektywniejszym parametru nazywamy ten spośród nieobciążonych estymatorów tego parametru, który ma najmniejszą wariancję." (A. Plucińska, E. Pluciński, Probablistyka, Warszawa 2017, s. 247). Nie zawsze estymatory najefektywniejsze parametrów istnieją. Jeśli jednak istnieje najefektywniejszy estymator Zn parametru θ, to jego wartości najmocniej skupiają się wokół wartości E (Zn) = θ. Estymator Zn parametru θ zgodny i najefektywniejszy uważać można będzie za najlepszy do wyliczenia nieznanego parametru θ, gdyż z dużym prawdopodobieństwem można założyć, że obserwowana wartość estymatora Zn jest bliska rzeczywistej wartości parametru θ. Jeżeli rzeczywiście istnieje najefektywniejszy estymator Zn parametru θ, to jego wybór umożliwia tzw. nierówność Rao-Cramera.

Metody uzyskiwania estymatorów

Wyróżniamy dwie metody uzyskiwania estymatorów:

  • Metoda momentów
  • Metoda największej wiarygodności

Metoda momentów wprowadzona została przez angielskiego matematyka K. Pearsona. Polega na przyjmowaniu za oszacowanie niewiadomych momentów cechy X elementów populacji, dostrzeżonych wartości momentów empirycznych. Analogicznie za oszacowanie parametrów populacji, które są funkcjami momentów, uznaje się wartości tychże funkcji momentów empirycznych. Zaletą estymatorów otrzymanych metodą momentów jest to, że odnalezienie ich wartości jest zazwyczaj związane z prostymi obliczeniami. Wadą otrzymanych w taki sposób estymatorów jest to, że ich efektywność jest niewielka (jedynym pozytywnym wyjątkiem jest moment gdy cecha X ma rozkład normalny).

Metoda największej wiarygodności została omówiona przez Fishera. Załóżmy, że cecha X elementów populacji będzie losową ciągłą o gęstości prawdopodobieństwa f i będzie zależała od m nieznanych parametrów θ1, θ2,..., θm. Parametry te chcemy oszacować na podstawie n-elementowej próby, w której zauważono wartości x1, x2,..., xn. W tym celu wprowadzamy funkcję L, która została zapisana wzorem:

L (x1, x2,..., xn1, θ2,..., θm = f (x11, θ2,..., θm) f (x21, θ2,..., θm)... f (xn1, θ2,..., θm).

Nazywamy ją funkcją wiarygodności. Tę wartość parametrów θ1, θ2,..., θm, dla których L jest największe (max), przyjmować będziemy za oszacowanie niewiadomych parametrów. Dane wartości będą bez wątpienia zależeć od wartości dostrzeżonych w próbie, a zatem są funkcjami próby, czyli statystykami. Nazywamy je estymatorami największej wiarygodności. Estymatory uzyskane tą metodą niekiedy są trudne do wyznaczenia ze względów obliczeniowych. Zdarza się jednak, że przy odpowiednich założeniach ogólnych, które dotyczą regularności dystrybuanty jako funkcji parametru θ, mają pożądane własności asymptotyczne. Mianowicie estymatory największej wiarygodności mają asymptotyczne rozkłady normalne i są asymptotycznie najefektywniejsze.

Bezpośrednie estymatory modalnej

W estymatorach z zadanym przedziałem zakładamy, że pierwszorzędnie ustala się szerokość przedziału liczbowego. Później szuka się takiego przedziału o zadanej długości, zawierającego największą liczbę badań. Punkt z wybranego przedziału uznaje się za estymator modalnej. Mnogość estymatorów wynika ze sposobu wyboru wielkości tego przedziału oraz z zasady wyboru punktu - estymatora z tego przedziału.

Estymatory z zadanym przediałem:

  • Estymator Chernoffa

Estymatory z zadaną czśtotliwością:

  • Estymator Daleniusa
  • Estymator Vantera
  • Estymator shorth
  • Estymator Rousseeuwa i Leroya

Estymatory iteracyjne:

  • Estymator Robertsona i Cryera
  • Estymator Ellisa, Copelowitza i Steela
  • Estymatory Bickela

Inne estymatory:

  • Estymator Pearsona
  • Przybliżony estymator Pearsona
  • Estymator Grenandera
  • Estymator Wywiała
  • Estymatory Bickela II

Bibliografia

Autor: Michał Mikołajczyk, Dominik Juszczyk