Estymator nieobciążony

Estymator nieobciążony
Polecane artykuły


Estymator to wielkość wyznaczona na podstawie próby losowej, służąca do oceny wartości nieznanych parametrów populacji generalnej.
Estymatorem parametru Q rozkładu zmiennej losowej X nazywamy taką statystykę:

\[Z_n=f (X_1, X_2, X_3....X_n) , \]

której rozkład prawdopodobieństwa zależy od szacowanego parametru Q. Konkretną wartość liczbową \(Z_n\)=f (\(x_1, x_2,..., x_n\)), jaką przyjmuje estymator \(Z_n\) parametru Q dla realizacji próby (\(x_1, x_2,...., x_n\)), nazywamy oceną parametru Q. Ocena \(Z_n\) jest zatem realizacją zmiennej losowej \(X_n\)

Szacując dany parametr, obok jego oceny, ważne jest, żeby optymalny parametr był przynajmniej:

Estymator nazywamy nieobciążonym, jeżeli jego wartość oczekiwana jest równa faktycznej wartości parametru populacji generalnej, tj:

\(E (Z_n)=Q\)

W przeciwnym wypadku estymator \(Z_n\), nazywamy obciążonym, a wyrażenie

\(b (Z_n)=E (Z_n) - Q\)


nazywamy obciążeniem estymatora (M.Sobczyk 2005, s. 141). Własność nieobciążoności oznacza, że przy wielokrotnym losowaniu próby średnia wartości przyjmowanych przez estymator nieobciążony równa się wartości szacowanego parametru. Innymi słowy, wartość nieobciążoności estymatora gwarantuje otrzymanie za jego pomocą ocen wolnych od błędu systematycznego.

Dla małych prób należy starać się używać estymatora nieobciążonego, natomiast dla dużych prób estymator powinien być przynajmniej asymptotycznie nieobciążony. Jest oczywiste, że z dwóch estymatorów nieobciążonych \(Zn_1\) i \(Zn_2\) lepszy jest ten, który ma mniejszą wariancje. Daje on bowiem średnio mniejsze odchylenie kwadratowe wartości oszacowanej od wartości prawdziwej


Asymptotyczna nieobciążoność

Estymator asymptotycznie nieobciążony jest wtedy, gdy oczekiwana wartość rozkładu estymatora równa jest wartości parametru szacowanego \[ E ( Z_n ) = \theta \]

Jeśli różnica pomiędzy wartością parametru szacowanego a wartością oczekiwaną rozkładu estymatora jest zależna funkcyjnie estymatora, \[ E ( Z_n ) - \theta = b ( Z_n )\]

estymator nazywamy wówczas obciążonym, a różnica nazywana jest obciążeniem estymatora.


Efektywność estymatora nieobciążonego

Efektywnością estymatora nieobciążonego \( Z_n \) parametru Q nazywamy iloraz:

\(e (Z_n)=\frac{D^2(Z_n^\ast)}{D^2(Z_n)}\)

Gdzie \(Z_n^\ast\) jest estymatorem najefektywniejszym parametru Q, a \(Z_n\) jest estymatorem ocenianym. Efektywność najefektywniejszego estymatora jest równa jedności, w pozostałych przypadkach 0 < e < 1 (I.N. Bronsztejn 1968 ). Miarą efektywności estymatora jest jego błąd standardowy. Mały błąd standardowy oznacza, że oceny parametru uzyskane z różnych prób (tej samej wielkości) będą bardzo skupione wokół wartości parametru w populacji. Estymator o najmniejszym błędzie standardowym nazywa się estymatorem najefektywniejszym.


Rozkład estymatora nieobciążonego wg krzywej normalnej

Przy n dążącym do nieskończoności, najczęstszym przypadkiem rozkładu estymatora \(Z_n\) jest rozkłąd normalny Gaussa- Laplace`a o parametrach\[E (Z_n), \sigma (Z_n)\].
Należy zwrócić uwagę, że w przypadku estymatora nieobciążonego \(E (Z_n)=Q\), różnica pomiędzy oceną parametru (Zn) a parametrem Q jest średnim błędem szacunku, tzn, odchyleniem standardowym estymatora \(\sigma (Z_n)\) (M. Krzysztofiak, A. Luszniewicz 1976) . Z krzywej normalnej G-L wynika, że przy dostatecznie licznych próbach losowych otrzymanie wartości estymatorów, różniących się od parametru więcej aniżeli o trzy błędy szacunku, jest mało prawdopodobne.

Twierdzenie Gaussa-Markowa

Twierdzenie to odpowiada na pytanie jak znaleźć najlepszy nieobciążony estymator liniowy wektora parametrów \(\beta\), tzn. wektora, którego współrzędnymi są najlepsze nieobciążone estymatory liniowe odpowiednich współrzędnych wektora \(\beta\). Brzmi ono następująco:

W klasycznym modelu regresji liniowej najlepszym nieobciążonym estymatorem liniowym wektora \(\beta\) jest wektor otrzymany

metodą najmniejszych kwadratów

\( b=\left (X'X\right)^{-1} X'y\)

Ponadto: W klasycznym modelu regresji liniowej estymator b uzyskany metodą najmniejszych kwadratów ma minimalną wariancję uogólnioną w klasie liniowych nieobciążonych estymatorów wektora \(\beta\) .

Porównania estymatorów

Z zasady istnieje sporo estymatorów nieobciążonych dla konkretnego nieznanego parametru. Tytułem przykładu w przypadku próby pochodzącej z rozkładu normalnego średnia jest ucinana, w podobny sposób jak średnia, estymatorem nieobciążonym wartości średniej. Dodatkowo widać, że sama własność nieobciążoności nie określa koniecznie dobrego estymatora: mało precyzyjny estymator nieobciążony jest w gruncie rzeczy bezużyteczny. Widać, że dla dowolnej ilości próby \( n \ge 2 \) estymatory \( \hat{\theta} = X_1 \) oraz \( \tilde{\theta} = (X_1 + X_2) /2 \) są nieobciążonymi estymatorami wartości średniej rozkładu , lecz ich rozproszenie nie maleje wraz z licznością próby. Przy dużej liczności n średnia z próby \( \bar{X} \) powinna być znacznie lepszym estymatorem (J. Kornacki 2006, s. 154). dlatego wymagane jest , aby poza nieobciążonością estymator miał również możliwie nieduże rozproszenie.

Nieobciążoność stymatora wariancji \(\sigma^2\)

W klasycznym modelu regresji liniowej (o T łącznych obserwacji na 1+K zmiennych y, \(x_1,...x_K\)) nieobciążonym estymatorem wariancji składnika losowego jest:

\(s^2=\frac{LSK}{T-K-1}\)

gdzie:

  • LSK to resztowa suma kwadratów odchyleń \( \sum\epsilon_t^2\) (\(\epsilon\) - reszta)

Metody budowy estymatorów

  1. Metoda największej wiarygodności
  • Idea
    • Należy przyjąć taką wartość oszacowania nieznanego parametru, dla której zaobserwowane dla próby

losowej wartości badanej cechy są najbardziej prawdopodobne.
Podstawą budowy estymatora jest tzw. funkcja wiarygodności (łączny rozkład z próby)

  1. Metoda momentów
  • Idea
    • Estymator nieznanych parametrów \(\theta=\left (\theta_1, \theta_2,.....,\theta_n\right)\)metodą momentów

(estymator MM) otrzymuje się z rozwiązania układu równań układu k równań (porównuje się momenty
teoretyczne z momentami empirycznymi):

\( m_l\left (\theta\right)= M_l\left (x_1, x_2,..., x_n \right)\) dla l = 1,2,..., k

Procedura się upraszcza, jeśli parametry \(\theta\) są jednoznacznie określone przez pierwszych k momentów:

\( \theta= g\left (m_1, m_2,..., m_k\right)\)

Wtedy estymator parametrów \(\theta\) otrzymamy wstawiając do powyższej funkcji momenty empiryczne:

\( \bar{\theta}= g\left (M_1, M_2,...., M_k\right)\)


Bibliografia

Autor: Anna Dziadosz, Bernadeta Nowacka