Estymator obciążony

Estymator obciążony
Polecane artykuły


Estymator jest oceną parametru populacji. Jeżeli parametr populacji generalnej oznaczymy przez Q, przez \(Z_n\) - funkcję (estymator) wartości zmiennych uzyskanych na podstawie próby: \[Z_n= f\left (X_1, X_2, X_3....X_n\right)\], to konkretna wartość T, jaką zmienna będzie przyjmować, nazywamy oceną punktową parametru Q- czyli wartość estymatora.

Estymator nazywamy obciążonym, jeżeli jego wartość oczekiwana nie jest równa faktycznej wartości parametru populacji generalnej, tj:

\(E (Z_n)\ne Q\)

a wyrażenie
\(b (Z_n)= E (Z_n)- Q\)

nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)

Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie estymator nieobciążony
pozwala przyjmować założenie, że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru
populacji na podstawie próby jest równa zeru. (Jeżeli \(b (Z_n)\) > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,
natomiast jeżeli b (Zn) < 0 to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).

Dowód na obciążenie estymatora

Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana \(m\))\[S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k- m\right)^2\] Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana \(m\), więc zastępujemy ją estymatorem \(\bar{X}\))\[S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2\]

Rozwijając równanie otrzymujemy:
\(S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=\)
\(=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=\)
\(=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=\)
\(=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=\)
\(=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)\)=
\(=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)\)=
\(=S^2-(\bar{X}-m)^2\)
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną\[E (S^2)=E (S^2-(\bar{X}-m)^2)\]
Można zapisać\[E (S^2)=E (S^2)-E ((\bar{X}-m)^2)\]
gdzie \(E (S^2)=\sigma^2\) to wartość nieobciążonego estymatora wariancji

W celu rozwinięcia wprowadzamy zmienną losową \(Y\)\[Y=\frac{1}{n}\sum_{k=1}^{n}X_k\]
Zakładamy, że ciąg \(X_k\) jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach \(m\) oraz \(\sigma^2\). Założenie to jest prawdziwe, ponieważ ciąg \(X_k\) jest realizacją próby \((X1, X2,..., Xn)\) Wartość oczekiwania zmiennej losowej \(Y\)\[E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)\]
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:
\(E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=\)
\(=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=\)
\(=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=\)
\(=\frac{1}{n}nm=m\)

Wariancja losowej \(Y\)\[D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)\]
Rozwijając to równanie otrzymujemy:
\(D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=\)
\(=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=\)
\(=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=\)
\(=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}\)

Z powyższych równań można wywnioskować\[E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}\]

Podstawiając równania:
\(E (S^2)=\sigma^2\) oraz \(E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}\) do \(E (S^2)=E (S^2)-E ((\bar{X}-m)^2)\)
Otrzymujemy\[E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})\] Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji\[E (S^2)≠\sigma^2\] c.n.d (M. Bodjański, 2008)

Przykład

Dla dowolnego rozkładu populacji z wariancją \(\sigma^2\) oraz średnią m., niech statystyki\[S^2=\frac{1}{n}\sum_{i=1}^{n}\left (X_i-\bar{X}\right)^2\]

będą estymatorami wariancji \(\sigma^2\) w n-elementowej próbie. Można wykazać, że

\(E\left (S^2\right)=\sigma^2\frac{n-1}{n}\)

oraz

\( E\left (\bar{S^2}\right) = \sigma^2.\)

Oznacza to, że statystyka \(\bar{S^2}\) jest estymatorem nieobciążonym wariancji, natomiast statystyka \(S^2\) - estymatorem obciążonym wariancji.

Obciążenie estymatora \(S^2\) wynosi

\(b_n= E\left (S^2\right)\) - \(\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2\) = \(-\sigma^2 \frac{1}{n}\)

Obciążenie to jest mniejsze od zera, co oznacza, że statystyka \(S^2\) przeciętnie nie doszacowuje wartości \(\sigma^2\) populacji. Ponieważ:

\(\lim _{n\rightarrow \infty}b_n = \lim _{n\rightarrow \infty} \left (- \sigma^2 \frac{1}{n}\right)= 0 \)

to oznacza, że statystyka \(S^2\) jest estymatorem asymptotycznie nieobciążonym (przy dużych próbach obciążenie to nie ma praktycznie znaczenia).

Estymatory podstawowych parametrów

Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).

Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:

1. Estymatorem średniej arytmetycznej populacji generalnej \( E\left (\bar{x}\right)= E (X)\) jest średnia arytmetyczna z próby losowej \(\bar{x}\),

o rozkładzie normalnym Gaussa- Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby

2. Estymatorem częstości względnej z populacji generalnej \(E\left (w_i\right)= p_i \) jest częstosć względna (wskaźnik struktury) z próby losowej \(w_i\)

o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby.

3. Estymatorem odchylenia standardowego z populacji generalnej \( E\left[S\left (x\right)\right]= \sigma (X)\) jest odchylenie standardowe z próby

losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej \( E\left[S\left (x\right)\right]= \sigma^2(X)\)
w przypadku małej próby jest wariancja z próby \(S^2\)(x) o rozkładzie chi-kwadrat.(M. Krzysztofiak, 1976)

Bibliografia

Autor: Nowacka Bernadeta, Kamil Niemiec