Estymator obciążony: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (cleanup bibliografii i rotten links)
m (cleanup bibliografii i rotten links)
 
(Nie pokazano 10 wersji utworzonych przez 2 użytkowników)
Linia 1: Linia 1:
{{infobox4
|list1=
<ul>
<li>[[Przedział ufności]]</li>
<li>[[Estymator nieobciążony]]</li>
<li>[[Regresja liniowa]]</li>
<li>[[Współczynnik korelacji rang Spearmana]]</li>
<li>[[Metody statystyczne]]</li>
<li>[[Test zgodności chi-kwadrat]]</li>
<li>[[Wariancja]]</li>
<li>[[Test Shapiro-Wilka]]</li>
<li>[[Estymacja]]</li>
</ul>
}}
[[Estymator]] jest oceną parametru populacji. Jeżeli [[parametr]] populacji generalnej
[[Estymator]] jest oceną parametru populacji. Jeżeli [[parametr]] populacji generalnej
oznaczymy przez Q, przez <math>Z_n</math> - funkcję (estymator) wartości zmiennych uzyskanych na
oznaczymy przez Q, przez <math>Z_n</math> - funkcję (estymator) wartości zmiennych uzyskanych na
Linia 19: Linia 4:
: <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>,
: <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>,
to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową
to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową
parametru Q- czyli wartość estymatora.<br>
parametru Q - czyli wartość estymatora.


Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest
Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest
równa faktycznej wartości parametru populacji generalnej, tj:
równa faktycznej wartości parametru populacji generalnej, tj:


:<center><math>E (Z_n)\ne Q</math></center><br> a wyrażenie
:<center><math>E (Z_n)\ne Q</math></center>
:<center><math>b (Z_n)= E (Z_n)- Q</math></center>
a wyrażenie
:<center><math>b (Z_n)= E (Z_n) - Q</math></center>
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)


Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.<br>
Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]]<br>
 
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru<br>
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]]
 
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru
 
populacji na podstawie próby jest równa zeru.
populacji na podstawie próby jest równa zeru.
(Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,<br>
(Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,
 
natomiast jeżeli b (Zn) < 0
natomiast jeżeli b (Zn) < 0
to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).
to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).
<google>ban728t</google>
 
<google>n</google>


==TL;DR==
==TL;DR==
Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja.
Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja.


== Dowód na obciążenie estymatora ==
==Dowód na obciążenie estymatora==
 
Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana <math>m</math>):
Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana <math>m</math>):


<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k- m\right)^2</math>
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k - m\right)^2</math>
Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana <math>m</math>, więc zastępujemy ją estymatorem <math>\bar{X}</math>):
Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana <math>m</math>, więc zastępujemy ją estymatorem <math>\bar{X}</math>):


<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math>
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math>


Rozwijając równanie otrzymujemy: <br>
Rozwijając równanie otrzymujemy:  
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math><br>
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math>
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math><br>
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math>
<math>=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>=<br>
 
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>=<br>
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2-2(X_k-m)(\bar{X}-m)\right)=</math>
<math>=S^2-(\bar{X}-m)^2</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2-2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math>
 
<math>=S^2+(\bar{X}-m)^2-2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>=
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>=
<math>=S^2-(\bar{X}-m)^2</math>
 
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:
<math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math><br>
<math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math>
 
Można zapisać:
Można zapisać:
<math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math><br>
<math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math>
 
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji


W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>:
W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>:
<math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math><br>
<math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math>
 
Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math>
Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math>
Wartość oczekiwania zmiennej losowej <math>Y</math>:
Wartość oczekiwania zmiennej losowej <math>Y</math>:
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math> <br>
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math>  
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób: <br>
 
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math><br>
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:  
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math><br>
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math>
<math>=\frac{1}{n}nm=m</math><br><br>
 
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math>
 
<math>=\frac{1}{n}nm=m</math>


Wariancja losowej <math>Y</math>:
Wariancja losowej <math>Y</math>:
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math><br>
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math>
Rozwijając to równanie otrzymujemy:<br>
 
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math><br>
Rozwijając to równanie otrzymujemy:
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math><br>
 
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math><br>
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math>
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math><br>
 
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math>
 
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math>
 
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math>


Z powyższych równań można wywnioskować:
Z powyższych równań można wywnioskować:
<math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math><br>
<math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math>
 
Podstawiając równania:
 
<math>E (S^2)=\sigma^2</math> oraz <math>E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}</math> do <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math>


Podstawiając równania: <br>
<math>E (S^2)=\sigma^2</math> oraz <math>E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}</math> do <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math><br>
Otrzymujemy:
Otrzymujemy:
<math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math>
<math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math>
Linia 92: Linia 103:
<math>E (S^2) \neq \sigma^2</math> c.n.d (M. Bodjański, 2008)
<math>E (S^2) \neq \sigma^2</math> c.n.d (M. Bodjański, 2008)


== Przykład ==
==Przykład==
 
Dla dowolnego rozkładu populacji z wariancją <math>\sigma^2</math> oraz średnią m., niech statystyki:
Dla dowolnego rozkładu populacji z wariancją <math>\sigma^2</math> oraz średnią m., niech statystyki:
<math>S^2=\frac{1}{n}\sum_{i=1}^{n}\left (X_i-\bar{X}\right)^2</math>
<math>S^2=\frac{1}{n}\sum_{i=1}^{n}\left (X_i-\bar{X}\right)^2</math>
Linia 101: Linia 111:
<center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center>
<center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center>


Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji.<br>
Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji.
 
'''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center>
'''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center>
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji.
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji.
Linia 108: Linia 119:


===Estymatory podstawowych parametrów===
===Estymatory podstawowych parametrów===
Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji


Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji<br>
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).<br>


Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:
Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:
:1. Estymatorem średniej arytmetycznej populacji generalnej <math> E\left (\bar{x}\right)= E (X)</math> jest średnia arytmetyczna z próby losowej <math>\bar{x}</math>,
:1. Estymatorem średniej arytmetycznej populacji generalnej <math> E\left (\bar{x}\right)= E (X)</math> jest średnia arytmetyczna z próby losowej <math>\bar{x}</math>,
o rozkładzie normalnym Gaussa- Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby
o rozkładzie normalnym Gaussa - Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby
:2. Estymatorem częstości względnej z populacji generalnej <math>E\left (w_i\right)= p_i </math> jest częstosć względna ([[wskaźnik]] struktury) z próby losowej <math>w_i</math>
:2. Estymatorem częstości względnej z populacji generalnej <math>E\left (w_i\right)= p_i </math> jest częstosć względna ([[wskaźnik]] struktury) z próby losowej <math>w_i</math>
o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby.
o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego - w przypadku małej próby.
:3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby
:3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby
losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math> <br>w przypadku
losowej S (x) o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math>  
w przypadku
małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976)
małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976)
{{infobox5|list1={{i5link|a=[[Przedział ufności]]}} &mdash; {{i5link|a=[[Estymator nieobciążony]]}} &mdash; {{i5link|a=[[Regresja liniowa]]}} &mdash; {{i5link|a=[[Współczynnik korelacji rang Spearmana]]}} &mdash; {{i5link|a=[[Metody statystyczne]]}} &mdash; {{i5link|a=[[Test zgodności chi-kwadrat]]}} &mdash; {{i5link|a=[[Wariancja]]}} &mdash; {{i5link|a=[[Test Shapiro-Wilka]]}} &mdash; {{i5link|a=[[Estymacja]]}} }}


==Bibliografia==
==Bibliografia==
<noautolinks>
<noautolinks>
* Adrian A. (2014) [http://home.agh.edu.pl/~adan/wyklady/siod7-2014.pdf ''Statystyka i Opracowanie Danych'']
* Adrian A. (2014), ''[https://home.agh.edu.pl/~adan/wyklady/siod7-2014.pdf Statystyka i Opracowanie Danych]'', wykłady, AGH, Kraków
* Błaszczyński J. (2018) [http://www.cs.put.poznan.pl/jblaszczynski/teaching/SiAD/slajdy/Estymatory.pdf ''Estymatory - Statystyka i analiza danych 2017/2018'']
* Błaszczyński J. (2018), ''[https://www.cs.put.poznan.pl/jblaszczynski/teaching/SiAD/slajdy/Estymatory.pdf Estymatory - Statystyka i analiza danych]''
* Bodjański M. (2008) [https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf ''Estymator wariancji - dowód na obciążenie''], Problemy techniki uzbrojenia, s. 96
* Bodjański M. (2008), ''[https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf Estymator wariancji - dowód na obciążenie]'', Problemy techniki uzbrojenia, s. 96
* Krzysztofiak M. (1976) ''Statystyka'', PWE, Warszawa, s. 172
* Krzysztofiak M., Luszniewicz A. (1976), ''Statystyka'', PWE, Warszawa
* Sobczyk M. (2005) ''Statystyka'', PWN, Warszawa, s. 141
* Sobczyk M. (2007), ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa
</noautolinks>
</noautolinks>


{{a|Nowacka Bernadeta, Kamil Niemiec}}
{{a|Nowacka Bernadeta, Kamil Niemiec}}
[[Kategoria:Statystyka i Ekonometria]]
[[Kategoria:Estymacja]]


{{#metamaster:description|Estymator obciążony to ocena parametru populacji. Może być przeciętnie zawyżony lub zaniżony w stosunku do szacowanego parametru.}}
{{#metamaster:description|Estymator obciążony to ocena parametru populacji. Może być przeciętnie zawyżony lub zaniżony w stosunku do szacowanego parametru.}}

Aktualna wersja na dzień 01:22, 10 sty 2024

Estymator jest oceną parametru populacji. Jeżeli parametr populacji generalnej oznaczymy przez Q, przez - funkcję (estymator) wartości zmiennych uzyskanych na podstawie próby:

,

to konkretna wartość T, jaką zmienna będzie przyjmować, nazywamy oceną punktową parametru Q - czyli wartość estymatora.

Estymator nazywamy obciążonym, jeżeli jego wartość oczekiwana nie jest równa faktycznej wartości parametru populacji generalnej, tj:

a wyrażenie

nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)

Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.

Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie estymator nieobciążony

pozwala przyjmować założenie, że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru

populacji na podstawie próby jest równa zeru. (Jeżeli > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,

natomiast jeżeli b (Zn) < 0 to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).

TL;DR

Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja.

Dowód na obciążenie estymatora

Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana ):

Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana , więc zastępujemy ją estymatorem ):

Rozwijając równanie otrzymujemy:

= =

Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:

Można zapisać:

gdzie to wartość nieobciążonego estymatora wariancji

W celu rozwinięcia wprowadzamy zmienną losową :

Zakładamy, że ciąg jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach oraz . Założenie to jest prawdziwe, ponieważ ciąg jest realizacją próby Wartość oczekiwania zmiennej losowej :

Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:

Wariancja losowej :

Rozwijając to równanie otrzymujemy:

Z powyższych równań można wywnioskować:

Podstawiając równania:

oraz do

Otrzymujemy: Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji: c.n.d (M. Bodjański, 2008)

Przykład

Dla dowolnego rozkładu populacji z wariancją oraz średnią m., niech statystyki:

będą estymatorami wariancji w n-elementowej próbie. Można wykazać, że

oraz

Oznacza to, że statystyka jest estymatorem nieobciążonym wariancji, natomiast statystyka - estymatorem obciążonym wariancji.

Obciążenie estymatora wynosi

- =

Obciążenie to jest mniejsze od zera, co oznacza, że statystyka przeciętnie nie doszacowuje wartości populacji. Ponieważ:

to oznacza, że statystyka jest estymatorem asymptotycznie nieobciążonym (przy dużych próbach obciążenie to nie ma praktycznie znaczenia).

Estymatory podstawowych parametrów

Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji

populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).

Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:

1. Estymatorem średniej arytmetycznej populacji generalnej jest średnia arytmetyczna z próby losowej ,

o rozkładzie normalnym Gaussa - Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby

2. Estymatorem częstości względnej z populacji generalnej jest częstosć względna (wskaźnik struktury) z próby losowej

o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego - w przypadku małej próby.

3. Estymatorem odchylenia standardowego z populacji generalnej jest odchylenie standardowe z próby

losowej S (x) o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej w przypadku małej próby jest wariancja z próby (x) o rozkładzie chi-kwadrat.(M. Krzysztofiak, 1976)


Estymator obciążonyartykuły polecane
Przedział ufnościEstymator nieobciążonyRegresja liniowaWspółczynnik korelacji rang SpearmanaMetody statystyczneTest zgodności chi-kwadratWariancjaTest Shapiro-WilkaEstymacja

Bibliografia


Autor: Nowacka Bernadeta, Kamil Niemiec