Estymator obciążony: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (cleanup bibliografii i rotten links)
m (cleanup bibliografii i rotten links)
Linia 19: Linia 19:
: <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>,
: <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>,
to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową
to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową
parametru Q- czyli wartość estymatora.<br>
parametru Q- czyli wartość estymatora.


Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest
Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest
równa faktycznej wartości parametru populacji generalnej, tj:
równa faktycznej wartości parametru populacji generalnej, tj:


:<center><math>E (Z_n)\ne Q</math></center><br> a wyrażenie
:<center><math>E (Z_n)\ne Q</math></center>
a wyrażenie
:<center><math>b (Z_n)= E (Z_n)- Q</math></center>
:<center><math>b (Z_n)= E (Z_n)- Q</math></center>
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)


Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.<br>
Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]]<br>
 
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru<br>
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]]
 
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru
 
populacji na podstawie próby jest równa zeru.
populacji na podstawie próby jest równa zeru.
(Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,<br>
(Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,
 
natomiast jeżeli b (Zn) < 0
natomiast jeżeli b (Zn) < 0
to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).
to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).
Linia 49: Linia 54:
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math>
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math>


Rozwijając równanie otrzymujemy: <br>
Rozwijając równanie otrzymujemy:  
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math><br>
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math>
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math><br>
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math>
<math>=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>=<br>
 
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>=<br>
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=</math>
<math>=S^2-(\bar{X}-m)^2</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math>
 
<math>=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>=
 
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>=
 
<math>=S^2-(\bar{X}-m)^2</math>
 
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:
<math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math><br>
<math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math>
 
Można zapisać:
Można zapisać:
<math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math><br>
<math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math>
 
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji


W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>:
W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>:
<math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math><br>
<math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math>
 
Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math>
Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math>
Wartość oczekiwania zmiennej losowej <math>Y</math>:
Wartość oczekiwania zmiennej losowej <math>Y</math>:
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math> <br>
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math>  
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób: <br>
 
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math><br>
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:  
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math><br>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math><br>
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math>
<math>=\frac{1}{n}nm=m</math><br><br>
 
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math>
 
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math>
 
<math>=\frac{1}{n}nm=m</math>


Wariancja losowej <math>Y</math>:
Wariancja losowej <math>Y</math>:
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math><br>
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math>
Rozwijając to równanie otrzymujemy:<br>
 
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math><br>
Rozwijając to równanie otrzymujemy:
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math><br>
 
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math><br>
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math>
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math><br>
 
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math>
 
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math>
 
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math>


Z powyższych równań można wywnioskować:
Z powyższych równań można wywnioskować:
<math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math><br>
<math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math>
 
Podstawiając równania:
 
<math>E (S^2)=\sigma^2</math> oraz <math>E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}</math> do <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math>


Podstawiając równania: <br>
<math>E (S^2)=\sigma^2</math> oraz <math>E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}</math> do <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math><br>
Otrzymujemy:
Otrzymujemy:
<math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math>
<math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math>
Linia 101: Linia 129:
<center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center>
<center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center>


Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji.<br>
Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji.
 
'''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center>
'''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center>
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji.
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji.
Linia 109: Linia 138:
===Estymatory podstawowych parametrów===
===Estymatory podstawowych parametrów===


Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji<br>
Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).<br>
 
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).


Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:
Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:
Linia 118: Linia 148:
o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby.
o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby.
:3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby
:3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby
losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math> <br>w przypadku
losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math>  
w przypadku
małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976)
małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976)


==Bibliografia==
==Bibliografia==
<noautolinks>
<noautolinks>
* Adrian A. (2014) [http://home.agh.edu.pl/~adan/wyklady/siod7-2014.pdf ''Statystyka i Opracowanie Danych'']
* Adrian A. (2014) [https://home.agh.edu.pl/~adan/wyklady/siod7-2014.pdf ''Statystyka i Opracowanie Danych'']
* Błaszczyński J. (2018) [http://www.cs.put.poznan.pl/jblaszczynski/teaching/SiAD/slajdy/Estymatory.pdf ''Estymatory - Statystyka i analiza danych 2017/2018'']
* Błaszczyński J. (2018) [https://www.cs.put.poznan.pl/jblaszczynski/teaching/SiAD/slajdy/Estymatory.pdf ''Estymatory - Statystyka i analiza danych 2017/2018'']
* Bodjański M. (2008) [https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf ''Estymator wariancji - dowód na obciążenie''], Problemy techniki uzbrojenia, s. 96
* Bodjański M. (2008) [https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf ''Estymator wariancji - dowód na obciążenie''], Problemy techniki uzbrojenia, s. 96
* Krzysztofiak M. (1976) ''Statystyka'', PWE, Warszawa, s. 172
* Krzysztofiak M. (1976) ''Statystyka'', PWE, Warszawa, s. 172

Wersja z 21:35, 29 paź 2023

Estymator obciążony
Polecane artykuły

Estymator jest oceną parametru populacji. Jeżeli parametr populacji generalnej oznaczymy przez Q, przez - funkcję (estymator) wartości zmiennych uzyskanych na podstawie próby:

,

to konkretna wartość T, jaką zmienna będzie przyjmować, nazywamy oceną punktową parametru Q- czyli wartość estymatora.

Estymator nazywamy obciążonym, jeżeli jego wartość oczekiwana nie jest równa faktycznej wartości parametru populacji generalnej, tj:

a wyrażenie

nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)

Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.

Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie estymator nieobciążony

pozwala przyjmować założenie, że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru

populacji na podstawie próby jest równa zeru. (Jeżeli > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,

natomiast jeżeli b (Zn) < 0 to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).

TL;DR

Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja.

Dowód na obciążenie estymatora

Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana ):

Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana , więc zastępujemy ją estymatorem ):

Rozwijając równanie otrzymujemy:

=

=

Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:

Można zapisać:

gdzie to wartość nieobciążonego estymatora wariancji

W celu rozwinięcia wprowadzamy zmienną losową :

Zakładamy, że ciąg jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach oraz . Założenie to jest prawdziwe, ponieważ ciąg jest realizacją próby Wartość oczekiwania zmiennej losowej :

Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:

Wariancja losowej :

Rozwijając to równanie otrzymujemy:

Z powyższych równań można wywnioskować:

Podstawiając równania:

oraz do

Otrzymujemy: Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji: c.n.d (M. Bodjański, 2008)

Przykład

Dla dowolnego rozkładu populacji z wariancją oraz średnią m., niech statystyki:

będą estymatorami wariancji w n-elementowej próbie. Można wykazać, że

oraz

Oznacza to, że statystyka jest estymatorem nieobciążonym wariancji, natomiast statystyka - estymatorem obciążonym wariancji.

Obciążenie estymatora wynosi

- =

Obciążenie to jest mniejsze od zera, co oznacza, że statystyka przeciętnie nie doszacowuje wartości populacji. Ponieważ:

to oznacza, że statystyka jest estymatorem asymptotycznie nieobciążonym (przy dużych próbach obciążenie to nie ma praktycznie znaczenia).

Estymatory podstawowych parametrów

Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji

populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).

Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:

1. Estymatorem średniej arytmetycznej populacji generalnej jest średnia arytmetyczna z próby losowej ,

o rozkładzie normalnym Gaussa- Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby

2. Estymatorem częstości względnej z populacji generalnej jest częstosć względna (wskaźnik struktury) z próby losowej

o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby.

3. Estymatorem odchylenia standardowego z populacji generalnej jest odchylenie standardowe z próby

losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej w przypadku małej próby jest wariancja z próby (x) o rozkładzie chi-kwadrat.(M. Krzysztofiak, 1976)

Bibliografia


Autor: Nowacka Bernadeta, Kamil Niemiec