Estymator obciążony: Różnice pomiędzy wersjami
m (cleanup bibliografii i rotten links) |
m (cleanup bibliografii i rotten links) |
||
Linia 19: | Linia 19: | ||
: <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>, | : <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>, | ||
to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową | to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową | ||
parametru Q- czyli wartość estymatora. | parametru Q- czyli wartość estymatora. | ||
Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest | Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest | ||
równa faktycznej wartości parametru populacji generalnej, tj: | równa faktycznej wartości parametru populacji generalnej, tj: | ||
:<center><math>E (Z_n)\ne Q</math></center> | :<center><math>E (Z_n)\ne Q</math></center> | ||
a wyrażenie | |||
:<center><math>b (Z_n)= E (Z_n)- Q</math></center> | :<center><math>b (Z_n)= E (Z_n)- Q</math></center> | ||
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005) | nazywamy obciążeniem estymatora.(M.Sobczyk, 2005) | ||
Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica. | Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica. | ||
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]] | |||
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru | Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]] | ||
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru | |||
populacji na podstawie próby jest równa zeru. | populacji na podstawie próby jest równa zeru. | ||
(Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru, | (Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru, | ||
natomiast jeżeli b (Zn) < 0 | natomiast jeżeli b (Zn) < 0 | ||
to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru). | to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru). | ||
Linia 49: | Linia 54: | ||
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math> | <math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math> | ||
Rozwijając równanie otrzymujemy: | Rozwijając równanie otrzymujemy: | ||
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math> | <math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math> | ||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math> | <math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math> | ||
<math>=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>= | |||
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>= | <math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=</math> | ||
<math>=S^2-(\bar{X}-m)^2</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math> | |||
<math>=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>= | |||
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>= | |||
<math>=S^2-(\bar{X}-m)^2</math> | |||
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną: | Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną: | ||
<math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math> | <math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math> | ||
Można zapisać: | Można zapisać: | ||
<math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math> | <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math> | ||
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji | gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji | ||
W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>: | W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>: | ||
<math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math> | <math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math> | ||
Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math> | Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math> | ||
Wartość oczekiwania zmiennej losowej <math>Y</math>: | Wartość oczekiwania zmiennej losowej <math>Y</math>: | ||
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | <math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | ||
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób: | |||
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób: | ||
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math> | <math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | ||
<math>=\frac{1}{n}nm=m</math | |||
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math> | |||
<math>=\frac{1}{n}nm=m</math> | |||
Wariancja losowej <math>Y</math>: | Wariancja losowej <math>Y</math>: | ||
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | <math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | ||
Rozwijając to równanie otrzymujemy: | |||
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | Rozwijając to równanie otrzymujemy: | ||
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math> | <math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | ||
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math | |||
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math> | |||
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math> | |||
Z powyższych równań można wywnioskować: | Z powyższych równań można wywnioskować: | ||
<math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math>< | <math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math> | ||
Podstawiając równania: | |||
<math>E (S^2)=\sigma^2</math> oraz <math>E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}</math> do <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math> | |||
Otrzymujemy: | Otrzymujemy: | ||
<math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math> | <math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math> | ||
Linia 101: | Linia 129: | ||
<center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center> | <center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center> | ||
Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji. | Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji. | ||
'''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center> | '''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center> | ||
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji. | Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji. | ||
Linia 109: | Linia 138: | ||
===Estymatory podstawowych parametrów=== | ===Estymatory podstawowych parametrów=== | ||
Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji | Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji | ||
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30). | |||
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30). | |||
Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące: | Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące: | ||
Linia 118: | Linia 148: | ||
o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby. | o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby. | ||
:3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby | :3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby | ||
losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math> | losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math> | ||
w przypadku | |||
małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976) | małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976) | ||
==Bibliografia== | ==Bibliografia== | ||
<noautolinks> | <noautolinks> | ||
* Adrian A. (2014) [ | * Adrian A. (2014) [https://home.agh.edu.pl/~adan/wyklady/siod7-2014.pdf ''Statystyka i Opracowanie Danych''] | ||
* Błaszczyński J. (2018) [ | * Błaszczyński J. (2018) [https://www.cs.put.poznan.pl/jblaszczynski/teaching/SiAD/slajdy/Estymatory.pdf ''Estymatory - Statystyka i analiza danych 2017/2018''] | ||
* Bodjański M. (2008) [https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf ''Estymator wariancji - dowód na obciążenie''], Problemy techniki uzbrojenia, s. 96 | * Bodjański M. (2008) [https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf ''Estymator wariancji - dowód na obciążenie''], Problemy techniki uzbrojenia, s. 96 | ||
* Krzysztofiak M. (1976) ''Statystyka'', PWE, Warszawa, s. 172 | * Krzysztofiak M. (1976) ''Statystyka'', PWE, Warszawa, s. 172 |
Wersja z 21:35, 29 paź 2023
Estymator obciążony |
---|
Polecane artykuły |
Estymator jest oceną parametru populacji. Jeżeli parametr populacji generalnej oznaczymy przez Q, przez - funkcję (estymator) wartości zmiennych uzyskanych na podstawie próby:
- ,
to konkretna wartość T, jaką zmienna będzie przyjmować, nazywamy oceną punktową parametru Q- czyli wartość estymatora.
Estymator nazywamy obciążonym, jeżeli jego wartość oczekiwana nie jest równa faktycznej wartości parametru populacji generalnej, tj:
a wyrażenie
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)
Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie estymator nieobciążony
pozwala przyjmować założenie, że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru
populacji na podstawie próby jest równa zeru. (Jeżeli > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,
natomiast jeżeli b (Zn) < 0 to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).
TL;DR
Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja.
Dowód na obciążenie estymatora
Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana ):
Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana , więc zastępujemy ją estymatorem ):
Rozwijając równanie otrzymujemy:
=
=
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:
Można zapisać:
gdzie to wartość nieobciążonego estymatora wariancji
W celu rozwinięcia wprowadzamy zmienną losową :
Zakładamy, że ciąg jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach oraz . Założenie to jest prawdziwe, ponieważ ciąg jest realizacją próby Wartość oczekiwania zmiennej losowej :
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:
Wariancja losowej :
Rozwijając to równanie otrzymujemy:
Z powyższych równań można wywnioskować:
Podstawiając równania:
oraz do
Otrzymujemy: Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji: c.n.d (M. Bodjański, 2008)
Przykład
Dla dowolnego rozkładu populacji z wariancją oraz średnią m., niech statystyki:
będą estymatorami wariancji w n-elementowej próbie. Można wykazać, że
oraz
Oznacza to, że statystyka jest estymatorem nieobciążonym wariancji, natomiast statystyka - estymatorem obciążonym wariancji.
Obciążenie estymatora wynosi
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka przeciętnie nie doszacowuje wartości populacji. Ponieważ:
to oznacza, że statystyka jest estymatorem asymptotycznie nieobciążonym (przy dużych próbach obciążenie to nie ma praktycznie znaczenia).
Estymatory podstawowych parametrów
Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).
Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:
- 1. Estymatorem średniej arytmetycznej populacji generalnej jest średnia arytmetyczna z próby losowej ,
o rozkładzie normalnym Gaussa- Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby
- 2. Estymatorem częstości względnej z populacji generalnej jest częstosć względna (wskaźnik struktury) z próby losowej
o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby.
- 3. Estymatorem odchylenia standardowego z populacji generalnej jest odchylenie standardowe z próby
losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej w przypadku małej próby jest wariancja z próby (x) o rozkładzie chi-kwadrat.(M. Krzysztofiak, 1976)
Bibliografia
- Adrian A. (2014) Statystyka i Opracowanie Danych
- Błaszczyński J. (2018) Estymatory - Statystyka i analiza danych 2017/2018
- Bodjański M. (2008) Estymator wariancji - dowód na obciążenie, Problemy techniki uzbrojenia, s. 96
- Krzysztofiak M. (1976) Statystyka, PWE, Warszawa, s. 172
- Sobczyk M. (2005) Statystyka, PWN, Warszawa, s. 141
Autor: Nowacka Bernadeta, Kamil Niemiec