Estymator obciążony: Różnice pomiędzy wersjami
m (Infobox update) |
m (cleanup bibliografii i rotten links) |
||
(Nie pokazano 15 wersji utworzonych przez 3 użytkowników) | |||
Linia 1: | Linia 1: | ||
[[Estymator]] jest oceną parametru populacji. Jeżeli [[parametr]] populacji generalnej | [[Estymator]] jest oceną parametru populacji. Jeżeli [[parametr]] populacji generalnej | ||
oznaczymy przez Q, przez <math>Z_n</math> - funkcję (estymator) wartości zmiennych uzyskanych na | oznaczymy przez Q, przez <math>Z_n</math> - funkcję (estymator) wartości zmiennych uzyskanych na | ||
podstawie [[próba|próby]]: | podstawie [[próba|próby]]: | ||
: <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>, | : <math>Z_n= f\left (X_1, X_2, X_3....X_n\right)</math>, | ||
to konkretna wartość T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową | to konkretna [[wartość]] T, jaką [[zmienna]] będzie przyjmować, nazywamy oceną punktową | ||
parametru Q- czyli wartość estymatora. | parametru Q - czyli wartość estymatora. | ||
Estymator nazywamy '''obciążonym''', jeżeli jego wartość oczekiwana nie jest | Estymator nazywamy '''obciążonym''', jeżeli jego [[wartość oczekiwana]] nie jest | ||
równa faktycznej wartości parametru populacji generalnej, tj: | równa faktycznej wartości parametru populacji generalnej, tj: | ||
:<center><math>E (Z_n)\ne Q</math></center> | :<center><math>E (Z_n)\ne Q</math></center> | ||
:<center><math>b (Z_n)= E (Z_n)- Q</math></center> | a wyrażenie | ||
:<center><math>b (Z_n)= E (Z_n) - Q</math></center> | |||
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005) | nazywamy obciążeniem estymatora.(M.Sobczyk, 2005) | ||
Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica. | Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica. | ||
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]] | |||
pozwala przyjmować założenie, że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru | Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie [[estymator nieobciążony]] | ||
pozwala przyjmować [[założenie]], że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru | |||
populacji na podstawie próby jest równa zeru. | populacji na podstawie próby jest równa zeru. | ||
(Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru, | (Jeżeli <math>b (Z_n)</math> > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru, | ||
natomiast jeżeli b (Zn) < 0 | natomiast jeżeli b (Zn) < 0 | ||
to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru). | to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru). | ||
== | <google>n</google> | ||
==TL;DR== | |||
Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja. | |||
==Dowód na obciążenie estymatora== | |||
Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana <math>m</math>): | Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana <math>m</math>): | ||
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k- m\right)^2</math> | <math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k - m\right)^2</math> | ||
Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana <math>m</math>, więc zastępujemy ją estymatorem <math>\bar{X}</math>): | Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana <math>m</math>, więc zastępujemy ją estymatorem <math>\bar{X}</math>): | ||
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math> | <math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}\right)^2</math> | ||
Rozwijając równanie otrzymujemy: | Rozwijając równanie otrzymujemy: | ||
<math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math> | <math>S^2=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-\bar{X}+m-m\right)^2=</math> | ||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2 - 2(X_k-m)(\bar{X}-m)\right)=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2 - 2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math> | <math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)-(\bar{X}-m)\right)^2=</math> | ||
<math>=S^2+(\bar{X}-m)^2- 2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>= | |||
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>= | <math>=\frac{1}{n}\sum_{k=1}^{n}\left ((X_k-m)^2+(\bar{X}-m)^2-2(X_k-m)(\bar{X}-m)\right)=</math> | ||
<math>=S^2-(\bar{X}-m)^2</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}\left (X_k-m)^2+\frac{1}{n}n (\bar{X}-m)^2-2(\bar{X}-m) \frac{1}{n}\sum_{k=1}^{n}(X_k-m\right)=</math> | |||
<math>=S^2+(\bar{X}-m)^2-2(\bar{X}-m)(\frac{1}{n}\sum_{k=1}^{n}X_k-\frac{1}{n}nm)</math>= | |||
<math>=S^2+(\bar{X}-m)^2-2((\bar{X}-m)(\bar{X}-m)</math>= | |||
<math>=S^2-(\bar{X}-m)^2</math> | |||
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną: | Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną: | ||
<math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math> | <math>E (S^2)=E (S^2-(\bar{X}-m)^2)</math> | ||
Można zapisać: | Można zapisać: | ||
<math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math> | <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math> | ||
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji | |||
gdzie <math>E (S^2)=\sigma^2</math> to wartość nieobciążonego estymatora wariancji | |||
W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>: | W celu rozwinięcia wprowadzamy zmienną losową <math>Y</math>: | ||
<math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math> | <math>Y=\frac{1}{n}\sum_{k=1}^{n}X_k</math> | ||
Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math> | Zakładamy, że ciąg <math>X_k</math> jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach <math>m</math> oraz <math>\sigma^2</math>. Założenie to jest prawdziwe, ponieważ ciąg <math>X_k</math> jest realizacją próby <math>(X1, X2,..., Xn)</math> | ||
Wartość oczekiwania zmiennej losowej <math>Y</math>: | Wartość oczekiwania zmiennej losowej <math>Y</math>: | ||
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | <math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | ||
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób: | |||
<math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób: | ||
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math> | <math>E (Y)=E (\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | ||
<math>=\frac{1}{n}nm=m</math | |||
<math>=\frac{1}{n}E (\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n}\sum_{k=1}^{n}E (X_k)=</math> | |||
<math>=\frac{1}{n}nm=m</math> | |||
Wariancja losowej <math>Y</math>: | Wariancja losowej <math>Y</math>: | ||
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | <math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)</math> | ||
Rozwijając to równanie otrzymujemy: | |||
<math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | Rozwijając to równanie otrzymujemy: | ||
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math> | <math>D^2(Y)=D^2(\frac{1}{n}\sum_{k=1}^{n}X_k)=</math> | ||
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math | |||
<math>=\frac{1}{n^2}D^2(\sum_{k=1}^{n}X_k)=</math> | |||
<math>=\frac{1}{n^2}\sum_{k=1}^{n}D^2(X_k)=</math> | |||
<math>=\frac{1}{n^2}n\sigma^2=\frac{\sigma^2}{n}</math> | |||
Z powyższych równań można wywnioskować: | Z powyższych równań można wywnioskować: | ||
<math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math>< | <math>E ((\bar{X}-m)^2)=E ((Y-m)^2)=D^2(Y)=\frac{\sigma^2}{n}</math> | ||
Podstawiając równania: | |||
<math>E (S^2)=\sigma^2</math> oraz <math>E ((\bar{X}-m)^2)=\frac{\sigma^2}{n}</math> do <math>E (S^2)=E (S^2)-E ((\bar{X}-m)^2)</math> | |||
Otrzymujemy: | |||
Otrzymujemy: | |||
<math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math> | <math>E (S^2)=\sigma^2 -(\frac{\sigma^2}{n})</math> | ||
Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji: | Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji: | ||
<math>E (S^2) | <math>E (S^2) \neq \sigma^2</math> c.n.d (M. Bodjański, 2008) | ||
==Przykład== | |||
Dla dowolnego rozkładu populacji z wariancją <math>\sigma^2</math> oraz średnią m., niech statystyki: | Dla dowolnego rozkładu populacji z wariancją <math>\sigma^2</math> oraz średnią m., niech statystyki: | ||
<math>S^2=\frac{1}{n}\sum_{i=1}^{n}\left (X_i-\bar{X}\right)^2</math> | <math>S^2=\frac{1}{n}\sum_{i=1}^{n}\left (X_i-\bar{X}\right)^2</math> | ||
będą estymatorami wariancji <math>\sigma^2</math> w n-elementowej próbie. | będą estymatorami wariancji <math>\sigma^2</math> w n-elementowej próbie. | ||
Można wykazać, że | Można wykazać, że | ||
<center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center> | <center><math>E\left (S^2\right)=\sigma^2\frac{n-1}{n}</math></center> oraz <center><math> E\left (\bar{S^2}\right) = \sigma^2.</math></center> | ||
Oznacza to, że statystyka <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji. | Oznacza to, że [[statystyka]] <math>\bar{S^2}</math> jest estymatorem nieobciążonym wariancji, natomiast statystyka '''<math>S^2</math>''' - estymatorem '''obciążonym''' wariancji. | ||
'''Obciążenie''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center> | |||
'''[[Obciążenie]]''' estymatora <math>S^2</math> wynosi <center><math>b_n= E\left (S^2\right)</math> - <math>\sigma^2= \sigma^2 \frac{n-1}{n} - \sigma^2</math> = <math>-\sigma^2 \frac{1}{n}</math></center> | |||
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji. | Obciążenie to jest mniejsze od zera, co oznacza, że statystyka <math>S^2</math> przeciętnie nie doszacowuje wartości <math>\sigma^2</math> populacji. | ||
Ponieważ: | Ponieważ: | ||
Linia 107: | Linia 119: | ||
===Estymatory podstawowych parametrów=== | ===Estymatory podstawowych parametrów=== | ||
Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji | |||
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30). | |||
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30). | |||
Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące: | Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące: | ||
:1. Estymatorem średniej arytmetycznej populacji generalnej <math> E\left (\bar{x}\right)= E (X)</math> jest średnia arytmetyczna z próby losowej <math>\bar{x}</math>, | :1. Estymatorem średniej arytmetycznej populacji generalnej <math> E\left (\bar{x}\right)= E (X)</math> jest średnia arytmetyczna z próby losowej <math>\bar{x}</math>, | ||
o rozkładzie normalnym Gaussa- Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby | o rozkładzie normalnym Gaussa - Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby | ||
:2. Estymatorem częstości względnej z populacji generalnej <math>E\left (w_i\right)= p_i </math> jest częstosć względna ([[wskaźnik]] struktury) z próby losowej <math>w_i</math> | :2. Estymatorem częstości względnej z populacji generalnej <math>E\left (w_i\right)= p_i </math> jest częstosć względna ([[wskaźnik]] struktury) z próby losowej <math>w_i</math> | ||
o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego- w przypadku małej próby. | o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego - w przypadku małej próby. | ||
:3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest odchylenie standardowe z próby | :3. Estymatorem odchylenia standardowego z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma (X)</math> jest [[odchylenie standardowe]] z próby | ||
losowej S (x) o rozkładzie normalnym Gaussa- Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math> | losowej S (x) o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej <math> E\left[S\left (x\right)\right]= \sigma^2(X)</math> | ||
w przypadku | |||
małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976) | małej próby jest [[wariancja]] z próby <math>S^2</math>(x) o rozkładzie [[test zgodności chi-kwadrat|chi-kwadrat]].(M. Krzysztofiak, 1976) | ||
== Bibliografia == | {{infobox5|list1={{i5link|a=[[Przedział ufności]]}} — {{i5link|a=[[Estymator nieobciążony]]}} — {{i5link|a=[[Regresja liniowa]]}} — {{i5link|a=[[Współczynnik korelacji rang Spearmana]]}} — {{i5link|a=[[Metody statystyczne]]}} — {{i5link|a=[[Test zgodności chi-kwadrat]]}} — {{i5link|a=[[Wariancja]]}} — {{i5link|a=[[Test Shapiro-Wilka]]}} — {{i5link|a=[[Estymacja]]}} }} | ||
* Adrian A. (2014) [ | |||
* Błaszczyński J. (2018) [ | ==Bibliografia== | ||
* Bodjański M. (2008) [https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf | <noautolinks> | ||
* Krzysztofiak M. (1976) ''Statystyka'', PWE, Warszawa | * Adrian A. (2014), ''[https://home.agh.edu.pl/~adan/wyklady/siod7-2014.pdf Statystyka i Opracowanie Danych]'', wykłady, AGH, Kraków | ||
* Sobczyk M. ( | * Błaszczyński J. (2018), ''[https://www.cs.put.poznan.pl/jblaszczynski/teaching/SiAD/slajdy/Estymatory.pdf Estymatory - Statystyka i analiza danych]'' | ||
* Bodjański M. (2008), ''[https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-PWAA-0014-0009/c/httpwww_witu_mil_plwwwbiuletynzeszyty20080105p95.pdf Estymator wariancji - dowód na obciążenie]'', Problemy techniki uzbrojenia, s. 96 | |||
* Krzysztofiak M., Luszniewicz A. (1976), ''Statystyka'', PWE, Warszawa | |||
* Sobczyk M. (2007), ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa | |||
</noautolinks> | |||
{{a|Nowacka Bernadeta, Kamil Niemiec}} | {{a|Nowacka Bernadeta, Kamil Niemiec}} | ||
[[Kategoria: | [[Kategoria:Estymacja]] | ||
{{#metamaster:description|Estymator obciążony to ocena parametru populacji. Może być przeciętnie zawyżony lub zaniżony w stosunku do szacowanego parametru.}} |
Aktualna wersja na dzień 00:22, 10 sty 2024
Estymator jest oceną parametru populacji. Jeżeli parametr populacji generalnej oznaczymy przez Q, przez - funkcję (estymator) wartości zmiennych uzyskanych na podstawie próby:
- ,
to konkretna wartość T, jaką zmienna będzie przyjmować, nazywamy oceną punktową parametru Q - czyli wartość estymatora.
Estymator nazywamy obciążonym, jeżeli jego wartość oczekiwana nie jest równa faktycznej wartości parametru populacji generalnej, tj:
a wyrażenie
nazywamy obciążeniem estymatora.(M.Sobczyk, 2005)
Tak więc z estymatorem obciążonym mamy do czynienia jeżeli pomiędzy średnią wartością estymatora a wartością parametru występuje różnica.
Im większa jest ta różnica, tym parametr populacji oszacowany jest z większym błędem systematycznym, nielosowym. Jedynie estymator nieobciążony
pozwala przyjmować założenie, że suma błędów popełnionych przy wielokrotnym (teoretycznie nieskończonym) powtarzaniu szacunku parametru
populacji na podstawie próby jest równa zeru. (Jeżeli > 0 to estymator obciążony daje oceny przeciętnie zawyżone w stosunku do szacowanego parametru,
natomiast jeżeli b (Zn) < 0 to estymator obciążony daje oceny przeciętnie zaniżone w stosunku do szacowanego parametru).
TL;DR
Estymator jest oceną parametru populacji. Estymator jest obciążony, jeśli wartość oczekiwana różni się od wartości parametru. Różnica między średnią wartością estymatora a wartością parametru mówi o błędzie systematycznym. Estymator nieobciążony zakłada, że suma błędów przy wielokrotnym szacowaniu parametru jest równa zeru. Przykładem estymatora obciążonego jest estymator wariancji. W przypadku dużych prób estymator wariancji jest asymptotycznie nieobciążony. Estymatory podstawowych parametrów rozkładu jednej zmiennej to średnia arytmetyczna, częstość względna i wariancja.
Dowód na obciążenie estymatora
Nieobciążony estymator wariancji (znajoma jest nam wartość oczekiwana ):
Obciążony estymator wariancji (nie wiemy jaka jest wartość oczekiwana , więc zastępujemy ją estymatorem ):
Rozwijając równanie otrzymujemy:
= =
Aby dowiedzieć się, że powyższy estymator jest obciążony musimy zbadać wartość oczekiwaną:
Można zapisać:
gdzie to wartość nieobciążonego estymatora wariancji
W celu rozwinięcia wprowadzamy zmienną losową :
Zakładamy, że ciąg jest ciągiem zmiennych losowych niezależnych o jednakowym rozkładzie i parametrach oraz . Założenie to jest prawdziwe, ponieważ ciąg jest realizacją próby Wartość oczekiwania zmiennej losowej :
Na podstawie własności wartości oczekiwanej można powyższe równanie rozwiązać w następujący sposób:
Wariancja losowej :
Rozwijając to równanie otrzymujemy:
Z powyższych równań można wywnioskować:
Podstawiając równania:
oraz do
Otrzymujemy: Co pokazuje że wartość oczekiwana obciążonego estymatora jest różna od prawdziwej wartości wariancji: c.n.d (M. Bodjański, 2008)
Przykład
Dla dowolnego rozkładu populacji z wariancją oraz średnią m., niech statystyki:
będą estymatorami wariancji w n-elementowej próbie. Można wykazać, że
oraz
Oznacza to, że statystyka jest estymatorem nieobciążonym wariancji, natomiast statystyka - estymatorem obciążonym wariancji.
Obciążenie estymatora wynosi
Obciążenie to jest mniejsze od zera, co oznacza, że statystyka przeciętnie nie doszacowuje wartości populacji. Ponieważ:
to oznacza, że statystyka jest estymatorem asymptotycznie nieobciążonym (przy dużych próbach obciążenie to nie ma praktycznie znaczenia).
Estymatory podstawowych parametrów
Estymację parametrów rozkładu jednej zmiennej ograniczę do estymacji średniej arytmetycznej, częstości względnej (frakcji) oraz wariancji
populacji generalnej. Wyodrębnię estymację przedziałową tych parametrów w przypadkach dużej próby losowej (n>30) i małej próby losowej (n<30).
Estymatory wymienionych parametrów rozkładów jednej zmiennej są następujące:
- 1. Estymatorem średniej arytmetycznej populacji generalnej jest średnia arytmetyczna z próby losowej ,
o rozkładzie normalnym Gaussa - Laplace`a, w przypadku dużej próby i o rozkładzie t Studenta, w przypadku małej próby
- 2. Estymatorem częstości względnej z populacji generalnej jest częstosć względna (wskaźnik struktury) z próby losowej
o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby i o rozkładzie dwumianowym Bernouliego - w przypadku małej próby.
- 3. Estymatorem odchylenia standardowego z populacji generalnej jest odchylenie standardowe z próby
losowej S (x) o rozkładzie normalnym Gaussa - Laplace`a w przypadku dużej próby, natomiast estymatorem wariancji z populacji generalnej w przypadku małej próby jest wariancja z próby (x) o rozkładzie chi-kwadrat.(M. Krzysztofiak, 1976)
Estymator obciążony — artykuły polecane |
Przedział ufności — Estymator nieobciążony — Regresja liniowa — Współczynnik korelacji rang Spearmana — Metody statystyczne — Test zgodności chi-kwadrat — Wariancja — Test Shapiro-Wilka — Estymacja |
Bibliografia
- Adrian A. (2014), Statystyka i Opracowanie Danych, wykłady, AGH, Kraków
- Błaszczyński J. (2018), Estymatory - Statystyka i analiza danych
- Bodjański M. (2008), Estymator wariancji - dowód na obciążenie, Problemy techniki uzbrojenia, s. 96
- Krzysztofiak M., Luszniewicz A. (1976), Statystyka, PWE, Warszawa
- Sobczyk M. (2007), Statystyka, Wydawnictwo Naukowe PWN, Warszawa
Autor: Nowacka Bernadeta, Kamil Niemiec