Estymator nieobciążony: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (Infobox update)
 
m (cleanup bibliografii i rotten links)
 
(Nie pokazano 16 wersji utworzonych przez 3 użytkowników)
Linia 1: Linia 1:
{{infobox4
|list1=
<ul>
<li>[[Przedział ufności]]</li>
<li>[[Estymator]]</li>
<li>[[Test zgodności chi-kwadrat]]</li>
<li>[[Estymator obciążony]]</li>
<li>[[Poziom istotności]]</li>
<li>[[Estymacja]]</li>
<li>[[Analiza regresji]]</li>
<li>[[Test Shapiro-Wilka]]</li>
<li>[[Wartościowanie jakości]]</li>
</ul>
}}
[[Estymator]] to wielkość wyznaczona na podstawie [[próba|próby]] losowej, służąca do oceny wartości nieznanych [[parametr]]ów [[populacja|populacji generalnej]].<BR>
[[Estymator]] to wielkość wyznaczona na podstawie [[próba|próby]] losowej, służąca do oceny wartości nieznanych [[parametr]]ów [[populacja|populacji generalnej]].<BR>
Estymatorem parametru Q rozkładu zmiennej losowej X nazywamy taką statystykę:
Estymatorem parametru Q rozkładu zmiennej losowej X nazywamy taką statystykę:
Linia 22: Linia 4:
: <math>Z_n=f (X_1, X_2, X_3....X_n) , </math>
: <math>Z_n=f (X_1, X_2, X_3....X_n) , </math>


której rozkład prawdopodobieństwa zależy od szacowanego parametru Q. Konkretną wartość liczbową <math>Z_n</math>=f (<math>x_1, x_2,..., x_n</math>), jaką przyjmuje [[estymator]] <math>Z_n</math> parametru Q dla realizacji próby (<math>x_1, x_2,...., x_n</math>), nazywamy oceną parametru Q. Ocena <math>Z_n</math> jest zatem realizacją [[zmienna losowa|zmiennej losowej]] <math>X_n</math>
której rozkład prawdopodobieństwa zależy od szacowanego parametru Q. Konkretną [[wartość]] liczbową <math>Z_n</math>=f (<math>x_1, x_2,..., x_n</math>), jaką przyjmuje [[estymator]] <math>Z_n</math> parametru Q dla realizacji próby (<math>x_1, x_2,...., x_n</math>), nazywamy oceną parametru Q. [[Ocena]] <math>Z_n</math> jest zatem realizacją [[zmienna losowa|zmiennej losowej]] <math>X_n</math>


Szacując dany [[parametr]], obok jego oceny, ważne jest, żeby optymalny parametr był
Szacując dany [[parametr]], obok jego oceny, ważne jest, żeby optymalny parametr był
przynajmniej:
przynajmniej:
*'''nieobciążony'''
* '''nieobciążony'''
*[[estymator zgodny|zgodny]]
* [[estymator zgodny|zgodny]]
*[[estymator efektywny|efektywny]].
* [[estymator efektywny|efektywny]].
   
 
<google>ban728t</google>
Estymator nazywamy '''nieobciążonym''', jeżeli jego [[wartość oczekiwana]] jest
   
Estymator nazywamy '''nieobciążonym''', jeżeli jego wartość oczekiwana jest  
równa faktycznej wartości parametru populacji generalnej, tj:
równa faktycznej wartości parametru populacji generalnej, tj:
<google>ban728t</google>
<blockquote>
<blockquote>
<center><math>E (Z_n)=Q</math></center>
<center><math>E (Z_n)=Q</math></center>
Linia 41: Linia 20:
<blockquote>
<blockquote>
<center> <math>b (Z_n)=E (Z_n) - Q</math></center>
<center> <math>b (Z_n)=E (Z_n) - Q</math></center>
</blockquote><br>
</blockquote>
 
nazywamy obciążeniem estymatora (M.Sobczyk 2005, s. 141).
nazywamy obciążeniem estymatora (M.Sobczyk 2005, s. 141).
Własność nieobciążoności oznacza, że przy wielokrotnym losowaniu próby średnia wartości
[[Własność]] nieobciążoności oznacza, że przy wielokrotnym losowaniu próby średnia wartości
przyjmowanych przez estymator nieobciążony równa się wartości szacowanego parametru.
przyjmowanych przez estymator nieobciążony równa się wartości szacowanego parametru.
Innymi słowy, wartość nieobciążoności estymatora gwarantuje otrzymanie za jego
Innymi słowy, wartość nieobciążoności estymatora gwarantuje otrzymanie za jego
Linia 51: Linia 31:
estymator powinien być przynajmniej asymptotycznie nieobciążony.
estymator powinien być przynajmniej asymptotycznie nieobciążony.
Jest oczywiste, że z dwóch estymatorów nieobciążonych <math>Zn_1</math> i <math>Zn_2</math> lepszy jest ten, który ma
Jest oczywiste, że z dwóch estymatorów nieobciążonych <math>Zn_1</math> i <math>Zn_2</math> lepszy jest ten, który ma
mniejszą [[wariancja|wariancje]]. Daje on bowiem średnio mniejsze odchylenie kwadratowe wartości  
mniejszą [[wariancja|wariancje]]. Daje on bowiem średnio mniejsze odchylenie kwadratowe wartości
oszacowanej od wartości prawdziwej
oszacowanej od wartości prawdziwej


<google>n</google>
==TL;DR==
Estymator to statystyka używana do oceny wartości nieznanych parametrów populacji na podstawie próby losowej. Estymator jest nieobciążony, jeśli jego wartość oczekiwana jest równa wartości parametru. Estymator jest efektywny, jeśli ma najmniejsze odchylenie standardowe spośród innych estymatorów. Estymator asymptotycznie nieobciążony ma wartość oczekiwaną równą wartości parametru. Porównanie estymatorów polega na sprawdzaniu ich nieobciążoności i rozproszenia. Metody budowy estymatorów to metoda największej wiarygodności i metoda momentów.


==Asymptotyczna nieobciążoność==
==Asymptotyczna nieobciążoność==
 
Estymator asymptotycznie nieobciążony jest wtedy, gdy oczekiwana wartość rozkładu estymatora równa jest wartości parametru szacowanego :
 
Estymator asymptotycznie nieobciążony jest wtedy, gdy oczekiwana wartość rozkładu estymatora równa jest wartości parametru szacowanego :  
<math> E ( Z_n ) = \theta </math>
<math> E ( Z_n ) = \theta </math>


Linia 65: Linia 47:
<math> E ( Z_n ) - \theta = b ( Z_n )</math>
<math> E ( Z_n ) - \theta = b ( Z_n )</math>


estymator nazywamy wówczas obciążonym, a różnica nazywana jest obciążeniem estymatora.  
estymator nazywamy wówczas obciążonym, a różnica nazywana jest obciążeniem estymatora.
 


==Efektywność estymatora nieobciążonego==
==Efektywność estymatora nieobciążonego==
Efektywnością estymatora nieobciążonego <math> Z_n </math> parametru Q nazywamy iloraz:
Efektywnością estymatora nieobciążonego <math> Z_n </math> parametru Q nazywamy iloraz:
<blockquote>
<blockquote>
<center><math>e (Z_n)=\frac{D^2(Z_n^\ast)}{D^2(Z_n)}</math></center>
<center><math>e (Z_n)=\frac{D^2(Z_n^\ast)}{D^2(Z_n)}</math></center>
</blockquote>  
</blockquote>


Gdzie <math>Z_n^\ast</math> jest estymatorem najefektywniejszym parametru Q, a <math>Z_n</math> jest estymatorem
Gdzie <math>Z_n^\ast</math> jest estymatorem najefektywniejszym parametru Q, a <math>Z_n</math> jest estymatorem
ocenianym. Efektywność najefektywniejszego estymatora jest równa jedności, w pozostałych
ocenianym. [[Efektywność]] najefektywniejszego estymatora jest równa jedności, w pozostałych
przypadkach 0 < e < 1 (I.N. Bronsztejn 1968 ).
przypadkach 0 < e < 1 (I.N. Bronsztejn 1968 ).
Miarą efektywności estymatora jest jego błąd standardowy. Mały błąd standardowy oznacza, że oceny parametru uzyskane z różnych prób (tej samej wielkości) będą bardzo skupione wokół wartości parametru w populacji. Estymator o najmniejszym błędzie standardowym nazywa się estymatorem najefektywniejszym.  
Miarą efektywności estymatora jest jego [[błąd]] standardowy. Mały [[błąd standardowy]] oznacza, że oceny parametru uzyskane z różnych prób (tej samej wielkości) będą bardzo skupione wokół wartości parametru w populacji. Estymator o najmniejszym błędzie standardowym nazywa się estymatorem najefektywniejszym.


==Rozkład estymatora nieobciążonego wg krzywej normalnej==
Przy n dążącym do nieskończoności, najczęstszym przypadkiem rozkładu estymatora <math>Z_n</math>
jest rozkłąd normalny Gaussa - Laplace`a o parametrach: <math>E (Z_n), \sigma (Z_n)</math>.


==Rozkład estymatora nieobciążonego wg [[rozkład normalny|krzywej normalnej]]==
Przy n dążącym do nieskończoności, najczęstszym przypadkiem rozkładu estymatora <math>Z_n</math>
jest rozkłąd normalny Gaussa- Laplace`a o parametrach: <math>E (Z_n), \sigma (Z_n)</math>. <br>
Należy zwrócić uwagę, że w przypadku '''estymatora nieobciążonego''' <math>E (Z_n)=Q</math>, różnica pomiędzy oceną parametru (Zn) a parametrem Q
Należy zwrócić uwagę, że w przypadku '''estymatora nieobciążonego''' <math>E (Z_n)=Q</math>, różnica pomiędzy oceną parametru (Zn) a parametrem Q
jest średnim błędem szacunku, tzn, [[wariancja|odchyleniem standardowym]] estymatora <math>\sigma (Z_n)</math> (M. Krzysztofiak, A. Luszniewicz 1976) .
jest średnim błędem szacunku, tzn, [[wariancja|odchyleniem standardowym]] estymatora <math>\sigma (Z_n)</math> (M. Krzysztofiak, A. Luszniewicz 1976) .
Z krzywej normalnej G-L wynika, że przy dostatecznie licznych próbach losowych otrzymanie wartości estymatorów, różniących się od parametru więcej aniżeli o trzy błędy szacunku, jest mało prawdopodobne.  
Z krzywej normalnej G-L wynika, że przy dostatecznie licznych próbach losowych otrzymanie wartości estymatorów, różniących się od parametru więcej aniżeli o trzy błędy szacunku, jest mało prawdopodobne.
=== Twierdzenie Gaussa-Markowa===
 
===Twierdzenie Gaussa-Markowa===
Twierdzenie to odpowiada na pytanie jak znaleźć najlepszy nieobciążony estymator liniowy wektora parametrów <math>\beta</math>,
Twierdzenie to odpowiada na pytanie jak znaleźć najlepszy nieobciążony estymator liniowy wektora parametrów <math>\beta</math>,
tzn. wektora, którego współrzędnymi są najlepsze nieobciążone estymatory liniowe odpowiednich współrzędnych wektora <math>\beta</math>.
tzn. wektora, którego współrzędnymi są najlepsze nieobciążone estymatory liniowe odpowiednich współrzędnych wektora <math>\beta</math>.
Linia 100: Linia 80:
uogólnioną w klasie liniowych nieobciążonych estymatorów wektora'' ''' <math>\beta</math> .'''
uogólnioną w klasie liniowych nieobciążonych estymatorów wektora'' ''' <math>\beta</math> .'''


== Porównania estymatorów ==
==Porównania estymatorów==
Z zasady istnieje sporo estymatorów nieobciążonych dla konkretnego nieznanego parametru. Tytułem przykładu w przypadku próby pochodzącej z rozkładu normalnego średnia jest ucinana, w podobny sposób jak średnia, estymatorem nieobciążonym wartości średniej. Dodatkowo widać, że sama własność nieobciążoności nie określa koniecznie dobrego estymatora: mało precyzyjny estymator nieobciążony jest w gruncie rzeczy bezużyteczny. Widać, że dla dowolnej ilości próby <math> n \ge 2 </math> estymatory <math> \hat{\theta} = X_1 </math> oraz <math> \tilde{\theta} = (X_1 + X_2) /2 </math> są nieobciążonymi estymatorami wartości średniej rozkładu , lecz ich rozproszenie nie maleje wraz z licznością próby. Przy dużej liczności ''n'' średnia z próby <math> \bar{X} </math> powinna być znacznie lepszym estymatorem (J. Kornacki 2006, s. 154). dlatego wymagane jest , aby poza nieobciążonością estymator miał również możliwie nieduże rozproszenie.  
Z zasady istnieje sporo estymatorów nieobciążonych dla konkretnego nieznanego parametru. Tytułem przykładu w przypadku próby pochodzącej z rozkładu normalnego średnia jest ucinana, w podobny sposób jak średnia, estymatorem nieobciążonym wartości średniej. Dodatkowo widać, że sama własność nieobciążoności nie określa koniecznie dobrego estymatora: mało precyzyjny estymator nieobciążony jest w gruncie rzeczy bezużyteczny. Widać, że dla dowolnej ilości próby <math> n \ge 2 </math> estymatory <math> \hat{\theta} = X_1 </math> oraz <math> \tilde{\theta} = (X_1 + X_2) /2 </math> są nieobciążonymi estymatorami wartości średniej rozkładu , lecz ich rozproszenie nie maleje wraz z licznością próby. Przy dużej liczności ''n'' średnia z próby <math> \bar{X} </math> powinna być znacznie lepszym estymatorem (J. Kornacki 2006, s. 154). dlatego wymagane jest , aby poza nieobciążonością estymator miał również możliwie nieduże rozproszenie.


== Nieobciążoność stymatora wariancji <math>\sigma^2</math>==
==Nieobciążoność stymatora wariancji <math>\sigma^2</math>==
W klasycznym modelu regresji liniowej (o T łącznych obserwacji na 1+K zmiennych y, <math>x_1,...x_K</math>) nieobciążonym estymatorem wariancji składnika losowego jest:


W klasycznym modelu regresji liniowej (o T łącznych obserwacji na 1+K zmiennych y, <math>x_1,...x_K</math>) nieobciążonym estymatorem wariancji składnika losowego jest:<br>
<center><math>s^2=\frac{LSK}{T-K-1}</math></center>
<center><math>s^2=\frac{LSK}{T-K-1}</math></center>
gdzie:
gdzie:
Linia 113: Linia 93:
# [[Metoda]] największej wiarygodności
# [[Metoda]] największej wiarygodności
* Idea
* Idea
**Należy przyjąć taką wartość oszacowania nieznanego parametru, dla której zaobserwowane dla próby
** Należy przyjąć taką wartość oszacowania nieznanego parametru, dla której zaobserwowane dla próby
losowej wartości badanej cechy są najbardziej prawdopodobne.<br>
losowej wartości badanej cechy są najbardziej prawdopodobne.
 
Podstawą budowy estymatora jest tzw. [[funkcja]] wiarygodności (łączny rozkład z próby)
Podstawą budowy estymatora jest tzw. [[funkcja]] wiarygodności (łączny rozkład z próby)
# Metoda momentów
# Metoda momentów
* Idea
* Idea
** Estymator nieznanych parametrów <math>\theta=\left (\theta_1, \theta_2,.....,\theta_n\right)</math>metodą momentów
** Estymator nieznanych parametrów <math>\theta=\left (\theta_1, \theta_2,.....,\theta_n\right)</math>metodą momentów
(estymator MM) otrzymuje się z rozwiązania układu równań układu ''k'' równań (porównuje się momenty<br>
(estymator MM) otrzymuje się z rozwiązania układu równań układu ''k'' równań (porównuje się momenty
teoretyczne z momentami empirycznymi):<br>
 
<center><math> m_l\left (\theta\right)= M_l\left (x_1, x_2,..., x_n \right)</math> dla l = 1,2,..., k</center>  
teoretyczne z momentami empirycznymi):
Procedura się upraszcza, jeśli parametry <math>\theta</math> są jednoznacznie określone przez pierwszych k momentów:<br>
 
<center><math> m_l\left (\theta\right)= M_l\left (x_1, x_2,..., x_n \right)</math> dla l = 1,2,..., k</center>
[[Procedura]] się upraszcza, jeśli parametry <math>\theta</math> są jednoznacznie określone przez pierwszych k momentów:


<center><math> \theta= g\left (m_1, m_2,..., m_k\right)</math></center>
<center><math> \theta= g\left (m_1, m_2,..., m_k\right)</math></center>


Wtedy estymator parametrów <math>\theta</math> otrzymamy wstawiając do powyższej funkcji momenty empiryczne:<br>
Wtedy estymator parametrów <math>\theta</math> otrzymamy wstawiając do powyższej funkcji momenty empiryczne:
 
<center><math> \bar{\theta}= g\left (M_1, M_2,...., M_k\right)</math></center>
<center><math> \bar{\theta}= g\left (M_1, M_2,...., M_k\right)</math></center>


{{infobox5|list1={{i5link|a=[[Przedział ufności]]}} &mdash; {{i5link|a=[[Estymator]]}} &mdash; {{i5link|a=[[Test zgodności chi-kwadrat]]}} &mdash; {{i5link|a=[[Estymator obciążony]]}} &mdash; {{i5link|a=[[Poziom istotności]]}} &mdash; {{i5link|a=[[Estymacja]]}} &mdash; {{i5link|a=[[Analiza regresji]]}} &mdash; {{i5link|a=[[Test Shapiro-Wilka]]}} &mdash; {{i5link|a=[[Wartościowanie jakości]]}} }}


== Bibliografia ==
==Bibliografia==
* Bronsztejn I.N. (1968), "Matematyka. Poradnik encyklopedyczny", Wydawnictwo Naukowe PWN, Warszawa ,
<noautolinks>
* Jaworski I. [https://www.researchgate.net/profile/Zbigniew_Zakrzewski/publication/272819826_Wlasnosci_koherentnych_estymatorow_charakterystyk_niestacjonarnych_sygnalow_zmodulowanych/links/54efa09b0cf2432ba656e802/Wlasnosci-koherentnych-estymatorow-charakterystyk-niestacjonarnych-sygnalow-zmodulowanych.pdf''Własności koherentnych estymatorów charakterystyk niestacjonarnych sygnałów zmodulowanych''], Akademia Techniczno-Rolnicza w Bydgoszczy, Bydgoszcz,
* Bronsztejn I. (1968), ''Matematyka. Poradnik encyklopedyczny'', Wydawnictwo Naukowe PWN, Warszawa
* Kornacki J. (2006) ''Statystyka dla studentów kierunków technicznych i przyrodniczych'' (2006) , Wydawnictwo Naukowo - Techniczne , Warszawa,
* Jaworski I. (1998), ''Własności koherentnych estymatorów charakterystyk niestacjonarnych sygnałów zmodulowanych'', Akademia Techniczno-Rolnicza w Bydgoszczy, Bydgoszcz
* Krzysztofiak M., Luszniewicz A. (1976), "Statystyka", Polskie Wydawnictwo Ekonomiczne PWE, Warszawa
* Kornacki J. (2006), ''Statystyka dla studentów kierunków technicznych i przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa
* Sobczyk M. (2005) ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa,
* Krzysztofiak M., Luszniewicz A. (1976), ''Statystyka'', PWE, Warszawa
* Witkowski B. (red.) (2018) ''Statystyka w zarządzaniu'' , Wydawnictwo Naukowe PWN , Warszawa,
* Sobczyk M. (2007), ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa
* Zieliński R. (2004) [https://www.impan.pl/~rziel/7ALL.pdf''Siedem wykładów wprowadzających do statystyki matematycznej''], Wykłady, Warszawa
* Witkowski B. (red.) (2018), ''Statystyka w zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa
* Zieliński R. (2008) [https://www.impan.pl/~rziel/Publ132.pdf''Estymacja frakcji''], Matematyka Stosowana nr 10, Warszawa.
* Zieliński R. (2004), ''[https://www.impan.pl/~rziel/7ALL.pdf Siedem wykładów wprowadzających do statystyki matematycznej]'', Państwowe Wydawnictwo Naukowe, Warszawa
* Zieliński R. (2008), ''[https://www.impan.pl/~rziel/Publ132.pdf Estymacja frakcji]'', Matematyka Stosowana, nr 9
</noautolinks>


{{a|Anna Dziadosz, Bernadeta Nowacka}}
{{a|Anna Dziadosz, Bernadeta Nowacka}}
[[Kategoria:Statystyka i Ekonometria]]
[[Kategoria:Estymacja]]
<!--[[en:Unweighted estimator]]-->
 
{{#metamaster:description|Estymator nieobciążony to wielkość używana do oceny parametrów populacji. Ważne, aby był zgodny i efektywny. Gwarantuje otrzymanie ocen wolnych od błędu systematycznego. Należy także brać pod uwagę jego wariancję.}}

Aktualna wersja na dzień 23:50, 5 gru 2023

Estymator to wielkość wyznaczona na podstawie próby losowej, służąca do oceny wartości nieznanych parametrów populacji generalnej.
Estymatorem parametru Q rozkładu zmiennej losowej X nazywamy taką statystykę:

której rozkład prawdopodobieństwa zależy od szacowanego parametru Q. Konkretną wartość liczbową =f (), jaką przyjmuje estymator parametru Q dla realizacji próby (), nazywamy oceną parametru Q. Ocena jest zatem realizacją zmiennej losowej

Szacując dany parametr, obok jego oceny, ważne jest, żeby optymalny parametr był przynajmniej:

Estymator nazywamy nieobciążonym, jeżeli jego wartość oczekiwana jest równa faktycznej wartości parametru populacji generalnej, tj:

W przeciwnym wypadku estymator , nazywamy obciążonym, a wyrażenie

nazywamy obciążeniem estymatora (M.Sobczyk 2005, s. 141). Własność nieobciążoności oznacza, że przy wielokrotnym losowaniu próby średnia wartości przyjmowanych przez estymator nieobciążony równa się wartości szacowanego parametru. Innymi słowy, wartość nieobciążoności estymatora gwarantuje otrzymanie za jego pomocą ocen wolnych od błędu systematycznego.

Dla małych prób należy starać się używać estymatora nieobciążonego, natomiast dla dużych prób estymator powinien być przynajmniej asymptotycznie nieobciążony. Jest oczywiste, że z dwóch estymatorów nieobciążonych i lepszy jest ten, który ma mniejszą wariancje. Daje on bowiem średnio mniejsze odchylenie kwadratowe wartości oszacowanej od wartości prawdziwej

TL;DR

Estymator to statystyka używana do oceny wartości nieznanych parametrów populacji na podstawie próby losowej. Estymator jest nieobciążony, jeśli jego wartość oczekiwana jest równa wartości parametru. Estymator jest efektywny, jeśli ma najmniejsze odchylenie standardowe spośród innych estymatorów. Estymator asymptotycznie nieobciążony ma wartość oczekiwaną równą wartości parametru. Porównanie estymatorów polega na sprawdzaniu ich nieobciążoności i rozproszenia. Metody budowy estymatorów to metoda największej wiarygodności i metoda momentów.

Asymptotyczna nieobciążoność

Estymator asymptotycznie nieobciążony jest wtedy, gdy oczekiwana wartość rozkładu estymatora równa jest wartości parametru szacowanego :

Jeśli różnica pomiędzy wartością parametru szacowanego a wartością oczekiwaną rozkładu estymatora jest zależna funkcyjnie estymatora, :

estymator nazywamy wówczas obciążonym, a różnica nazywana jest obciążeniem estymatora.

Efektywność estymatora nieobciążonego

Efektywnością estymatora nieobciążonego parametru Q nazywamy iloraz:

Gdzie jest estymatorem najefektywniejszym parametru Q, a jest estymatorem ocenianym. Efektywność najefektywniejszego estymatora jest równa jedności, w pozostałych przypadkach 0 < e < 1 (I.N. Bronsztejn 1968 ). Miarą efektywności estymatora jest jego błąd standardowy. Mały błąd standardowy oznacza, że oceny parametru uzyskane z różnych prób (tej samej wielkości) będą bardzo skupione wokół wartości parametru w populacji. Estymator o najmniejszym błędzie standardowym nazywa się estymatorem najefektywniejszym.

Rozkład estymatora nieobciążonego wg krzywej normalnej

Przy n dążącym do nieskończoności, najczęstszym przypadkiem rozkładu estymatora jest rozkłąd normalny Gaussa - Laplace`a o parametrach: .

Należy zwrócić uwagę, że w przypadku estymatora nieobciążonego , różnica pomiędzy oceną parametru (Zn) a parametrem Q jest średnim błędem szacunku, tzn, odchyleniem standardowym estymatora (M. Krzysztofiak, A. Luszniewicz 1976) . Z krzywej normalnej G-L wynika, że przy dostatecznie licznych próbach losowych otrzymanie wartości estymatorów, różniących się od parametru więcej aniżeli o trzy błędy szacunku, jest mało prawdopodobne.

Twierdzenie Gaussa-Markowa

Twierdzenie to odpowiada na pytanie jak znaleźć najlepszy nieobciążony estymator liniowy wektora parametrów , tzn. wektora, którego współrzędnymi są najlepsze nieobciążone estymatory liniowe odpowiednich współrzędnych wektora . Brzmi ono następująco:

W klasycznym modelu regresji liniowej najlepszym nieobciążonym estymatorem liniowym wektora jest wektor otrzymany

metodą najmniejszych kwadratów

Ponadto: W klasycznym modelu regresji liniowej estymator b uzyskany metodą najmniejszych kwadratów ma minimalną wariancję uogólnioną w klasie liniowych nieobciążonych estymatorów wektora .

Porównania estymatorów

Z zasady istnieje sporo estymatorów nieobciążonych dla konkretnego nieznanego parametru. Tytułem przykładu w przypadku próby pochodzącej z rozkładu normalnego średnia jest ucinana, w podobny sposób jak średnia, estymatorem nieobciążonym wartości średniej. Dodatkowo widać, że sama własność nieobciążoności nie określa koniecznie dobrego estymatora: mało precyzyjny estymator nieobciążony jest w gruncie rzeczy bezużyteczny. Widać, że dla dowolnej ilości próby estymatory oraz są nieobciążonymi estymatorami wartości średniej rozkładu , lecz ich rozproszenie nie maleje wraz z licznością próby. Przy dużej liczności n średnia z próby powinna być znacznie lepszym estymatorem (J. Kornacki 2006, s. 154). dlatego wymagane jest , aby poza nieobciążonością estymator miał również możliwie nieduże rozproszenie.

Nieobciążoność stymatora wariancji

W klasycznym modelu regresji liniowej (o T łącznych obserwacji na 1+K zmiennych y, ) nieobciążonym estymatorem wariancji składnika losowego jest:

gdzie:

  • LSK to resztowa suma kwadratów odchyleń ( - reszta)

Metody budowy estymatorów

  1. Metoda największej wiarygodności
  • Idea
    • Należy przyjąć taką wartość oszacowania nieznanego parametru, dla której zaobserwowane dla próby

losowej wartości badanej cechy są najbardziej prawdopodobne.

Podstawą budowy estymatora jest tzw. funkcja wiarygodności (łączny rozkład z próby)

  1. Metoda momentów
  • Idea
    • Estymator nieznanych parametrów metodą momentów

(estymator MM) otrzymuje się z rozwiązania układu równań układu k równań (porównuje się momenty

teoretyczne z momentami empirycznymi):

dla l = 1,2,..., k

Procedura się upraszcza, jeśli parametry są jednoznacznie określone przez pierwszych k momentów:

Wtedy estymator parametrów otrzymamy wstawiając do powyższej funkcji momenty empiryczne:


Estymator nieobciążonyartykuły polecane
Przedział ufnościEstymatorTest zgodności chi-kwadratEstymator obciążonyPoziom istotnościEstymacjaAnaliza regresjiTest Shapiro-WilkaWartościowanie jakości

Bibliografia

  • Bronsztejn I. (1968), Matematyka. Poradnik encyklopedyczny, Wydawnictwo Naukowe PWN, Warszawa
  • Jaworski I. (1998), Własności koherentnych estymatorów charakterystyk niestacjonarnych sygnałów zmodulowanych, Akademia Techniczno-Rolnicza w Bydgoszczy, Bydgoszcz
  • Kornacki J. (2006), Statystyka dla studentów kierunków technicznych i przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa
  • Krzysztofiak M., Luszniewicz A. (1976), Statystyka, PWE, Warszawa
  • Sobczyk M. (2007), Statystyka, Wydawnictwo Naukowe PWN, Warszawa
  • Witkowski B. (red.) (2018), Statystyka w zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa
  • Zieliński R. (2004), Siedem wykładów wprowadzających do statystyki matematycznej, Państwowe Wydawnictwo Naukowe, Warszawa
  • Zieliński R. (2008), Estymacja frakcji, Matematyka Stosowana, nr 9


Autor: Anna Dziadosz, Bernadeta Nowacka