Estymator: Różnice pomiędzy wersjami
m (Dodanie MetaData Description) |
m (cleanup bibliografii i rotten links) |
||
Linia 13: | Linia 13: | ||
</ul> | </ul> | ||
}} | }} | ||
'''Estymatorem''' parametru [[populacja|populacji]] jest [[statystyka]] z próby używana do oszacowania tego [[parametr]]u. Aby oszacować niewiadomy parametr na podstawie próby należy wyznaczyć z próby wartości z<sub>n</sub> estymatora Z<sub>n</sub>, którego rozkład jest zależny od estymowanego parametru i przyjmowania tej wartości za oszacowanie parametru. Przy takiej metodzie naturalnym wydaje się warunek, aby wartości estymatora były skupione na pobliskim otoczeniu rzeczywistej wartości niewiadomego parametru. Oznacza to, że nie wszystkie estymatory są identycznie dobre i nie należy wymagać, aby estymatory, z których korzystamy, spełniały [[dane]] warunki. Aby sprecyzować te warunki należy wprowadzić kilka określeń wymienionych niżej. | '''Estymatorem''' parametru [[populacja|populacji]] jest [[statystyka]] z próby używana do oszacowania tego [[parametr]]u. Aby oszacować niewiadomy parametr na podstawie próby należy wyznaczyć z próby wartości z<sub>n</sub> estymatora Z<sub>n</sub>, którego rozkład jest zależny od estymowanego parametru i przyjmowania tej wartości za oszacowanie parametru. Przy takiej metodzie naturalnym wydaje się warunek, aby wartości estymatora były skupione na pobliskim otoczeniu rzeczywistej wartości niewiadomego parametru. Oznacza to, że nie wszystkie estymatory są identycznie dobre i nie należy wymagać, aby estymatory, z których korzystamy, spełniały [[dane]] warunki. Aby sprecyzować te warunki należy wprowadzić kilka określeń wymienionych niżej. | ||
Linia 56: | Linia 54: | ||
* Metoda największej wiarygodności | * Metoda największej wiarygodności | ||
Metoda momentów wprowadzona została przez angielskiego matematyka K. Pearsona. Polega na przyjmowaniu za oszacowanie niewiadomych momentów cechy X elementów populacji, dostrzeżonych wartości momentów empirycznych. Analogicznie za oszacowanie parametrów populacji, które są funkcjami momentów, uznaje się wartości tychże funkcji momentów empirycznych. Zaletą estymatorów otrzymanych metodą momentów jest to, że odnalezienie ich wartości jest zazwyczaj związane z prostymi obliczeniami. Wadą otrzymanych w taki sposób estymatorów jest to, że ich [[efektywność]] jest niewielka (jedynym pozytywnym wyjątkiem jest moment gdy cecha X ma [[rozkład normalny]]). | Metoda momentów wprowadzona została przez angielskiego matematyka K. Pearsona. Polega na przyjmowaniu za oszacowanie niewiadomych momentów cechy X elementów populacji, dostrzeżonych wartości momentów empirycznych. Analogicznie za oszacowanie parametrów populacji, które są funkcjami momentów, uznaje się wartości tychże funkcji momentów empirycznych. Zaletą estymatorów otrzymanych metodą momentów jest to, że odnalezienie ich wartości jest zazwyczaj związane z prostymi obliczeniami. Wadą otrzymanych w taki sposób estymatorów jest to, że ich [[efektywność]] jest niewielka (jedynym pozytywnym wyjątkiem jest moment gdy cecha X ma [[rozkład normalny]]). | ||
Metoda największej wiarygodności została omówiona przez Fishera. Załóżmy, że cecha X elementów populacji będzie losową ciągłą o gęstości prawdopodobieństwa ''f'' i będzie zależała od ''m'' nieznanych parametrów θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>. Parametry te chcemy oszacować na podstawie ''n''-elementowej próby, w której zauważono wartości ''x<sub>1</sub>, x<sub>2</sub>,..., x<sub>n</sub>''. W tym celu wprowadzamy funkcję ''L'', która została zapisana wzorem: | Metoda największej wiarygodności została omówiona przez Fishera. Załóżmy, że cecha X elementów populacji będzie losową ciągłą o gęstości prawdopodobieństwa ''f'' i będzie zależała od ''m'' nieznanych parametrów θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>. Parametry te chcemy oszacować na podstawie ''n''-elementowej próby, w której zauważono wartości ''x<sub>1</sub>, x<sub>2</sub>,..., x<sub>n</sub>''. W tym celu wprowadzamy funkcję ''L'', która została zapisana wzorem: | ||
Linia 62: | Linia 60: | ||
L (x<sub>1</sub>, x<sub>2</sub>,..., x<sub>n</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub> = f (x<sub>1</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>) f (x<sub>2</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>)... f (x<sub>n</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>). | L (x<sub>1</sub>, x<sub>2</sub>,..., x<sub>n</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub> = f (x<sub>1</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>) f (x<sub>2</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>)... f (x<sub>n</sub>;θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>). | ||
Nazywamy ją funkcją wiarygodności. Tę wartość parametrów θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>, dla których L jest największe (max), przyjmować będziemy za oszacowanie niewiadomych parametrów. Dane wartości będą bez wątpienia zależeć od wartości dostrzeżonych w próbie, a zatem są funkcjami próby, czyli statystykami. Nazywamy je estymatorami największej wiarygodności. Estymatory uzyskane tą metodą niekiedy są trudne do wyznaczenia ze względów obliczeniowych. Zdarza się jednak, że przy odpowiednich założeniach ogólnych, które dotyczą regularności dystrybuanty jako funkcji parametru θ, mają pożądane własności asymptotyczne. Mianowicie estymatory największej wiarygodności mają asymptotyczne rozkłady normalne i są asymptotycznie najefektywniejsze. | Nazywamy ją funkcją wiarygodności. Tę wartość parametrów θ<sub>1</sub>, θ<sub>2</sub>,..., θ<sub>''m''</sub>, dla których L jest największe (max), przyjmować będziemy za oszacowanie niewiadomych parametrów. Dane wartości będą bez wątpienia zależeć od wartości dostrzeżonych w próbie, a zatem są funkcjami próby, czyli statystykami. Nazywamy je estymatorami największej wiarygodności. Estymatory uzyskane tą metodą niekiedy są trudne do wyznaczenia ze względów obliczeniowych. Zdarza się jednak, że przy odpowiednich założeniach ogólnych, które dotyczą regularności dystrybuanty jako funkcji parametru θ, mają pożądane własności asymptotyczne. Mianowicie estymatory największej wiarygodności mają asymptotyczne rozkłady normalne i są asymptotycznie najefektywniejsze. | ||
==Bezpośrednie estymatory modalnej== | ==Bezpośrednie estymatory modalnej== | ||
Linia 90: | Linia 88: | ||
==Bibliografia== | ==Bibliografia== | ||
<noautolinks> | |||
* Aczel A. D., (2000). Statystyka w zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa | * Aczel A. D., (2000). Statystyka w zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa | ||
* Hill J., Thomas L.C., Allen D.E. (2000). | * Hill J., Thomas L.C., Allen D.E. (2000). Experts' estimates of task durations in software development projects International Journal of Project Management, Nr 18 | ||
* Krzysztofiak M., Urbanek D. (1977). Metody Statystyczne, Państwowe Wydawnictwo Naukowe, Warszawa | * Krzysztofiak M., Urbanek D. (1977). Metody Statystyczne, Państwowe Wydawnictwo Naukowe, Warszawa | ||
* Morgenshtern O., Raz T., Dvir D. (2007). | * Morgenshtern O., Raz T., Dvir D. (2007). Factors affecting duration and effort estimation errors in software development projects, Information and Software Technology, Vol. 49, Nr 8 | ||
* Plucińska A, Pluciński E. (2017). Probablistyka, Wydawnictwo WNT, Warszawa | * Plucińska A, Pluciński E. (2017). Probablistyka, Wydawnictwo WNT, Warszawa | ||
* Sokołowski A. (2013). Bezpośrednie estymatory modalnej, Wydawnictwo Uniwersytety Ekonomicznego w Krakowie, Kraków | * Sokołowski A. (2013). Bezpośrednie estymatory modalnej, Wydawnictwo Uniwersytety Ekonomicznego w Krakowie, Kraków | ||
* Woźniak M. (red.), (1994). Statystyka ogólna, Akademia Ekonomiczna w Krakowie, Kraków | * Woźniak M. (red.), (1994). Statystyka ogólna, Akademia Ekonomiczna w Krakowie, Kraków | ||
</noautolinks> | |||
{{a|Michał Mikołajczyk, Dominik Juszczyk}} | {{a|Michał Mikołajczyk, Dominik Juszczyk}} |
Wersja z 19:03, 27 paź 2023
Estymator |
---|
Polecane artykuły |
Estymatorem parametru populacji jest statystyka z próby używana do oszacowania tego parametru. Aby oszacować niewiadomy parametr na podstawie próby należy wyznaczyć z próby wartości zn estymatora Zn, którego rozkład jest zależny od estymowanego parametru i przyjmowania tej wartości za oszacowanie parametru. Przy takiej metodzie naturalnym wydaje się warunek, aby wartości estymatora były skupione na pobliskim otoczeniu rzeczywistej wartości niewiadomego parametru. Oznacza to, że nie wszystkie estymatory są identycznie dobre i nie należy wymagać, aby estymatory, z których korzystamy, spełniały dane warunki. Aby sprecyzować te warunki należy wprowadzić kilka określeń wymienionych niżej.
TL;DR
Estymatory są statystykami używanymi do oszacowania parametru populacji na podstawie próby. Istnieją różne cechy estymatorów, takie jak nieobciążoność, asymptotyczna nieobciążoność, zgodność i efektywność. Metody uzyskiwania estymatorów to metoda momentów i metoda największej wiarygodności. Istnieje wiele różnych estymatorów modalnych, takich jak estymator Chernoffa, estymator Daleniusa, estymator Vantera, itp.
Cechy estymatorów
Nieobciążoność
Estymator jest nieobciążony, jeśli wartość oczekiwana rozkładu estymatora jest równa wartości szacowanego parametru:
Jeśli różnica pomiędzy wartością oczekiwaną rozkładu estymatora a wartością szacowanego parametru jest zależna funkcyjnie od
estymatora:
to estymator nazywamy obciążonym, zaś samą różnicę nazywamy obciążeniem estymatora.
Asymptotyczna nieobciążoność
Estymator nazywamy asymptotycznie nieobciążonym, jeśli obciążenie estymatora dąży do zera przy rosnącej liczebności próby:
Każdy estymator nieobciążony jest oczywiście estymatorem asymptotycznie nieobciążonym.
Zgodność
Estymator nazywamy zgodnym, jeśli jest stochastycznie zbieżny do szacowanego parametru:
Oznacza to, że jeśli rośnie liczebność próby, rośnie też prawdopodobieństwo, że oszacowanie przy pomocy estymatora będzie przyjmować wartości coraz bliższe wartości szacowanego parametru. Inaczej: zwiększając liczebność próby, zmniejszamy ryzyko popełnienia błędu.
Efektywność
"Estymatorem najefektywniejszym parametru nazywamy ten spośród nieobciążonych estymatorów tego parametru, który ma najmniejszą wariancję." (A. Plucińska, E. Pluciński, Probablistyka, Warszawa 2017, s. 247). Nie zawsze estymatory najefektywniejsze parametrów istnieją. Jeśli jednak istnieje najefektywniejszy estymator Zn parametru θ, to jego wartości najmocniej skupiają się wokół wartości E (Zn) = θ. Estymator Zn parametru θ zgodny i najefektywniejszy uważać można będzie za najlepszy do wyliczenia nieznanego parametru θ, gdyż z dużym prawdopodobieństwem można założyć, że obserwowana wartość estymatora Zn jest bliska rzeczywistej wartości parametru θ. Jeżeli rzeczywiście istnieje najefektywniejszy estymator Zn parametru θ, to jego wybór umożliwia tzw. nierówność Rao-Cramera.
Metody uzyskiwania estymatorów
Wyróżniamy dwie metody uzyskiwania estymatorów:
- Metoda momentów
- Metoda największej wiarygodności
Metoda momentów wprowadzona została przez angielskiego matematyka K. Pearsona. Polega na przyjmowaniu za oszacowanie niewiadomych momentów cechy X elementów populacji, dostrzeżonych wartości momentów empirycznych. Analogicznie za oszacowanie parametrów populacji, które są funkcjami momentów, uznaje się wartości tychże funkcji momentów empirycznych. Zaletą estymatorów otrzymanych metodą momentów jest to, że odnalezienie ich wartości jest zazwyczaj związane z prostymi obliczeniami. Wadą otrzymanych w taki sposób estymatorów jest to, że ich efektywność jest niewielka (jedynym pozytywnym wyjątkiem jest moment gdy cecha X ma rozkład normalny).
Metoda największej wiarygodności została omówiona przez Fishera. Załóżmy, że cecha X elementów populacji będzie losową ciągłą o gęstości prawdopodobieństwa f i będzie zależała od m nieznanych parametrów θ1, θ2,..., θm. Parametry te chcemy oszacować na podstawie n-elementowej próby, w której zauważono wartości x1, x2,..., xn. W tym celu wprowadzamy funkcję L, która została zapisana wzorem:
L (x1, x2,..., xn;θ1, θ2,..., θm = f (x1;θ1, θ2,..., θm) f (x2;θ1, θ2,..., θm)... f (xn;θ1, θ2,..., θm).
Nazywamy ją funkcją wiarygodności. Tę wartość parametrów θ1, θ2,..., θm, dla których L jest największe (max), przyjmować będziemy za oszacowanie niewiadomych parametrów. Dane wartości będą bez wątpienia zależeć od wartości dostrzeżonych w próbie, a zatem są funkcjami próby, czyli statystykami. Nazywamy je estymatorami największej wiarygodności. Estymatory uzyskane tą metodą niekiedy są trudne do wyznaczenia ze względów obliczeniowych. Zdarza się jednak, że przy odpowiednich założeniach ogólnych, które dotyczą regularności dystrybuanty jako funkcji parametru θ, mają pożądane własności asymptotyczne. Mianowicie estymatory największej wiarygodności mają asymptotyczne rozkłady normalne i są asymptotycznie najefektywniejsze.
Bezpośrednie estymatory modalnej
W estymatorach z zadanym przedziałem zakładamy, że pierwszorzędnie ustala się szerokość przedziału liczbowego. Później szuka się takiego przedziału o zadanej długości, zawierającego największą liczbę badań. Punkt z wybranego przedziału uznaje się za estymator modalnej. Mnogość estymatorów wynika ze sposobu wyboru wielkości tego przedziału oraz z zasady wyboru punktu - estymatora z tego przedziału.
Estymatory z zadanym przediałem:
- Estymator Chernoffa
Estymatory z zadaną czśtotliwością:
- Estymator Daleniusa
- Estymator Vantera
- Estymator shorth
- Estymator Rousseeuwa i Leroya
Estymatory iteracyjne:
- Estymator Robertsona i Cryera
- Estymator Ellisa, Copelowitza i Steela
- Estymatory Bickela
Inne estymatory:
- Estymator Pearsona
- Przybliżony estymator Pearsona
- Estymator Grenandera
- Estymator Wywiała
- Estymatory Bickela II
Bibliografia
- Aczel A. D., (2000). Statystyka w zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa
- Hill J., Thomas L.C., Allen D.E. (2000). Experts' estimates of task durations in software development projects International Journal of Project Management, Nr 18
- Krzysztofiak M., Urbanek D. (1977). Metody Statystyczne, Państwowe Wydawnictwo Naukowe, Warszawa
- Morgenshtern O., Raz T., Dvir D. (2007). Factors affecting duration and effort estimation errors in software development projects, Information and Software Technology, Vol. 49, Nr 8
- Plucińska A, Pluciński E. (2017). Probablistyka, Wydawnictwo WNT, Warszawa
- Sokołowski A. (2013). Bezpośrednie estymatory modalnej, Wydawnictwo Uniwersytety Ekonomicznego w Krakowie, Kraków
- Woźniak M. (red.), (1994). Statystyka ogólna, Akademia Ekonomiczna w Krakowie, Kraków
Autor: Michał Mikołajczyk, Dominik Juszczyk