|
Znacznik: Usunięcie całej zawartości strony |
Linia 1: |
Linia 1: |
| '''Test Fishera''' - rodzaj '''testu dla wariancji'''. Jest to '''test statystyczny''', który służy weryfikacji hipotez statystycznych dotyczących wartości wariancji w populacji generalnej. '''Test Fishera''' wykorzystywany jest także do porównania wartości wariancji dla dwóch niezależnych prób w oparciu o znajomość wartości badanej cechy w próbie losowej. W praktyce stosuje się go w przypadku małych prób, mimo że teoretycznie obowiązuje dla prób o różnych wielkościach (Zieliński 2011, s. 113). Nazwa testu pochodzi od nazwiska wynalazcy - '''Ronalda Fishera'''. Test należy do grupy testów dokładnych, nazywanych tak, ponieważ istotność odchylenia od hipotezy zerowej można obliczyć dokładnie, zamiast polegać na przybliżeniu (Kurkiewicz, Stonawski 2005, s. 45).
| |
|
| |
|
| ==Zastosowanie testu Fishera==
| |
| '''Test Fishera''' jest przydatny dla danych kategorycznych, wynikających z klasyfikacji obiektów na dwa różne sposoby. Służy więc do zbadania znaczenia związku pomiędzy dwoma rodzajami klasyfikacji. W oryginalnym przykładzie Fishera jednym z kryteriów klasyfikacji może być to, czy najpierw do filiżanki włożono mleko czy herbatę; innym może być to czy autor uważa, że mleko lub herbatę włożono jako pierwsze. Test Fishera służy temu, aby dowiedzieć się czy te dwie klasyfikacje są ze sobą powiązane - to znaczy czy autor naprawdę może stwierdzić czy najpierw wlano mleko czy herbatę (Peck, Olsen, Devore 2008, s. 183).
| |
|
| |
| ==Podstawowe założenia testu Fishera==
| |
| Do podstawowych warunków stosowania testu Fishera można zaliczyć (Zieliński 2011, s. 115):
| |
| * model niezależny
| |
| * test dla dwóch niezależnych prób
| |
| * próby małe (mniej niż 30 obserwacji)
| |
| * pomiar na skali interwałowej
| |
| * normalność rozkładu badanej zmiennej w wszystkich populacjach (test nie jest odporny na naruszenia tego założenia)
| |
|
| |
| ==Obliczanie testu Fishera==
| |
| Wartość F oblicza się za pomocą wzoru '''''F = (SSE1 – SSE2 / m) / SSE2 / n-k''''', gdzie (Zieliński 2011, s. 37):
| |
| * SSE = suma rezydualna kwadratów
| |
| * m = liczba ograniczeń
| |
| * k = liczba niezależnych zmiennych
| |
|
| |
| ==Ronald Fisher==
| |
| '''Ronald Fisher''' (urodzony 17 lutego 1890 w Londynie, zmarł 29 lipca 1962 w Adelaide) - brytyjski statystyk oraz genetyk, laureat medalu Copleya z 1955 roku. Stworzył m.in. statystyczną metodę największej wiarygodności, analizę wariancji (anova) oraz liniową analizę dyskryminacyjną. Współtworzył twierdzenie Fishera-Tippetta-Gnedenki. Odkrył problem Behrensa-Fishera oraz rozkład Behrensa-Fishera (Porter 1978, s. 16).
| |
|
| |
| W latach 1919-1933 opracowywał wyniki doświadczeń prowadzonych w Stacji Eksperymentalnej Rothamsted koło Harpenden. Był jednym z twórców nowoczesnej statystyki matematycznej, zajmował się metodami weryfikacji hipotez za pomocą metod statystycznych, m.in. w antropologii, genetyce czy ekologii (Porter 1978, s. 17-18).
| |
|
| |
| ==Struktura i podział testów==
| |
| Kwestia rozstrzygania pytań dotyczących wariancji jest ważna dlatego, że wiele testów służących do porównania wartości średnich w kilku populacjach wymaga przyjęcia założenia o równości wariancji w tychże populacjach (Drapella 2016, s. 7). Co więcej wariancja może być także miernikiem dokładności w procesie produkcyjnym lub pomiarowym (Michalski 2004, s. 45).
| |
| Hipotezy dotyczące wariancji testuje się na podstawie ogólnych zasad testowania hipotez statystycznych: sformułowanie hipotezy, założenie poziomu istotności α (dopuszczalna wartość błędu pierwszego rodzaju. Na podstawie danych z próby wyznaczamy wartość statystyki testowej, a następnie porównujemy ją z wartościami krytycznymi, które zawarte są w tablicach odpowiedniego rozkładu teoretycznego (Major, Niezgoda 2003, s. 56-58).
| |
|
| |
| '''Postać stosowanej statystyki testowej jest zależna od kilku czynników''' (Wasilewska 2015, s. 49-50):
| |
| * czy badana hipoteza dotyczy jednej, dwóch czy wielu wariancji
| |
| * jaka jest liczebność próby (gdy liczebność próby przekracza 30 obserwacji, przyjmuje się, że jest to próba duża, w przeciwnym razie próba kwalifikowana jest jako mała)
| |
| * czy porównujemy próby niezależne czy zależne (skorelowane, powiązane)
| |
|
| |
| ==Test T Studenta==
| |
| Do testów dla dwóch prób niezależnych zalicza się również '''test t-Studenta'''. Używa się go w przypadku dwóch małych prób o różnych liczebnościach, w przypadku gdy próby pochodzą z populacji o rozkładzie normalnym i gdy nie znamy wariancji. Test t-Studenta jest jednym z mniej skomplikowanych i bardzo często wykorzystywanych testów statystycznych do weryfikacji hipotez. Dostarcza on informację czy dwie różne średnie powstały w wyniku przypadku czy są różne istotnie statystycznie, np. z uwagi na manipulację eksperymentalną (Wasilewska 2015, s. 43).
| |
|
| |
| ==Bibliografia==
| |
| * Drapella A. (2016), ''[https://stat.gov.pl/files/gfx/portalinformacyjny/pl/defaultaktualnosci/5982/7/12/1/ws_03_2016__04_antoni_drapella__o_zlej_radzie_dotyczacej_testu_f_snedecora.pdf O złej radzie dotyczącej testu F Snedecora]'', Wiadomości Statystyczne nr.3, Warszawa.
| |
| * Kurkiewicz J., Stonawski M. (2005), ''[https://repozytorium.ka.edu.pl/bitstream/handle/11315/28123/KURKIEWICZ_Podstawy_statystyki_2005.pdf?sequence=1&isAllowed=y Podstawy statystyki]'', Krakowska Szkoła Wyższa im. Andrzeja Frycza Modrzewskiego, Kraków.
| |
| * Major M., Niezgoda J. (2003), ''[https://repozytorium.ka.edu.pl/bitstream/handle/11315/28280/MAJOR_elementy_statystyki_2003.pdf?sequence=1&isAllowed=y Elementy Statystyki, Część I. Statystyka opisowa]'', Krakowska Szkoła Wyższa im. Andrzeja Frycza Modrzewskiego, Kraków 2003.
| |
| * Michalski T. (2004), ''Statystyka'', WSiP, Warszawa.
| |
| * Wasilewska E. (2015), ''Statystyka matematyczna w praktyce'', Difin, Warszawa.
| |
| * Zieliński R. (2011), ''Statystyka matematyczna stosowana'', Instytut Matematyki Polskiej Akademii Nauk, Warszawa.
| |
|
| |
| {{a|Patryk Kozioł}}
| |
| [[Kategoria:Ekonomia]]
| |