Test Fishera: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
Nie podano opisu zmian
(UWAGA! Usunięcie treści (strona pozostała pusta)!)
Znacznik: Usunięcie całej zawartości strony
Linia 1: Linia 1:
'''Test Fishera''' - rodzaj '''testu dla wariancji'''. Jest to '''test statystyczny''', który służy weryfikacji hipotez statystycznych dotyczących wartości wariancji w populacji generalnej. '''Test Fishera''' wykorzystywany jest także do porównania wartości wariancji dla dwóch niezależnych prób w oparciu o znajomość wartości badanej cechy w próbie losowej. W praktyce stosuje się go w przypadku małych prób, mimo że teoretycznie obowiązuje dla prób o różnych wielkościach (Zieliński 2011, s. 113). Nazwa testu pochodzi od nazwiska wynalazcy - '''Ronalda Fishera'''. Test należy do grupy testów dokładnych, nazywanych tak, ponieważ istotność odchylenia od hipotezy zerowej można obliczyć dokładnie, zamiast polegać na przybliżeniu (Kurkiewicz, Stonawski 2005, s. 45).


==Zastosowanie testu Fishera==
'''Test Fishera''' jest przydatny dla danych kategorycznych, wynikających z klasyfikacji obiektów na dwa różne sposoby. Służy więc do zbadania znaczenia związku pomiędzy dwoma rodzajami klasyfikacji. W oryginalnym przykładzie Fishera jednym z kryteriów klasyfikacji może być to, czy najpierw do filiżanki włożono mleko czy herbatę; innym może być to czy autor uważa, że mleko lub herbatę włożono jako pierwsze. Test Fishera służy temu, aby dowiedzieć się czy te dwie klasyfikacje są ze sobą powiązane - to znaczy czy autor naprawdę może stwierdzić czy najpierw wlano mleko czy herbatę (Peck, Olsen, Devore 2008, s. 183).
==Podstawowe założenia testu Fishera==
Do podstawowych warunków stosowania testu Fishera można zaliczyć (Zieliński 2011, s. 115):
* model niezależny
* test dla dwóch niezależnych prób
* próby małe (mniej niż 30 obserwacji)
* pomiar na skali interwałowej
* normalność rozkładu badanej zmiennej w wszystkich populacjach (test nie jest odporny na naruszenia tego założenia)
==Obliczanie testu Fishera==
Wartość F oblicza się za pomocą wzoru '''''F = (SSE1 – SSE2 / m) / SSE2 / n-k''''', gdzie (Zieliński 2011, s. 37):
* SSE = suma rezydualna kwadratów
* m = liczba ograniczeń
* k = liczba niezależnych zmiennych
==Ronald Fisher==
'''Ronald Fisher''' (urodzony 17 lutego 1890 w Londynie, zmarł 29 lipca 1962 w Adelaide) - brytyjski statystyk oraz genetyk, laureat medalu Copleya z 1955 roku. Stworzył m.in. statystyczną metodę największej wiarygodności, analizę wariancji (anova) oraz liniową analizę dyskryminacyjną. Współtworzył twierdzenie Fishera-Tippetta-Gnedenki. Odkrył problem Behrensa-Fishera oraz rozkład Behrensa-Fishera (Porter 1978, s. 16).
W latach 1919-1933 opracowywał wyniki doświadczeń prowadzonych w Stacji Eksperymentalnej Rothamsted koło Harpenden. Był jednym z twórców nowoczesnej statystyki matematycznej, zajmował się metodami weryfikacji hipotez za pomocą metod statystycznych, m.in. w antropologii, genetyce czy ekologii (Porter 1978, s. 17-18).
==Struktura i podział testów==
Kwestia rozstrzygania pytań dotyczących wariancji jest ważna dlatego, że wiele testów służących do porównania wartości średnich w kilku populacjach wymaga przyjęcia założenia o równości wariancji w tychże populacjach (Drapella 2016, s. 7). Co więcej wariancja może być także miernikiem dokładności w procesie produkcyjnym lub pomiarowym (Michalski 2004, s. 45).
Hipotezy dotyczące wariancji testuje się na podstawie ogólnych zasad testowania hipotez statystycznych: sformułowanie hipotezy, założenie poziomu istotności  α (dopuszczalna wartość błędu pierwszego rodzaju. Na podstawie danych z próby wyznaczamy wartość statystyki testowej, a następnie porównujemy ją z wartościami krytycznymi, które zawarte są w tablicach odpowiedniego rozkładu teoretycznego (Major, Niezgoda 2003, s. 56-58).
'''Postać stosowanej statystyki testowej jest zależna od kilku czynników''' (Wasilewska 2015, s. 49-50):
* czy badana hipoteza dotyczy jednej, dwóch czy wielu wariancji
* jaka jest liczebność próby (gdy liczebność próby przekracza 30 obserwacji, przyjmuje się, że jest to próba duża, w przeciwnym razie próba kwalifikowana jest jako mała)
* czy porównujemy próby niezależne czy zależne (skorelowane, powiązane)
==Test T Studenta==
Do testów dla dwóch prób niezależnych zalicza się również '''test t-Studenta'''. Używa się go w przypadku dwóch małych prób o różnych liczebnościach, w przypadku gdy próby pochodzą z populacji o rozkładzie normalnym i gdy nie znamy wariancji. Test t-Studenta jest jednym z mniej skomplikowanych i bardzo często wykorzystywanych testów statystycznych do weryfikacji hipotez. Dostarcza on informację czy dwie różne średnie powstały w wyniku przypadku czy są różne istotnie statystycznie, np. z uwagi na manipulację eksperymentalną (Wasilewska 2015, s. 43).
==Bibliografia==
* Drapella A. (2016), ''[https://stat.gov.pl/files/gfx/portalinformacyjny/pl/defaultaktualnosci/5982/7/12/1/ws_03_2016__04_antoni_drapella__o_zlej_radzie_dotyczacej_testu_f_snedecora.pdf O złej radzie dotyczącej testu F Snedecora]'', Wiadomości Statystyczne nr.3, Warszawa.
* Kurkiewicz J., Stonawski M. (2005), ''[https://repozytorium.ka.edu.pl/bitstream/handle/11315/28123/KURKIEWICZ_Podstawy_statystyki_2005.pdf?sequence=1&isAllowed=y Podstawy statystyki]'', Krakowska Szkoła Wyższa im. Andrzeja Frycza Modrzewskiego, Kraków.
* Major M., Niezgoda J. (2003), ''[https://repozytorium.ka.edu.pl/bitstream/handle/11315/28280/MAJOR_elementy_statystyki_2003.pdf?sequence=1&isAllowed=y Elementy Statystyki, Część I. Statystyka opisowa]'', Krakowska Szkoła Wyższa im. Andrzeja Frycza Modrzewskiego, Kraków 2003.
* Michalski T. (2004), ''Statystyka'', WSiP, Warszawa.
* Wasilewska E. (2015), ''Statystyka matematyczna w praktyce'', Difin, Warszawa.
* Zieliński R. (2011), ''Statystyka matematyczna stosowana'', Instytut Matematyki Polskiej Akademii Nauk, Warszawa.
{{a|Patryk Kozioł}}
[[Kategoria:Ekonomia]]

Wersja z 10:07, 30 mar 2022