Test Fishera

Z Encyklopedia Zarządzania

Test Fishera - inaczej test dla wariancji. Jest to test statystyczny, który służy weryfikacji hipotez statystycznych dotyczących wartości wariancji w populacji generalnej. Test Fishera wykorzystywany jest także do porównania wartości wariancji w kilku populacjach w oparciu o znajomość wartości badanej cechy w próbie losowej (Zieliński 2011, s. 113).

Kwestia rozstrzygania pytań dotyczących wariancji jest ważna dlatego, że wiele testów służących do porównania wartości średnich w kilku populacjach wymaga przyjęcia założenia o równości wariancji w tychże populacjach (Drapella 2016, s. 7). Co więcej wariancja może być także miernikiem dokładności w procesie produkcyjnym lub pomiarowym (Michalski 2004, s. 45).

Podstawowe założenia testu Fishera

Do podstawowych warunków stosowania testu Fishera można zaliczyć (Zieliński 2011, s. 115):

  • model niezależny
  • pomiar na skali interwałowej
  • normalność rozkładu badanej zmiennej w wszystkich populacjach

Struktura i podział testów

Hipotezy dotyczące wariancji testuje się na podstawie ogólnych zasad testowania hipotez statystycznych: sformułowanie hipotezy, założenie poziomu istotności α (dopuszczalna wartość błędu pierwszego rodzaju. Na podstawie danych z próby wyznaczamy wartość statystyki testowej, a następnie porównujemy ją z wartościami krytycznymi, które zawarte są w tablicach odpowiedniego rozkładu teoretycznego (Major, Niezgoda 2003, s. 56-58).

Postać stosowanej statystyki testowej jest zależna od kilku czynników (Wasilewska 2015, s. 49-50):

  • czy badana hipoteza dotyczy jednej, dwóch czy wielu wariancji
  • jaka jest liczebność próby (gdy liczebność próby przekracza 30 obserwacji, przyjmuje się, że jest to próba duża, w przeciwnym razie próba kwalifikowana jest jako mała)
  • czy porównujemy próby niezależne czy zależne (skorelowane, powiązane)

Obliczanie testu Fishera

Wartość F oblicza się za pomocą wzoru F = (SSE1 – SSE2 / m) / SSE2 / n-k, gdzie (Zieliński 2011, s. 37):

  • SSE = suma rezydualna kwadratów
  • m = liczba ograniczeń
  • k = liczba niezależnych zmiennych

Bibliografia

  • Drapella A. (2016), O złej radzie dotyczącej testu F Snedecora, Wiadomości Statystyczne nr.3, Warszawa.
  • Kurkiewicz J., Stonawski M. (2005), Podstawy statystyki, Krakowska Szkoła Wyższa im. Andrzeja Frycza Modrzewskiego, Kraków.
  • Major M., Niezgoda J. (2003), Elementy Statystyki, Część I. Statystyka opisowa, Krakowska Szkoła Wyższa im. Andrzeja Frycza Modrzewskiego, Kraków 2003.
  • Michalski T. (2004), Statystyka, WSiP, Warszawa.
  • Wasilewska E. (2015), Statystyka matematyczna w praktyce, Difin, Warszawa.
  • Zieliński R. (2011), Statystyka matematyczna stosowana, Instytut Matematyki Polskiej Akademii Nauk, Warszawa.

Autor: Patryk Kozioł