ANOVA

Z Encyklopedia Zarządzania

ANOVA to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby populacji. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku populacjach, to i tak wymaga zbadania wariancji, która ujawnia się w odpowiednio dobranych próbach losowych[1]

Metoda ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo analiza wariancji stanowi grupę technik przeznaczonych do testowania hipotez. [2]

W analizie wariancji zmienną objaśnianą (zależną, czyli tą, którą mierzymy) nazywa się zmienną odpowiedzi, zmienne objaśniające (niezależne, czyli te, które kontrolujemy) czynnikami, natomiast możliwe wartości czynnika nazywa się jego poziomami. Głównym przedmiotem analizy wariancji nie jest określenie dokładnej zależności pomiędzy zmienną odpowiedzi a czynnikami. Celem jest ogólna odpowiedź na pytanie, czy zmiana poziomu danego czynnika ma wpływ na średnią wartość zmiennej odpowiedzi. Analiza wariancji jest blisko związana z analizą regresji (obie zaliczane są do zaawansowanych metod statystycznych), jednak swoją większą popularność i wagę zawdzięcza uniwersalnemu zastosowaniu, zarówno w przypadku czynników, które są zmiennymi ilościowymi, jak i jakościowymi[3]

TL;DR

ANOVA, czyli analiza wariancji, to procedura statystyczna opracowana przez Sir Ronalda A. Fishera w 1920 roku. Używana jest do porównywania średnich z dwóch lub większej liczby populacji. ANOVA testuje dwie hipotezy: brak różnic między średnimi populacyjnymi lub różnice między nimi. Wymaga spełnienia pewnych założeń, jak losowy i niezależny wybór prób, normalny rozkład badanych populacji oraz jednolitość wariancji. ANOVA może być jednoczynnikowa, czyli zmienna odpowiedzi zależy od jednego czynnika, lub wieloczynnikowa, gdzie zmienna może zależeć od dwóch lub więcej czynników.

Testowanie hipotez w analizie wariancji

W analizie wariancji testujemy dwie hipotezy:

  • H0: μ1 = μ2 =... = μr,
  • H1: nie wszystkie μi (i = 1,..., r) są sobie równe.

Hipotezę zerową (H0) w analizie wariancji często określa się mianem hipotezy typu omnibus, czyli takiej, która obejmuje wiele sytuacji naraz. Tym samym ANOVA jest również nazywana testem typu omnibus. Hipoteza zerowa zakłada brak różnic między średnimi populacyjnymi, natomiast hipoteza alternatywna (H1) formułowana jest zazwyczaj jako "nieprawda, że H0" i mówi o tym, że średnie populacyjne różnią się w jakiś sposób[4]

Przedmiotem badania jest r populacji. Z każdej takiej populacji pobiera się niezależną od innych próbę losową. Liczebność próby z populacji i wynosi ni (i = 1,..., r). Łączna liczebność próby jest następująca: n = n1 + n2 +... + nr Bazując na tych r próbach oblicza się szereg różnych wielkości, które przy założeniu prawdziwości hipotezy zerowej pozwalają na obliczenie wartości sprawdzianu podlegającego, czyli rozkładu F. Znając tą wartość oraz wartość krytyczną przy danym poziomie istotności rozstrzygnąć można, czy średnie w r populacjach są sobie równe, czy też nie[5]

Założenia związane z modelem ANOVA

Aby przy testowaniu układu hipotez możliwe było posługiwanie się metodami analizy wariancji muszą być spełnione poniższe założenia:

  • Próby wybiera się losowo, a także niezależnie od siebie, z każdej z populacji.
  • Każda z badanych populacji cechuje się rozkładem normalnym
  • W analizowanych populacjach wariancje są takie same (homogeniczność wariancji). [6]

Rodzaje analizy wariancji

Analiza wariancji występuje w dwóch odmianach:

  • Jednoczynnikowa analiza wariancji - zwana też analizą jednokierunkową,
  • Wieloczynnikowa analiza wariancji - zawierająca jej najpopularniejszy przypadek, a mianowicie dwuczynnikową analizę wariancji, określaną również mianem analizy dwukierunkowej.

Jednoczynnikowa analiza wariancji

Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie zmienna odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam wynik jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie[7]

W jednoczynnikowej analizie wariancji całkowita wariancja, czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową oraz wariancję międzygrupową . W przypadku prawdziwości hipotezy zerowej wyrażenia oraz uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość znacząco przewyższa wartość . Co więcej, im większa wartość , tym silniejszy jest efekt badanego czynnika na zmienną zależną. [8]

Dwuczynnikowa analiza wariancji

W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji[9]


ANOVAartykuły polecane
Poziom istotnościSkala porządkowaAnaliza regresjiWnioskowanie statystyczneHistogramRozkład normalnyRozkład częstościModel ekonometrycznyPróba

Przypisy

  1. Aczel A. (2000). Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 389
  2. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 485
  3. Koronacki J., Mielniczuk J. (2006). Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa, s. 320
  4. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 486
  5. Aczel A. (2000).Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 390
  6. Aczel A. (2000).Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 391
  7. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 486
  8. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 522
  9. Koronacki J., Mielniczuk J. (2006). Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343

Bibliografia


Autor: Anna Waleczek