ANOVA: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (Dodanie MetaData Description)
m (cleanup bibliografii i rotten links)
Linia 13: Linia 13:
</ul>
</ul>
}}
}}


'''ANOVA''' to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby [[populacja|populacji]]. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku [[populacja|populacjach]], to i tak wymaga zbadania [[wariancja|wariancji]], która ujawnia się w odpowiednio dobranych [[próba|próbach]] losowych. <ref>Aczel A. (2000). ''[[Statystyka]] w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa, s. 389</ref>
'''ANOVA''' to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby [[populacja|populacji]]. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku [[populacja|populacjach]], to i tak wymaga zbadania [[wariancja|wariancji]], która ujawnia się w odpowiednio dobranych [[próba|próbach]] losowych. <ref>Aczel A. (2000). ''[[Statystyka]] w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa, s. 389</ref>


[[Metoda]] ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo [[analiza wariancji]] stanowi grupę technik przeznaczonych do testowania [[hipoteza statystyczna|hipotez]]. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 485</ref>  
[[Metoda]] ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo [[analiza wariancji]] stanowi grupę technik przeznaczonych do testowania [[hipoteza statystyczna|hipotez]]. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 485</ref>
<google>t</google>
<google>t</google>


Linia 47: Linia 46:


==Jednoczynnikowa analiza wariancji==
==Jednoczynnikowa analiza wariancji==
Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie [[zmienna]] odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam [[wynik]] jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 486</ref>  
Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie [[zmienna]] odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam [[wynik]] jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 486</ref>


W jednoczynnikowej analizie wariancji całkowita [[wariancja]], czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową <math> {s_{wew}}^2\,</math> oraz wariancję międzygrupową <math> {s_{mie}}^2\,</math>. W przypadku prawdziwości hipotezy zerowej wyrażenia <math> {s_{wew}}^2\,</math> oraz <math> {s_{mie}}^2\,</math> uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość <math> {s_{mie}}^2\,</math> znacząco przewyższa wartość <math> {s_{wew}}^2\,</math>. Co więcej, im większa wartość <math> {s_{mie}}^2\,</math>, tym silniejszy jest efekt badanego czynnika na zmienną zależną. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 522</ref>
W jednoczynnikowej analizie wariancji całkowita [[wariancja]], czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową <math> {s_{wew}}^2\,</math> oraz wariancję międzygrupową <math> {s_{mie}}^2\,</math>. W przypadku prawdziwości hipotezy zerowej wyrażenia <math> {s_{wew}}^2\,</math> oraz <math> {s_{mie}}^2\,</math> uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość <math> {s_{mie}}^2\,</math> znacząco przewyższa wartość <math> {s_{wew}}^2\,</math>. Co więcej, im większa wartość <math> {s_{mie}}^2\,</math>, tym silniejszy jest efekt badanego czynnika na zmienną zależną. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 522</ref>
Linia 53: Linia 52:
==Dwuczynnikowa analiza wariancji==
==Dwuczynnikowa analiza wariancji==
W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji. <ref>Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343</ref>
W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji. <ref>Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343</ref>
==Przypisy==
<references />


==Bibliografia==
==Bibliografia==
<noautolinks>
* Aczel A. (2000). ''Statystyka w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa
* Aczel A. (2000). ''Statystyka w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa
* Dobrowolska B. (2014). [http://www.journals.umcs.pl/h/article/viewFile/112/109''Model ANOVA alternatywą dla badań nad podatkiem VAT''], "Annales H – Oeconomia”, vol. 48, nr 3
* Dobrowolska B. (2014). [http://www.journals.umcs.pl/h/article/viewFile/112/109''Model ANOVA alternatywą dla badań nad podatkiem VAT''], "Annales H – Oeconomia”, vol. 48, nr 3
Linia 60: Linia 63:
* Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa
* Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa
* Malska W., Twaróg B. (2017). [http://zn.wsbip.edu.pl/sectioa/2018(1)/148-159.PDF''Testy ANOVA jako narzędzie wspomagające weryfikację hipotez statystycznych''], "Acta Scientifica Academiae Ostroviensis", 10(2)
* Malska W., Twaróg B. (2017). [http://zn.wsbip.edu.pl/sectioa/2018(1)/148-159.PDF''Testy ANOVA jako narzędzie wspomagające weryfikację hipotez statystycznych''], "Acta Scientifica Academiae Ostroviensis", 10(2)
* Migaszewski Z. (red.) (2004).[https://www.pgi.gov.pl/images/stories/przeglad/pdf/pg_2004_06_05a.pdf''Badania geochemiczne i biogeochemiczne na obszarze trzech parków narodowych: Magurskiego, Świętokrzyskiego i Wigierskiego z zastosowaniem analizy wariancji (ANOVA)''], "[[Przegląd]] Geologiczny”, vol. 52, nr 6
* Migaszewski Z. (red.) (2004).[https://www.pgi.gov.pl/images/stories/przeglad/pdf/pg_2004_06_05a.pdf''Badania geochemiczne i biogeochemiczne na obszarze trzech parków narodowych: Magurskiego, Świętokrzyskiego i Wigierskiego z zastosowaniem analizy wariancji (ANOVA)''], "Przegląd Geologiczny”, vol. 52, nr 6
 
</noautolinks>
==Przypisy==
<references />


{{a|Anna Waleczek}}
{{a|Anna Waleczek}}

Wersja z 19:24, 28 paź 2023

ANOVA
Polecane artykuły

ANOVA to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby populacji. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku populacjach, to i tak wymaga zbadania wariancji, która ujawnia się w odpowiednio dobranych próbach losowych. [1]

Metoda ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo analiza wariancji stanowi grupę technik przeznaczonych do testowania hipotez. [2]

W analizie wariancji zmienną objaśnianą (zależną, czyli tą, którą mierzymy) nazywa się zmienną odpowiedzi, zmienne objaśniające (niezależne, czyli te, które kontrolujemy) czynnikami, natomiast możliwe wartości czynnika nazywa się jego poziomami. Głównym przedmiotem analizy wariancji nie jest określenie dokładnej zależności pomiędzy zmienną odpowiedzi a czynnikami. Celem jest ogólna odpowiedź na pytanie, czy zmiana poziomu danego czynnika ma wpływ na średnią wartość zmiennej odpowiedzi. Analiza wariancji jest blisko związana z analizą regresji (obie zaliczane są do zaawansowanych metod statystycznych), jednak swoją większą popularność i wagę zawdzięcza uniwersalnemu zastosowaniu, zarówno w przypadku czynników, które są zmiennymi ilościowymi, jak i jakościowymi. [3]

TL;DR

ANOVA, czyli analiza wariancji, to procedura statystyczna opracowana przez Sir Ronalda A. Fishera w 1920 roku. Używana jest do porównywania średnich z dwóch lub większej liczby populacji. ANOVA testuje dwie hipotezy: brak różnic między średnimi populacyjnymi lub różnice między nimi. Wymaga spełnienia pewnych założeń, jak losowy i niezależny wybór prób, normalny rozkład badanych populacji oraz jednolitość wariancji. ANOVA może być jednoczynnikowa, czyli zmienna odpowiedzi zależy od jednego czynnika, lub wieloczynnikowa, gdzie zmienna może zależeć od dwóch lub więcej czynników.

Testowanie hipotez w analizie wariancji

W analizie wariancji testujemy dwie hipotezy:

  • H0: μ1 = μ2 =... = μr,
  • H1: nie wszystkie μi (i = 1,..., r) są sobie równe.

Hipotezę zerową (H0) w analizie wariancji często określa się mianem hipotezy typu omnibus, czyli takiej, która obejmuje wiele sytuacji naraz. Tym samym ANOVA jest również nazywana testem typu omnibus. Hipoteza zerowa zakłada brak różnic między średnimi populacyjnymi, natomiast hipoteza alternatywna (H1) formułowana jest zazwyczaj jako "nieprawda, że H0” i mówi o tym, że średnie populacyjne różnią się w jakiś sposób. [4]

Przedmiotem badania jest r populacji. Z każdej takiej populacji pobiera się niezależną od innych próbę losową. Liczebność próby z populacji i wynosi ni (i = 1,..., r). Łączna liczebność próby jest następująca: n = n1 + n2 +... + nr Bazując na tych r próbach oblicza się szereg różnych wielkości, które przy założeniu prawdziwości hipotezy zerowej pozwalają na obliczenie wartości sprawdzianu podlegającego, czyli rozkładu F. Znając tą wartość oraz wartość krytyczną przy danym poziomie istotności rozstrzygnąć można, czy średnie w r populacjach są sobie równe, czy też nie. [5]

Założenia związane z modelem ANOVA

Aby przy testowaniu układu hipotez możliwe było posługiwanie się metodami analizy wariancji muszą być spełnione poniższe założenia:

  • Próby wybiera się losowo, a także niezależnie od siebie, z każdej z populacji.
  • Każda z badanych populacji cechuje się rozkładem normalnym
  • W analizowanych populacjach wariancje są takie same (homogeniczność wariancji). [6]

Rodzaje analizy wariancji

Analiza wariancji występuje w dwóch odmianach:

  • Jednoczynnikowa analiza wariancji – zwana też analizą jednokierunkową,
  • Wieloczynnikowa analiza wariancji – zawierająca jej najpopularniejszy przypadek, a mianowicie dwuczynnikową analizę wariancji, określaną również mianem analizy dwukierunkowej.

Jednoczynnikowa analiza wariancji

Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie zmienna odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam wynik jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie. [7]

W jednoczynnikowej analizie wariancji całkowita wariancja, czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową oraz wariancję międzygrupową . W przypadku prawdziwości hipotezy zerowej wyrażenia oraz uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość znacząco przewyższa wartość . Co więcej, im większa wartość , tym silniejszy jest efekt badanego czynnika na zmienną zależną. [8]

Dwuczynnikowa analiza wariancji

W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji. [9]

Przypisy

  1. Aczel A. (2000). Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 389
  2. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 485
  3. Koronacki J., Mielniczuk J. (2006). Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa, s. 320
  4. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 486
  5. Aczel A. (2000).Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 390
  6. Aczel A. (2000).Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 391
  7. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 486
  8. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 522
  9. Koronacki J., Mielniczuk J. (2006). Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343

Bibliografia


Autor: Anna Waleczek