ANOVA: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (Czyszczenie tekstu)
m (cleanup bibliografii i rotten links)
 
(Nie pokazano 9 wersji utworzonych przez 2 użytkowników)
Linia 1: Linia 1:
{{infobox4
'''ANOVA''' to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby [[populacja|populacji]]. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku [[populacja|populacjach]], to i tak wymaga zbadania [[wariancja|wariancji]], która ujawnia się w odpowiednio dobranych [[próba|próbach]] losowych<ref>Aczel A. (2000). ''[[Statystyka]] w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa, s. 389</ref>
|list1=
<ul>
<li>[[Poziom istotności]]</li>
<li>[[Skala porządkowa]]</li>
<li>[[Analiza regresji]]</li>
<li>[[Wnioskowanie statystyczne]]</li>
<li>[[Histogram]]</li>
<li>[[Rozkład normalny]]</li>
<li>[[Rozkład częstości]]</li>
<li>[[Model ekonometryczny]]</li>
<li>[[Próba]]</li>
</ul>
}}
 
'''ANOVA''' to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby [[populacja|populacji]]. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku [[populacja|populacjach]], to i tak wymaga zbadania [[wariancja|wariancji]], która ujawnia się w odpowiednio dobranych [[próba|próbach]] losowych. <ref>Aczel A. (2000). ''[[Statystyka]] w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa, s. 389</ref>


[[Metoda]] ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo [[analiza wariancji]] stanowi grupę technik przeznaczonych do testowania [[hipoteza statystyczna|hipotez]]. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 485</ref>
[[Metoda]] ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo [[analiza wariancji]] stanowi grupę technik przeznaczonych do testowania [[hipoteza statystyczna|hipotez]]. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 485</ref>
<google>t</google>


W analizie wariancji zmienną objaśnianą (zależną, czyli tą, którą mierzymy) nazywa się zmienną odpowiedzi, zmienne objaśniające (niezależne, czyli te, które kontrolujemy) czynnikami, natomiast możliwe wartości czynnika nazywa się jego poziomami. Głównym przedmiotem analizy wariancji nie jest określenie dokładnej zależności pomiędzy zmienną odpowiedzi a czynnikami. Celem jest ogólna odpowiedź na pytanie, czy [[zmiana]] poziomu danego czynnika ma wpływ na średnią [[wartość]] zmiennej odpowiedzi. Analiza wariancji jest blisko związana z [[analiza regresji|analizą regresji]] (obie zaliczane są do zaawansowanych metod statystycznych), jednak swoją większą popularność i wagę zawdzięcza uniwersalnemu zastosowaniu, zarówno w przypadku czynników, które są zmiennymi ilościowymi, jak i jakościowymi. <ref>Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa, s. 320</ref>
W analizie wariancji zmienną objaśnianą (zależną, czyli tą, którą mierzymy) nazywa się zmienną odpowiedzi, zmienne objaśniające (niezależne, czyli te, które kontrolujemy) czynnikami, natomiast możliwe wartości czynnika nazywa się jego poziomami. Głównym przedmiotem analizy wariancji nie jest określenie dokładnej zależności pomiędzy zmienną odpowiedzi a czynnikami. Celem jest ogólna odpowiedź na pytanie, czy [[zmiana]] poziomu danego czynnika ma wpływ na średnią [[wartość]] zmiennej odpowiedzi. Analiza wariancji jest blisko związana z [[analiza regresji|analizą regresji]] (obie zaliczane są do zaawansowanych metod statystycznych), jednak swoją większą popularność i wagę zawdzięcza uniwersalnemu zastosowaniu, zarówno w przypadku czynników, które są zmiennymi ilościowymi, jak i jakościowymi<ref>Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa, s. 320</ref>


==TL;DR==
==TL;DR==
ANOVA, czyli analiza wariancji, to procedura statystyczna opracowana przez Sir Ronalda A. Fishera w 1920 roku. Używana jest do porównywania średnich z dwóch lub większej liczby populacji. ANOVA testuje dwie hipotezy: brak różnic między średnimi populacyjnymi lub różnice między nimi. Wymaga spełnienia pewnych założeń, jak losowy i niezależny wybór prób, normalny rozkład badanych populacji oraz jednolitość wariancji. ANOVA może być jednoczynnikowa, czyli zmienna odpowiedzi zależy od jednego czynnika, lub wieloczynnikowa, gdzie zmienna może zależeć od dwóch lub więcej czynników.
ANOVA, czyli analiza wariancji, to procedura statystyczna opracowana przez Sir Ronalda A. Fishera w 1920 roku. Używana jest do porównywania średnich z dwóch lub większej liczby populacji. ANOVA testuje dwie hipotezy: brak różnic między średnimi populacyjnymi lub różnice między nimi. Wymaga spełnienia pewnych założeń, jak losowy i niezależny wybór prób, normalny rozkład badanych populacji oraz jednolitość wariancji. ANOVA może być jednoczynnikowa, czyli zmienna odpowiedzi zależy od jednego czynnika, lub wieloczynnikowa, gdzie zmienna może zależeć od dwóch lub więcej czynników.
<google>n</google>


==Testowanie hipotez w analizie wariancji==
==Testowanie hipotez w analizie wariancji==
Linia 28: Linia 14:
* H0: μ1 = μ2 =... = μr,
* H0: μ1 = μ2 =... = μr,
* H1: nie wszystkie μi (i = 1,..., r) są sobie równe.
* H1: nie wszystkie μi (i = 1,..., r) są sobie równe.
Hipotezę zerową (H0) w analizie wariancji często określa się mianem ''hipotezy typu omnibus'', czyli takiej, która obejmuje wiele sytuacji naraz. Tym samym ANOVA jest również nazywana testem typu omnibus. [[Hipoteza]] zerowa zakłada brak różnic między średnimi populacyjnymi, natomiast hipoteza alternatywna (H1) formułowana jest zazwyczaj jako "nieprawda, że H0” i mówi o tym, że średnie populacyjne różnią się w jakiś sposób. <ref> King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 486</ref>
Hipotezę zerową (H0) w analizie wariancji często określa się mianem ''hipotezy typu omnibus'', czyli takiej, która obejmuje wiele sytuacji naraz. Tym samym ANOVA jest również nazywana testem typu omnibus. [[Hipoteza]] zerowa zakłada brak różnic między średnimi populacyjnymi, natomiast hipoteza alternatywna (H1) formułowana jest zazwyczaj jako "nieprawda, że H0" i mówi o tym, że średnie populacyjne różnią się w jakiś sposób<ref> King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 486</ref>


Przedmiotem badania jest ''r'' populacji. Z każdej takiej populacji pobiera się niezależną od innych próbę losową. Liczebność próby z populacji ''i'' wynosi ni (i = 1,..., r). Łączna liczebność próby jest następująca:
Przedmiotem badania jest ''r'' populacji. Z każdej takiej populacji pobiera się niezależną od innych próbę losową. Liczebność próby z populacji ''i'' wynosi ni (i = 1,..., r). Łączna liczebność próby jest następująca:
n = n1 + n2 +... + nr
n = n1 + n2 +... + nr
Bazując na tych ''r'' próbach oblicza się szereg różnych wielkości, które przy założeniu prawdziwości hipotezy zerowej pozwalają na obliczenie wartości sprawdzianu podlegającego, czyli rozkładu F. Znając tą wartość oraz wartość krytyczną przy danym poziomie istotności rozstrzygnąć można, czy średnie w ''r'' populacjach są sobie równe, czy też nie. <ref>Aczel A. (2000).''Statystyka w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa, s. 390</ref>
Bazując na tych ''r'' próbach oblicza się szereg różnych wielkości, które przy założeniu prawdziwości hipotezy zerowej pozwalają na obliczenie wartości sprawdzianu podlegającego, czyli rozkładu F. Znając tą wartość oraz wartość krytyczną przy danym poziomie istotności rozstrzygnąć można, czy średnie w ''r'' populacjach są sobie równe, czy też nie<ref>Aczel A. (2000).''Statystyka w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa, s. 390</ref>


==Założenia związane z modelem ANOVA==
==Założenia związane z modelem ANOVA==
Linia 46: Linia 32:


==Jednoczynnikowa analiza wariancji==
==Jednoczynnikowa analiza wariancji==
Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie [[zmienna]] odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam [[wynik]] jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 486</ref>
Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie [[zmienna]] odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam [[wynik]] jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie<ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 486</ref>


W jednoczynnikowej analizie wariancji całkowita [[wariancja]], czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową <math> {s_{wew}}^2\,</math> oraz wariancję międzygrupową <math> {s_{mie}}^2\,</math>. W przypadku prawdziwości hipotezy zerowej wyrażenia <math> {s_{wew}}^2\,</math> oraz <math> {s_{mie}}^2\,</math> uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość <math> {s_{mie}}^2\,</math> znacząco przewyższa wartość <math> {s_{wew}}^2\,</math>. Co więcej, im większa wartość <math> {s_{mie}}^2\,</math>, tym silniejszy jest efekt badanego czynnika na zmienną zależną. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 522</ref>
W jednoczynnikowej analizie wariancji całkowita [[wariancja]], czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową <math> {s_{wew}}^2\,</math> oraz wariancję międzygrupową <math> {s_{mie}}^2\,</math>. W przypadku prawdziwości hipotezy zerowej wyrażenia <math> {s_{wew}}^2\,</math> oraz <math> {s_{mie}}^2\,</math> uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość <math> {s_{mie}}^2\,</math> znacząco przewyższa wartość <math> {s_{wew}}^2\,</math>. Co więcej, im większa wartość <math> {s_{mie}}^2\,</math>, tym silniejszy jest efekt badanego czynnika na zmienną zależną. <ref>King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa, s. 522</ref>


==Dwuczynnikowa analiza wariancji==
==Dwuczynnikowa analiza wariancji==
W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji. <ref>Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343</ref>
W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji<ref>Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343</ref>
 
{{infobox5|list1={{i5link|a=[[Poziom istotności]]}} &mdash; {{i5link|a=[[Skala porządkowa]]}} &mdash; {{i5link|a=[[Analiza regresji]]}} &mdash; {{i5link|a=[[Wnioskowanie statystyczne]]}} &mdash; {{i5link|a=[[Histogram]]}} &mdash; {{i5link|a=[[Rozkład normalny]]}} &mdash; {{i5link|a=[[Rozkład częstości]]}} &mdash; {{i5link|a=[[Model ekonometryczny]]}} &mdash; {{i5link|a=[[Próba]]}} }}


==Przypisy==
==Przypisy==
Linia 58: Linia 46:
==Bibliografia==
==Bibliografia==
<noautolinks>
<noautolinks>
* Aczel A. (2000). ''Statystyka w Zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa
* Aczel A. (2018), ''Statystyka w zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa
* Dobrowolska B. (2014). [https://www.journals.umcs.pl/h/article/viewFile/112/109''Model ANOVA alternatywą dla badań nad podatkiem VAT''], "Annales H - Oeconomia”, vol. 48, nr 3
* Dobrowolska B. (2014), ''[https://www.journals.umcs.pl/h/article/viewFile/112/109 Model ANOVA alternatywą dla badań nad podatkiem VAT]'', Annales H - Oeconomia, vol. 48, nr 3
* King B., Minium E. (2009). ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa
* King B., Minium E. (2009), ''Statystyka dla psychologów i pedagogów'', Wydawnictwo Naukowe PWN, Warszawa
* Koronacki J., Mielniczuk J. (2006). ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa
* Koronacki J., Mielniczuk J. (2006), ''Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa
* Malska W., Twaróg B. (2017). [https://zn.wsbip.edu.pl/sectioa/2018(1)/148-159.PDF''Testy ANOVA jako narzędzie wspomagające weryfikację hipotez statystycznych''], "Acta Scientifica Academiae Ostroviensis", 10(2)
* Migaszewski Z. (red.) (2004), ''[https://www.pgi.gov.pl/images/stories/przeglad/pdf/pg_2004_06_05a.pdf Badania geochemiczne i biogeochemiczne na obszarze trzech parków narodowych: Magurskiego, Świętokrzyskiego i Wigierskiego z zastosowaniem analizy wariancji (ANOVA)]'', Przegląd Geologiczny, vol. 52, nr 6
* Migaszewski Z. (red.) (2004).[https://www.pgi.gov.pl/images/stories/przeglad/pdf/pg_2004_06_05a.pdf''Badania geochemiczne i biogeochemiczne na obszarze trzech parków narodowych: Magurskiego, Świętokrzyskiego i Wigierskiego z zastosowaniem analizy wariancji (ANOVA)''], "Przegląd Geologiczny”, vol. 52, nr 6
</noautolinks>
</noautolinks>


{{a|Anna Waleczek}}
{{a|Anna Waleczek}}
[[Kategoria:Statystyka i Ekonometria]]
[[Kategoria:Statystyka]]


{{#metamaster:description|ANOVA - statystyczna metoda porównywania średnich populacji. Testuj hipotezy i wykrywaj różnice. Dla zmiennych ilościowych i jakościowych.}}
{{#metamaster:description|ANOVA - statystyczna metoda porównywania średnich populacji. Testuj hipotezy i wykrywaj różnice. Dla zmiennych ilościowych i jakościowych.}}

Aktualna wersja na dzień 18:54, 18 sty 2024

ANOVA to akronim pochodzący od pierwszych liter angielskiego sformułowania ANalysis Of VAriance. ANOVA oznacza analizę wariancji, czyli procedurę statystyczną, używaną do jednoczesnego porównania średnich z dwóch, albo z większej liczby populacji. Nazwa tej metody może być nieco myląca. Mimo że jej celem jest wykrywanie różnic między średnimi w kilku populacjach, to i tak wymaga zbadania wariancji, która ujawnia się w odpowiednio dobranych próbach losowych[1]

Metoda ta została opracowana w 1920 roku przez Sir Ronalda A. Fishera i pozwala na symultaniczne porównanie kilku średnich na pewnym poziomie istotności, ustalonym przez samego badacza. Zasadniczo analiza wariancji stanowi grupę technik przeznaczonych do testowania hipotez. [2]

W analizie wariancji zmienną objaśnianą (zależną, czyli tą, którą mierzymy) nazywa się zmienną odpowiedzi, zmienne objaśniające (niezależne, czyli te, które kontrolujemy) czynnikami, natomiast możliwe wartości czynnika nazywa się jego poziomami. Głównym przedmiotem analizy wariancji nie jest określenie dokładnej zależności pomiędzy zmienną odpowiedzi a czynnikami. Celem jest ogólna odpowiedź na pytanie, czy zmiana poziomu danego czynnika ma wpływ na średnią wartość zmiennej odpowiedzi. Analiza wariancji jest blisko związana z analizą regresji (obie zaliczane są do zaawansowanych metod statystycznych), jednak swoją większą popularność i wagę zawdzięcza uniwersalnemu zastosowaniu, zarówno w przypadku czynników, które są zmiennymi ilościowymi, jak i jakościowymi[3]

TL;DR

ANOVA, czyli analiza wariancji, to procedura statystyczna opracowana przez Sir Ronalda A. Fishera w 1920 roku. Używana jest do porównywania średnich z dwóch lub większej liczby populacji. ANOVA testuje dwie hipotezy: brak różnic między średnimi populacyjnymi lub różnice między nimi. Wymaga spełnienia pewnych założeń, jak losowy i niezależny wybór prób, normalny rozkład badanych populacji oraz jednolitość wariancji. ANOVA może być jednoczynnikowa, czyli zmienna odpowiedzi zależy od jednego czynnika, lub wieloczynnikowa, gdzie zmienna może zależeć od dwóch lub więcej czynników.

Testowanie hipotez w analizie wariancji

W analizie wariancji testujemy dwie hipotezy:

  • H0: μ1 = μ2 =... = μr,
  • H1: nie wszystkie μi (i = 1,..., r) są sobie równe.

Hipotezę zerową (H0) w analizie wariancji często określa się mianem hipotezy typu omnibus, czyli takiej, która obejmuje wiele sytuacji naraz. Tym samym ANOVA jest również nazywana testem typu omnibus. Hipoteza zerowa zakłada brak różnic między średnimi populacyjnymi, natomiast hipoteza alternatywna (H1) formułowana jest zazwyczaj jako "nieprawda, że H0" i mówi o tym, że średnie populacyjne różnią się w jakiś sposób[4]

Przedmiotem badania jest r populacji. Z każdej takiej populacji pobiera się niezależną od innych próbę losową. Liczebność próby z populacji i wynosi ni (i = 1,..., r). Łączna liczebność próby jest następująca: n = n1 + n2 +... + nr Bazując na tych r próbach oblicza się szereg różnych wielkości, które przy założeniu prawdziwości hipotezy zerowej pozwalają na obliczenie wartości sprawdzianu podlegającego, czyli rozkładu F. Znając tą wartość oraz wartość krytyczną przy danym poziomie istotności rozstrzygnąć można, czy średnie w r populacjach są sobie równe, czy też nie[5]

Założenia związane z modelem ANOVA

Aby przy testowaniu układu hipotez możliwe było posługiwanie się metodami analizy wariancji muszą być spełnione poniższe założenia:

  • Próby wybiera się losowo, a także niezależnie od siebie, z każdej z populacji.
  • Każda z badanych populacji cechuje się rozkładem normalnym
  • W analizowanych populacjach wariancje są takie same (homogeniczność wariancji). [6]

Rodzaje analizy wariancji

Analiza wariancji występuje w dwóch odmianach:

  • Jednoczynnikowa analiza wariancji - zwana też analizą jednokierunkową,
  • Wieloczynnikowa analiza wariancji - zawierająca jej najpopularniejszy przypadek, a mianowicie dwuczynnikową analizę wariancji, określaną również mianem analizy dwukierunkowej.

Jednoczynnikowa analiza wariancji

Jednoczynnikowa analiza wariancji (ang. one-way analysis of variance) jest to najprostsza forma analizy wariancji, gdzie zmienna odpowiedzi może zależeć tylko od jednego czynnika. Jednoczynnikowa ANOVA zawiera minimum dwa warunki eksperymentalne (poziomy zmiennej niezależnej) i pozwala na porównanie średnich z dwóch lub z większej ilości grup jednocześnie. Tym samym jest ona blisko związana z testem t. W przypadku tylko dwóch grup daje taki sam wynik jak test t, natomiast dla większej ilości grup jest traktowana jako jego rozszerzenie[7]

W jednoczynnikowej analizie wariancji całkowita wariancja, czyli ogólne zróżnicowanie wyników, dzieli się na: wariancję wewnątrzgrupową oraz wariancję międzygrupową . W przypadku prawdziwości hipotezy zerowej wyrażenia oraz uzyskują (w granicach błędu) taką samą wartość. Natomiast, gdy H0 jest fałszywa wartość znacząco przewyższa wartość . Co więcej, im większa wartość , tym silniejszy jest efekt badanego czynnika na zmienną zależną. [8]

Dwuczynnikowa analiza wariancji

W przypadku dwuczynnikowej analizy wariancji zmienna odpowiedzi może zależeć od dwóch czynników. Problem tej analizy jest bardziej złożony niż dla jednoczynnikowej analizy, ponieważ polega nie tylko na zbadaniu, który z dwóch czynników ma wpływ na wartość zmiennej odpowiedzi, ale także czy istnieje interakcja między nimi, czyli czy dwa czynniki współdziałają między sobą. Należy więc rozważyć również hipotezę o istnieniu interakcji[9]


ANOVAartykuły polecane
Poziom istotnościSkala porządkowaAnaliza regresjiWnioskowanie statystyczneHistogramRozkład normalnyRozkład częstościModel ekonometrycznyPróba

Przypisy

  1. Aczel A. (2000). Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 389
  2. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 485
  3. Koronacki J., Mielniczuk J. (2006). Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa, s. 320
  4. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 486
  5. Aczel A. (2000).Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 390
  6. Aczel A. (2000).Statystyka w Zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa, s. 391
  7. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 486
  8. King B., Minium E. (2009). Statystyka dla psychologów i pedagogów, Wydawnictwo Naukowe PWN, Warszawa, s. 522
  9. Koronacki J., Mielniczuk J. (2006). Statystyka dla Studentów Kierunków Technicznych i Przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa, s. 342-343

Bibliografia


Autor: Anna Waleczek