Testy statystyczne: Różnice pomiędzy wersjami
m (cleanup bibliografii i rotten links) |
|||
(Nie pokazano 34 wersji utworzonych przez 3 użytkowników) | |||
Linia 1: | Linia 1: | ||
'''Test statystyczny''' to reguła postępowania, która przyporządkowuje wynikom próby losowej decyzję przyjęcia lub odrzucenia hipotezy zerowej. | '''Test statystyczny''' to reguła postępowania, która przyporządkowuje wynikom próby losowej decyzję przyjęcia lub odrzucenia hipotezy zerowej (M. Sobczyk 2007, s. 147). | ||
Wersja formalna testu statystycznego inaczej niezrandomizowanego wygląda następująco: | Wersja formalna testu statystycznego inaczej niezrandomizowanego wygląda następująco: | ||
''"Testem hipotezy H0 przeciw alternatywie H1 nazywamy statystykę, gdzie X jest przestrzenią realizacji, natomiast wartość 1 interpretuje się jako decyzję o odrzuceniu hipotezy H0, zaś 0 oznacza, że nie należy odrzucać H0 | ''"Testem hipotezy H0 przeciw alternatywie H1 nazywamy statystykę, gdzie X jest przestrzenią realizacji, natomiast wartość 1 interpretuje się jako decyzję o odrzuceniu hipotezy H0, zaś 0 oznacza, że nie należy odrzucać H0"'' (M. Sobczyk 2007, s. 147). | ||
==TL;DR== | |||
Test statystyczny to reguła postępowania, która pozwala na potwierdzenie lub odrzucenie hipotezy zerowej na podstawie wyników próby losowej. Testy istotności wykorzystują p-value, czyli poziom istotności, który jest najmniejszym poziomem, przy którym odrzucana jest hipoteza zerowa. Testy statystyczne dzielą się na parametryczne (dotyczące parametrów statystycznych populacji) i nieparametryczne (dotyczące rozkładu zmiennej lub losowości próby). Wnioskowanie Bayesowskie to metoda wnioskowania statystycznego oparta na twierdzeniu Bayesa, która polega na aktualizacji prawdopodobieństwa subiektywnego hipotez na podstawie danych. | |||
==Hipoteza i poziom istotności== | ==Hipoteza i poziom istotności== | ||
'''Hipoteza statystyczna''' to przypuszczenie odnośnie rozkładu populacji generalnej. Jej prawdziwość ocenia się na podstawie wyników próby losowej. | '''Hipoteza statystyczna''' to przypuszczenie odnośnie rozkładu populacji generalnej. Jej prawdziwość ocenia się na podstawie wyników próby losowej (M. Sobczyk 2007, s 146). | ||
Hipotezę, którą należy zweryfikować określa się mianem '''hipotezy zerowej H0''', natomiast hipotezę niepodlegającą weryfikacji jako '''hipotezę alternatywną H1'''. | Hipotezę, którą należy zweryfikować określa się mianem '''hipotezy zerowej H0''', natomiast hipotezę niepodlegającą weryfikacji jako '''hipotezę alternatywną H1''' (M. Sobczyk 2007, s. 146). | ||
Hipoteza zerowa może być prawdziwa lub fałszywa. Wówczas rozpatruje się następujące przypadki: | Hipoteza zerowa może być prawdziwa lub fałszywa. Wówczas rozpatruje się następujące przypadki (M. Sobczyk 2007, s. 147): | ||
* '''H0 jest prawdziwa''' | * '''H0 jest prawdziwa''' - test potwierdził H0 lub test obalił hipotezę zerową i w zamian przyjęto hipotezę alternatywną - określa się to jako błąd I rodzaju. | ||
* '''H0 jest fałszywa''' - test potwierdził H0 (błąd drugiego rodzaju) lub test obalił hipotezę zerową, na miejsce której przyjęto hipotezę alternatywną. | |||
O odrzuceniu H0 lub stwierdzeniu, że nie ma podstaw do jej odrzucenia decyduje się na podstawie '''testów istotności'''. Wykorzystuje się do tego '''p-value, czyli poziom istotności''', który jest najmniejszym poziomem, przy którym dla danej wartości statystyki testowej odrzucona zostałaby H0. Zwykle p-value wynosi '''0,05''' (M. Sobczyk 2007, s. 148). | |||
W praktyce testy istotności są stosowane najczęściej. Ich przebieg oparty jest na następującym schemacie (M. Sobczyk 2007, s. 149-150): | |||
* '''Ustalenie hipotezy''' - określenie hipotezy zerowej oraz postawienie hipotezy przeciwnej czyli hipotezy alternatywnej. | |||
* '''Dobranie statystyki testowej''' - statystyka testowa to zmienna losowa, obliczana na podstawie danych z próby. Na tej podstawie podejmuje się decyzje o odrzuceniu lub nieodrzuceniu hipotezy zerowej na rzecz hipotezy alternatywnej (M. Sobczyk 2007, s. 149). | |||
* '''Ustalenie zbioru krytycznego''' - zbiór krytyczny podzbiór wartości, które może przyjmować statystyka testowa, że prawdopodobieństwo, wyliczonej wartość statystyki testowej na podstawie pobranej próby należącej do tego zbioru, jest równe α (M. Sobczyk 2007, s. 150). | |||
* '''Podjęcie decyzji''' - jeśli statystyka dla danych z próby ma wartość należącą do zbioru krytycznego wówczas należy odrzucić H0. Natomiast jeśli statystyka testowa nie należy do zbioru to nie ma podstaw do odrzucenia H0. | |||
<google>n</google> | |||
==Podział testów statystycznych== | ==Podział testów statystycznych== | ||
'''Testy parametryczne''' dotyczą | '''Testy parametryczne''' dotyczą parametrów statystycznych populacji. Ze względu na zastosowanie testy te dzielą się na dwie grupy (Cz. Domański 2014, s. 37-40): | ||
''Służące do weryfikacji populacji jednowymiarowych'': | ''Służące do weryfikacji populacji jednowymiarowych'': | ||
* testy dla średniej, | * testy dla średniej, | ||
* testy dla proporcji, | * testy dla proporcji, | ||
* testy dla wariancji | * testy dla wariancji | ||
''Służące do porównania własności dwóch populacji'': | ''Służące do porównania własności dwóch populacji'': | ||
* testy dla dwóch średnich, | * testy dla dwóch średnich, | ||
* testy dla dwóch proporcji, | * testy dla dwóch proporcji, | ||
* testy dla dwóch wariancji. | * testy dla dwóch wariancji. | ||
'''Testy nieparametryczne''' dotyczą rozkładu zmiennej lub losowości próby. Tego rodzaju testy również można podzielić ze względu na zastosowanie: | '''Testy nieparametryczne''' dotyczą rozkładu zmiennej lub losowości próby. Tego rodzaju testy również można podzielić ze względu na zastosowanie (Cz. Domański 2014, s. 37-40): | ||
''Weryfikujące własności populacji jednowymiarowych'': | ''Weryfikujące własności populacji jednowymiarowych'': | ||
* test zgodności chi-kwadrat, | * test zgodności chi-kwadrat, | ||
* test zgodności Kołmogorowa, | * test zgodności Kołmogorowa, | ||
Linia 41: | Linia 45: | ||
* test serii. | * test serii. | ||
''Porównujące własność dwóch populacji'': | ''Porównujące własność dwóch populacji'': | ||
* test Kołmogorowa | * test Kołmogorowa - Smirnowa, | ||
* test jednorodności chi-kwadrat, | * test jednorodności chi-kwadrat, | ||
* test mediany, | * test mediany, | ||
* test serii, | * test serii, | ||
* test znaków. | * test znaków. | ||
==Wnioskowanie Bayesowskie== | |||
Metodę wnioskowania statystycznego wykorzystującą twierdzenie Bayesa nazywa się wnioskowaniem lub '''statystyką bayesowską'''. Polega ona na aktualizacji prawdopodobieństwa subiektywnego hipotez na podstawie dotychczasowego prawdopodobieństwa i nowych danych (Cz. Domański 2014, s. 87-88). | |||
'''Twierdzenie Bayesa''' wyraża zależność: "prawdopodobieństwo hipotezy '''H''' w świetle danych '''E''', odpowiada prawdopodobieństwu danych '''E''' przy założeniu hipotezy '''H''', pomnożonemu przez dotychczasowe prawdopodobieństwo '''H''' i podzielonemu przez prawdopodobieństwo danych '''E'''" (Cz. Domański 2014, s. 87-88). | |||
{{infobox5|list1={{i5link|a=[[Test zgodności chi-kwadrat]]}} — {{i5link|a=[[Zmienna losowa]]}} — {{i5link|a=[[Wartość oczekiwana]]}} — {{i5link|a=[[Kwartyl]]}} — {{i5link|a=[[Obszar odrzucenia]]}} — {{i5link|a=[[Średnia]]}} — {{i5link|a=[[Dominanta]]}} — {{i5link|a=[[Rozkład częstości]]}} — {{i5link|a=[[Metody statystyczne]]}} }} | |||
==Bibliografia== | ==Bibliografia== | ||
<noautolinks> | |||
* Bobowski Z. (2004), ''Wybrane metody statystyki opisowej i wnioskowania statystycznego'', WWSZiP, Wałbrzych | |||
* Domański C. (red.) (2014), ''Testy statystyczne w procesie podejmowania decyzji'', Wydawnictwo Uniwersytetu Łódzkiego, Łódź | |||
* Kurkiewicz J. (2005), ''Podstawy statystyki'', Oficyna Wydawnicza AFM, Kraków | |||
* Smaga Ł. (2015), ''Wald-type statistics using {2}-inverses for hypothesis testing in general factorial designs'', Statistics & Probability Letters 107 | |||
* Smaga Ł. (2017), ''Bootstrap methods for multivariate hypothesis testing'', Communications in Statistics - Simulation and Computation 46 | |||
* Sobczyk M. (2007), ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa | |||
</noautolinks> | |||
[[Kategoria:Miary statystyczne]]. | |||
{{a|Anna Tas}} | |||
{{#metamaster:description|Testy statystyczne - reguły przyjmowania lub odrzucania hipotezy zerowej. Dowiedz się więcej o testach statystycznych.}} |
Aktualna wersja na dzień 21:47, 4 gru 2023
Test statystyczny to reguła postępowania, która przyporządkowuje wynikom próby losowej decyzję przyjęcia lub odrzucenia hipotezy zerowej (M. Sobczyk 2007, s. 147).
Wersja formalna testu statystycznego inaczej niezrandomizowanego wygląda następująco: "Testem hipotezy H0 przeciw alternatywie H1 nazywamy statystykę, gdzie X jest przestrzenią realizacji, natomiast wartość 1 interpretuje się jako decyzję o odrzuceniu hipotezy H0, zaś 0 oznacza, że nie należy odrzucać H0" (M. Sobczyk 2007, s. 147).
TL;DR
Test statystyczny to reguła postępowania, która pozwala na potwierdzenie lub odrzucenie hipotezy zerowej na podstawie wyników próby losowej. Testy istotności wykorzystują p-value, czyli poziom istotności, który jest najmniejszym poziomem, przy którym odrzucana jest hipoteza zerowa. Testy statystyczne dzielą się na parametryczne (dotyczące parametrów statystycznych populacji) i nieparametryczne (dotyczące rozkładu zmiennej lub losowości próby). Wnioskowanie Bayesowskie to metoda wnioskowania statystycznego oparta na twierdzeniu Bayesa, która polega na aktualizacji prawdopodobieństwa subiektywnego hipotez na podstawie danych.
Hipoteza i poziom istotności
Hipoteza statystyczna to przypuszczenie odnośnie rozkładu populacji generalnej. Jej prawdziwość ocenia się na podstawie wyników próby losowej (M. Sobczyk 2007, s 146).
Hipotezę, którą należy zweryfikować określa się mianem hipotezy zerowej H0, natomiast hipotezę niepodlegającą weryfikacji jako hipotezę alternatywną H1 (M. Sobczyk 2007, s. 146).
Hipoteza zerowa może być prawdziwa lub fałszywa. Wówczas rozpatruje się następujące przypadki (M. Sobczyk 2007, s. 147):
- H0 jest prawdziwa - test potwierdził H0 lub test obalił hipotezę zerową i w zamian przyjęto hipotezę alternatywną - określa się to jako błąd I rodzaju.
- H0 jest fałszywa - test potwierdził H0 (błąd drugiego rodzaju) lub test obalił hipotezę zerową, na miejsce której przyjęto hipotezę alternatywną.
O odrzuceniu H0 lub stwierdzeniu, że nie ma podstaw do jej odrzucenia decyduje się na podstawie testów istotności. Wykorzystuje się do tego p-value, czyli poziom istotności, który jest najmniejszym poziomem, przy którym dla danej wartości statystyki testowej odrzucona zostałaby H0. Zwykle p-value wynosi 0,05 (M. Sobczyk 2007, s. 148).
W praktyce testy istotności są stosowane najczęściej. Ich przebieg oparty jest na następującym schemacie (M. Sobczyk 2007, s. 149-150):
- Ustalenie hipotezy - określenie hipotezy zerowej oraz postawienie hipotezy przeciwnej czyli hipotezy alternatywnej.
- Dobranie statystyki testowej - statystyka testowa to zmienna losowa, obliczana na podstawie danych z próby. Na tej podstawie podejmuje się decyzje o odrzuceniu lub nieodrzuceniu hipotezy zerowej na rzecz hipotezy alternatywnej (M. Sobczyk 2007, s. 149).
- Ustalenie zbioru krytycznego - zbiór krytyczny podzbiór wartości, które może przyjmować statystyka testowa, że prawdopodobieństwo, wyliczonej wartość statystyki testowej na podstawie pobranej próby należącej do tego zbioru, jest równe α (M. Sobczyk 2007, s. 150).
- Podjęcie decyzji - jeśli statystyka dla danych z próby ma wartość należącą do zbioru krytycznego wówczas należy odrzucić H0. Natomiast jeśli statystyka testowa nie należy do zbioru to nie ma podstaw do odrzucenia H0.
Podział testów statystycznych
Testy parametryczne dotyczą parametrów statystycznych populacji. Ze względu na zastosowanie testy te dzielą się na dwie grupy (Cz. Domański 2014, s. 37-40):
Służące do weryfikacji populacji jednowymiarowych:
- testy dla średniej,
- testy dla proporcji,
- testy dla wariancji
Służące do porównania własności dwóch populacji:
- testy dla dwóch średnich,
- testy dla dwóch proporcji,
- testy dla dwóch wariancji.
Testy nieparametryczne dotyczą rozkładu zmiennej lub losowości próby. Tego rodzaju testy również można podzielić ze względu na zastosowanie (Cz. Domański 2014, s. 37-40):
Weryfikujące własności populacji jednowymiarowych:
- test zgodności chi-kwadrat,
- test zgodności Kołmogorowa,
- test normalności Shapiro-Wilka,
- test serii.
Porównujące własność dwóch populacji:
- test Kołmogorowa - Smirnowa,
- test jednorodności chi-kwadrat,
- test mediany,
- test serii,
- test znaków.
Wnioskowanie Bayesowskie
Metodę wnioskowania statystycznego wykorzystującą twierdzenie Bayesa nazywa się wnioskowaniem lub statystyką bayesowską. Polega ona na aktualizacji prawdopodobieństwa subiektywnego hipotez na podstawie dotychczasowego prawdopodobieństwa i nowych danych (Cz. Domański 2014, s. 87-88).
Twierdzenie Bayesa wyraża zależność: "prawdopodobieństwo hipotezy H w świetle danych E, odpowiada prawdopodobieństwu danych E przy założeniu hipotezy H, pomnożonemu przez dotychczasowe prawdopodobieństwo H i podzielonemu przez prawdopodobieństwo danych E" (Cz. Domański 2014, s. 87-88).
Testy statystyczne — artykuły polecane |
Test zgodności chi-kwadrat — Zmienna losowa — Wartość oczekiwana — Kwartyl — Obszar odrzucenia — Średnia — Dominanta — Rozkład częstości — Metody statystyczne |
Bibliografia
- Bobowski Z. (2004), Wybrane metody statystyki opisowej i wnioskowania statystycznego, WWSZiP, Wałbrzych
- Domański C. (red.) (2014), Testy statystyczne w procesie podejmowania decyzji, Wydawnictwo Uniwersytetu Łódzkiego, Łódź
- Kurkiewicz J. (2005), Podstawy statystyki, Oficyna Wydawnicza AFM, Kraków
- Smaga Ł. (2015), Wald-type statistics using {2}-inverses for hypothesis testing in general factorial designs, Statistics & Probability Letters 107
- Smaga Ł. (2017), Bootstrap methods for multivariate hypothesis testing, Communications in Statistics - Simulation and Computation 46
- Sobczyk M. (2007), Statystyka, Wydawnictwo Naukowe PWN, Warszawa
.
Autor: Anna Tas