Prawdopodobieństwo warunkowe: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (Dodanie MetaData Description)
mNie podano opisu zmian
 
(Nie pokazano 15 wersji utworzonych przez 2 użytkowników)
Linia 1: Linia 1:
{{infobox4
Prawdopodobieństwo warunkowe (''' względne ''') występuje, gdy mamy do czynienia ze zdarzeniem A, którego [[prawdopodobieństwo]] zależy od zdarzenia B.
|list1=
<ul>
<li>[[Schemat Bernoulliego]]</li>
<li>[[Rozkład Poissona]]</li>
<li>[[ANOVA]]</li>
<li>[[Estymator nieobciążony]]</li>
<li>[[Analiza regresji]]</li>
<li>[[Estymator obciążony]]</li>
<li>[[Prawdopodobieństwo]]</li>
<li>[[Poziom istotności]]</li>
<li>[[Kwartyl]]</li>
</ul>
}}


Zdarzenia A oraz B nazywamy wtedy zdarzeniami '''zależnymi'''. (Sobczyk M. 2002, s. 82)


Prawdopodobieństwo warunkowe zdarzenia A przy założeniu, że zaszło [[zdarzenie]] B, oznaczane jest symbolem P (A \ B) i wyraża się wzorem:


Prawdopodobieństwo warunkowe (''' względne ''') występuje, gdy mamy do czynienia ze zdarzeniem A, którego [[prawdopodobieństwo]] zależy od zdarzenia B. <br>
<center> P (A \ B) = <math>\frac{p \left (A \cap B \right)}{p \left (B \right)}</math></center>
Zdarzenia A oraz B nazywamy wtedy zdarzeniami '''zależnymi'''. (Sobczyk M. 2002, s. 82) <br>  


Prawdopodobieństwo warunkowe zdarzenia A przy założeniu, że zaszło [[zdarzenie]] B, oznaczane jest symbolem P (A \ B) i wyraża się wzorem:
Prawdopodobieństwo warunkowe określa szansę zajęcia jakiegoś zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły (Siwek E. 2002)


<center> P (A \ B) = <math>\frac{p \left (A \cap B \right)}{p \left (B \right)}</math></center>
Prawdopodobieństwo P (A\B) jest naogół różne od prawdopodobieństwa (bezwarunkowego lub apriori) zdarzenia A.


Prawdopodobieństwo warunkowe określa szansę zajęcia jakiegoś zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły. (Siwek E. 2002)
W pewnych przypadkach jednak [[informacja]] o zajściu zdarzenia B nie ma wpływu na prawdopodobieństwo zdarzenia A, tj.  


Prawdopodobieństwo P (A\B) jest naogół różne od prawdopodobieństwa (bezwarunkowego lub apriori) zdarzenia A.<br>
W pewnych przypadkach jednak [[informacja]] o zajściu zdarzenia B nie ma wpływu na prawdopodobieństwo zdarzenia A, tj. <br>
<center>P (A\B)= P (A)</center>
<center>P (A\B)= P (A)</center>
Otrzymujemy wówczas:<br>
Otrzymujemy wówczas:
 
  <center>P (A i B) = <math> P\left (A\right)P\left (B\right)</math></center>
  <center>P (A i B) = <math> P\left (A\right)P\left (B\right)</math></center>


==TL;DR==
==TL;DR==
Prawdopodobieństwo warunkowe występuje, gdy prawdopodobieństwo zdarzenia A zależy od zdarzenia B. Prawdopodobieństwo warunkowe określa szansę zajścia zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły. Przykładem jest prawdopodobieństwo uzyskania określonej liczby punktów w grze. Wzór Bayesa pozwala obliczyć prawdopodobieństwo warunkowe dla różnych hipotez.
Prawdopodobieństwo warunkowe występuje, gdy prawdopodobieństwo zdarzenia A zależy od zdarzenia B. Prawdopodobieństwo warunkowe określa szansę zajścia zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły. Przykładem jest prawdopodobieństwo uzyskania określonej liczby punktów w grze. Wzór Bayesa pozwala obliczyć prawdopodobieństwo warunkowe dla różnych hipotez.
<google>n</google>


==Przykłady==
==Przykłady==
===Przykład 1===
===Przykład 1===
Załóżmy, że pomyślne ukończenie gry (wygrana) uzależnione jest od uzyskania 11 punktów w dwóch kolejnych rzutach


Załóżmy, że pomyślne ukończenie gry (wygrana) uzależnione jest od uzyskania 11 punktów w dwóch kolejnych rzutach<br>
(lub dwoma kostkami jednocześnie).
(lub dwoma kostkami jednocześnie).
Jakie jest prawdopodobieństwo osiągnięcia takiego wyniku?<br>
Jakie jest prawdopodobieństwo osiągnięcia takiego wyniku?
W pierwszym rzucie dwa wyniki nie przekreślają szans uzyskania potrzebnej liczby punktów: są to liczby 5 i 6. Prawdopodobieństwo<br>
 
W pierwszym rzucie dwa wyniki nie przekreślają szans uzyskania potrzebnej liczby punktów: są to liczby 5 i 6. Prawdopodobieństwo
 
uzyskania jednej z nich wynosi:
uzyskania jednej z nich wynosi:
  <center><math> \left (\frac{1}{6}\right) + \left (\frac{1}{6}\right)= \left (\frac{1}{3}\right)</math></center>
  <center><math> \left (\frac{1}{6}\right) + \left (\frac{1}{6}\right)= \left (\frac{1}{3}\right)</math></center>


Liczba punktów, które musimy uzyskać w drugim rzucie, aby spełnione zostało przyjęte [[założenie]], jest już ściśle uwaunkowana wynikiem<br>
Liczba punktów, które musimy uzyskać w drugim rzucie, aby spełnione zostało przyjęte [[założenie]], jest już ściśle uwaunkowana wynikiem
uzyskanym w pierwszym rzucie (mamy więc do czynienia z prawdopodobieństwiem warunkowym).<br>
 
Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że wystąpiło zdarzenie A, oznaczymy symbolem <math>P\left (B\setminus A\right)</math>.<br>
uzyskanym w pierwszym rzucie (mamy więc do czynienia z prawdopodobieństwiem warunkowym).
Tak więc w przypadku uzyskania w pierwszym rzucie 5 punktów, w drugim jedynie wyrzucenie 6 punktów da nam potrzebną sumę punktów.<br>
 
I odwrotnie, jeśli w pierwszym rzucie uzyskamy 6 punktów, to w drugim jedynie wyrzucenie 5 punktów odpowiada przyjętemu założeniu.<br>
Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że wystąpiło zdarzenie A, oznaczymy symbolem <math>P\left (B\setminus A\right)</math>.
 
Tak więc w przypadku uzyskania w pierwszym rzucie 5 punktów, w drugim jedynie wyrzucenie 6 punktów da nam potrzebną sumę punktów.
 
I odwrotnie, jeśli w pierwszym rzucie uzyskamy 6 punktów, to w drugim jedynie wyrzucenie 5 punktów odpowiada przyjętemu założeniu.
 
A zatem prawdopodobieństwo uzyskania 11 punktów w dwóch kolejnych rzutach kostką wynosi:
A zatem prawdopodobieństwo uzyskania 11 punktów w dwóch kolejnych rzutach kostką wynosi:
<google>ban728t</google>
  <center><math>\left (\frac{1}{3}\right) \left (\frac{1}{6}\right)= \left (\frac{1}{18}\right)</math></center>
  <center><math>\left (\frac{1}{3}\right) \left (\frac{1}{6}\right)= \left (\frac{1}{18}\right)</math></center>


===Przykład 2===
===Przykład 2===
Dzieci miały zaopatrzyć łódkę taty w wodę mineralną przed jego wyjazdem z kolegą na ryby. W domu byłby dwie skrzynki: jedna z wodą
mineralną, a druga z lemoniadą. Czteroletni Jacek przyniósł 3 butelki, a młodsza o rok agatka dwie. Wyjmując butelkę, już na jeziorze, tata
zobaczył, że woda zmyła z niej nalepkę. Kolega taty zauważył, że wyjęta butelka wygląda tak samo, jak butelka lemoniady.
Z jaki prawdopodobieństwem panowie napiją się wody mineralnej, jeżeli prawd., że Agatka przyniosła wodę, a nie lemoniadę, wynosi <math>\frac{1}{2}</math>


Dzieci miały zaopatrzyć łódkę taty w wodę mineralną przed jego wyjazdem z kolegą na ryby. W domu byłby dwie skrzynki: jedna z wodą <br>
mineralną, a druga z lemoniadą. Czteroletni Jacek przyniósł 3 butelki, a młodsza o rok agatka dwie. Wyjmując butelkę, już na jeziorze, tata<br>
zobaczył, że woda zmyła z niej nalepkę. Kolega taty zauważył, że wyjęta butelka wygląda tak samo, jak butelka lemoniady.<br>
Z jaki prawdopodobieństwem panowie napiją się wody mineralnej, jeżeli prawd., że Agatka przyniosła wodę, a nie lemoniadę, wynosi <math>\frac{1}{2}</math><br>
natomiast w przypadku Jacka prawdopodobieństwo to wynosi <math>\frac{3}{4}</math>
natomiast w przypadku Jacka prawdopodobieństwo to wynosi <math>\frac{3}{4}</math>


====rozwiązanie====
====rozwiązanie====
Dzieci chciały przynieść wodę, a nie lemoniadę więc każde wzięło wszystkie swoje butelki z jednej skrzynki. Niech A oznacza, że panowie


Dzieci chciały przynieść wodę, a nie lemoniadę więc każde wzięło wszystkie swoje butelki z jednej skrzynki. Niech A oznacza, że panowie<br>
trafili na wodę. Przyjmiemy [[hipoteza|hipotezę]] H, że wyjęta butelka jest jedną z przyniesionych przez Jacka i zastosujemy wzór:
trafili na wodę. Przyjmiemy [[hipoteza|hipotezę]] H, że wyjęta butelka jest jedną z przyniesionych przez Jacka i zastosujemy wzór:
<center>P (A)= P (H)P (A\H) + P (H')P (A\H')</center>
<center>P (A)= P (H)P (A\H) + P (H')P (A\H')</center>
Linia 70: Linia 67:
  <center>P (A\ H)=(<math>\frac{3}{4}</math>) i P (A\ H')=(<math>\frac{1}{2}</math>)</center>
  <center>P (A\ H)=(<math>\frac{3}{4}</math>) i P (A\ H')=(<math>\frac{1}{2}</math>)</center>


Teraz obliczamy:<br>
Teraz obliczamy:
 
  <center> P (A)=(<math>\frac{3}{5}</math>)(<math>\frac{3}{4}</math>)+(<math>\frac{2}{5}</math>)(<math>\frac{1}{2}</math>)=<math>\left (\frac{13}{20}\right)</math></center>
  <center> P (A)=(<math>\frac{3}{5}</math>)(<math>\frac{3}{4}</math>)+(<math>\frac{2}{5}</math>)(<math>\frac{1}{2}</math>)=<math>\left (\frac{13}{20}\right)</math></center>


==Wzór Bayesa==
==Wzór Bayesa==
Wzór ten wyraża prawdopodobieństwo warunkowe <math>P\left (H_1\setminus A\right)</math> każdego z wzajemnie niezależnych zdarzeń <math>H_1, H_2, H_3,... H_n</math>.,


Wzór ten wyraża prawdopodobieństwo warunkowe <math>P\left (H_1\setminus A\right)</math> każdego z wzajemnie niezależnych zdarzeń <math>H_1, H_2, H_3,... H_n</math>., <br>
o dodatnich prawdopodobieństwach, których suma jest całą przestrzenią zdarzeń elementarnych względem zdarzenia A o dodatnim prawdopodob.
o dodatnich prawdopodobieństwach, których suma jest całą przestrzenią zdarzeń elementarnych względem zdarzenia A o dodatnim prawdopodob.


Wiemy, że  
Wiemy, że
<center>P (<math>H_1</math>\ A) = P (<math>H_1</math>) <math>\frac{P\left (A\setminus H_1\right)}{P\left (A\right)}</math></center>  
<center>P (<math>H_1</math>\ A) = P (<math>H_1</math>) <math>\frac{P\left (A\setminus H_1\right)}{P\left (A\right)}</math></center>
 
Zastępując prawdopodobieństwo P (A) w mianowniku ostatniego ułamka przez:


Zastępując prawdopodobieństwo P (A) w mianowniku ostatniego ułamka przez:<br>
  <center>P (A)= P (<math>H_1</math>)P (A\<math>H_1</math>)+P (<math>H_2</math>)P (A\<math> H_2</math>)+.... +P (<math>H_n</math>)P (A\ <math>H_n</math>)</center>
  <center>P (A)= P (<math>H_1</math>)P (A\<math>H_1</math>)+P (<math>H_2</math>)P (A\<math> H_2</math>)+.... +P (<math>H_n</math>)P (A\ <math>H_n</math>)</center>


otrzymujemy:<br>
otrzymujemy:
 
  <center>P (<math>H_1</math>\A)= <math>\frac{P\left (H_1\right) P (A\setminus H_1)}{P (H_1)P (A\setminus H_1)+P\left (H_2\right)P\left (A\setminus H_2\right)+.... +P\left (H_n\right)P\left (A\setminus H_n\right)}</math></center>
  <center>P (<math>H_1</math>\A)= <math>\frac{P\left (H_1\right) P (A\setminus H_1)}{P (H_1)P (A\setminus H_1)+P\left (H_2\right)P\left (A\setminus H_2\right)+.... +P\left (H_n\right)P\left (A\setminus H_n\right)}</math></center>


zwany '''wzorem Bayesa'''. Wzór ten pozwala oliczyć prawdopodobieństwo warunkowe hipotezy <math>H_1</math>, w doświadczeniu, w którym<br>
zwany '''wzorem Bayesa'''. Wzór ten pozwala oliczyć prawdopodobieństwo warunkowe hipotezy <math>H_1</math>, w doświadczeniu, w którym
zaszło zdarzenie A. Analogiczne związki zachodzą również dla pozostałych hipotez <math>H_2, H_3,... H_n</math>. <br>
 
Można z nich obliczyć prawdopodobieństwa warunkowe przyjętych wcześniej hipotez na podstawie wyniku doświadczenia po jego przeprowadzeniu. (Siwek E. 2002)  
zaszło zdarzenie A. Analogiczne związki zachodzą również dla pozostałych hipotez <math>H_2, H_3,... H_n</math>.  
 
Można z nich obliczyć prawdopodobieństwa warunkowe przyjętych wcześniej hipotez na podstawie wyniku doświadczenia po jego przeprowadzeniu (Siwek E. 2002)
 
{{infobox5|list1={{i5link|a=[[Schemat Bernoulliego]]}} &mdash; {{i5link|a=[[Rozkład Poissona]]}} &mdash; {{i5link|a=[[ANOVA]]}} &mdash; {{i5link|a=[[Estymator nieobciążony]]}} &mdash; {{i5link|a=[[Analiza regresji]]}} &mdash; {{i5link|a=[[Estymator obciążony]]}} &mdash; {{i5link|a=[[Prawdopodobieństwo]]}} &mdash; {{i5link|a=[[Poziom istotności]]}} &mdash; {{i5link|a=[[Kwartyl]]}} &mdash; {{i5link|a=[[Rejestr zastawów]]}} }}


==Bibliografia==
==Bibliografia==
* Durka P. J. (2002) [http://www.fuw.edu.pl/~durka/ksiazki/statystyka/toc.pdf''Wstęp do współczesnej statystyki''], Wydawnictwo Adamantan, Warszawa
<noautolinks>
* Kornacki J. (2006) ''[[Statystyka]] dla studentów kierunków technicznych i przyrodniczych'' (2006), Wydawnictwo Naukowo - Techniczne, Warszawa
* Kornacki J. (2006), ''Statystyka dla studentów kierunków technicznych i przyrodniczych'', Wydawnictwo Naukowo-Techniczne, Warszawa
* Siwek E. (2002) ''Słownik encyklopedyczny'', Cykada, Katowice  
* Siwek E. (2002), ''Słownik encyklopedyczny'', Cykada, Katowice
* Sobczyk M. (2002) ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa
* Sobczyk M. (2007), ''Statystyka'', Wydawnictwo Naukowe PWN, Warszawa
* Sobczyk M. (2010) ''[[Statystyka opisowa]]'', Wydawnictwo C. H. Beck, Warszawa
* Sobczyk M. (2010), ''Statystyka opisowa'', C.H. Beck, Warszawa
* Witkowski B. (red.) (2018) ''Statystyka w zarządzaniu.'', Wydawnictwo Naukowe PWN, Warszawa
* Witkowski B. (red.) (2018), ''Statystyka w zarządzaniu'', Wydawnictwo Naukowe PWN, Warszawa
* Zieliński R. (2004) [https://www.impan.pl/~rziel/7ALL.pdf''Siedem wykładów wprowadzających do statystyki matematycznej''], Państwowe Wydawnictwo Naukowe, Warszawa
* Zieliński R. (2004), ''[https://www.impan.pl/~rziel/7ALL.pdf Siedem wykładów wprowadzających do statystyki matematycznej]'', Państwowe Wydawnictwo Naukowe, Warszawa
</noautolinks>


{{a|Anna Dziadosz, Bernadeta Nowacka }}
{{a|Anna Dziadosz, Bernadeta Nowacka }}
[[Kategoria:Statystyka i Ekonometria ]]
[[Kategoria:Prawdopodobieństwo]]


{{#metamaster:description|Prawdopodobieństwo warunkowe - zależności między zdarzeniami. Odkryj więcej na naszej stronie.}}
{{#metamaster:description|Prawdopodobieństwo warunkowe - zależności między zdarzeniami. Odkryj więcej na naszej stronie.}}

Aktualna wersja na dzień 10:33, 18 sty 2024

Prawdopodobieństwo warunkowe ( względne ) występuje, gdy mamy do czynienia ze zdarzeniem A, którego prawdopodobieństwo zależy od zdarzenia B.

Zdarzenia A oraz B nazywamy wtedy zdarzeniami zależnymi. (Sobczyk M. 2002, s. 82)

Prawdopodobieństwo warunkowe zdarzenia A przy założeniu, że zaszło zdarzenie B, oznaczane jest symbolem P (A \ B) i wyraża się wzorem:

P (A \ B) =

Prawdopodobieństwo warunkowe określa szansę zajęcia jakiegoś zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły (Siwek E. 2002)

Prawdopodobieństwo P (A\B) jest naogół różne od prawdopodobieństwa (bezwarunkowego lub apriori) zdarzenia A.

W pewnych przypadkach jednak informacja o zajściu zdarzenia B nie ma wpływu na prawdopodobieństwo zdarzenia A, tj.

P (A\B)= P (A)

Otrzymujemy wówczas:

P (A i B) =

TL;DR

Prawdopodobieństwo warunkowe występuje, gdy prawdopodobieństwo zdarzenia A zależy od zdarzenia B. Prawdopodobieństwo warunkowe określa szansę zajścia zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły. Przykładem jest prawdopodobieństwo uzyskania określonej liczby punktów w grze. Wzór Bayesa pozwala obliczyć prawdopodobieństwo warunkowe dla różnych hipotez.

Przykłady

Przykład 1

Załóżmy, że pomyślne ukończenie gry (wygrana) uzależnione jest od uzyskania 11 punktów w dwóch kolejnych rzutach

(lub dwoma kostkami jednocześnie). Jakie jest prawdopodobieństwo osiągnięcia takiego wyniku?

W pierwszym rzucie dwa wyniki nie przekreślają szans uzyskania potrzebnej liczby punktów: są to liczby 5 i 6. Prawdopodobieństwo

uzyskania jednej z nich wynosi:

Liczba punktów, które musimy uzyskać w drugim rzucie, aby spełnione zostało przyjęte założenie, jest już ściśle uwaunkowana wynikiem

uzyskanym w pierwszym rzucie (mamy więc do czynienia z prawdopodobieństwiem warunkowym).

Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że wystąpiło zdarzenie A, oznaczymy symbolem .

Tak więc w przypadku uzyskania w pierwszym rzucie 5 punktów, w drugim jedynie wyrzucenie 6 punktów da nam potrzebną sumę punktów.

I odwrotnie, jeśli w pierwszym rzucie uzyskamy 6 punktów, to w drugim jedynie wyrzucenie 5 punktów odpowiada przyjętemu założeniu.

A zatem prawdopodobieństwo uzyskania 11 punktów w dwóch kolejnych rzutach kostką wynosi:

Przykład 2

Dzieci miały zaopatrzyć łódkę taty w wodę mineralną przed jego wyjazdem z kolegą na ryby. W domu byłby dwie skrzynki: jedna z wodą

mineralną, a druga z lemoniadą. Czteroletni Jacek przyniósł 3 butelki, a młodsza o rok agatka dwie. Wyjmując butelkę, już na jeziorze, tata

zobaczył, że woda zmyła z niej nalepkę. Kolega taty zauważył, że wyjęta butelka wygląda tak samo, jak butelka lemoniady.

Z jaki prawdopodobieństwem panowie napiją się wody mineralnej, jeżeli prawd., że Agatka przyniosła wodę, a nie lemoniadę, wynosi

natomiast w przypadku Jacka prawdopodobieństwo to wynosi

rozwiązanie

Dzieci chciały przynieść wodę, a nie lemoniadę więc każde wzięło wszystkie swoje butelki z jednej skrzynki. Niech A oznacza, że panowie

trafili na wodę. Przyjmiemy hipotezę H, że wyjęta butelka jest jedną z przyniesionych przez Jacka i zastosujemy wzór:

P (A)= P (H)P (A\H) + P (H')P (A\H')

Mamy:

P (A\ H)=() i P (A\ H')=()

Teraz obliczamy:

P (A)=()()+()()=

Wzór Bayesa

Wzór ten wyraża prawdopodobieństwo warunkowe każdego z wzajemnie niezależnych zdarzeń .,

o dodatnich prawdopodobieństwach, których suma jest całą przestrzenią zdarzeń elementarnych względem zdarzenia A o dodatnim prawdopodob.

Wiemy, że

P (\ A) = P ()

Zastępując prawdopodobieństwo P (A) w mianowniku ostatniego ułamka przez:

P (A)= P ()P (A\)+P ()P (A\)+.... +P ()P (A\ )

otrzymujemy:

P (\A)=

zwany wzorem Bayesa. Wzór ten pozwala oliczyć prawdopodobieństwo warunkowe hipotezy , w doświadczeniu, w którym

zaszło zdarzenie A. Analogiczne związki zachodzą również dla pozostałych hipotez .

Można z nich obliczyć prawdopodobieństwa warunkowe przyjętych wcześniej hipotez na podstawie wyniku doświadczenia po jego przeprowadzeniu (Siwek E. 2002)


Prawdopodobieństwo warunkoweartykuły polecane
Schemat BernoulliegoRozkład PoissonaANOVAEstymator nieobciążonyAnaliza regresjiEstymator obciążonyPrawdopodobieństwoPoziom istotnościKwartylRejestr zastawów

Bibliografia

  • Kornacki J. (2006), Statystyka dla studentów kierunków technicznych i przyrodniczych, Wydawnictwo Naukowo-Techniczne, Warszawa
  • Siwek E. (2002), Słownik encyklopedyczny, Cykada, Katowice
  • Sobczyk M. (2007), Statystyka, Wydawnictwo Naukowe PWN, Warszawa
  • Sobczyk M. (2010), Statystyka opisowa, C.H. Beck, Warszawa
  • Witkowski B. (red.) (2018), Statystyka w zarządzaniu, Wydawnictwo Naukowe PWN, Warszawa
  • Zieliński R. (2004), Siedem wykładów wprowadzających do statystyki matematycznej, Państwowe Wydawnictwo Naukowe, Warszawa


Autor: Anna Dziadosz, Bernadeta Nowacka