Prawdopodobieństwo warunkowe

Z Encyklopedia Zarządzania
Wersja z dnia 05:04, 21 maj 2020 autorstwa 127.0.0.1 (dyskusja) (LinkTitles.)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Prawdopodobieństwo warunkowe
Polecane artykuły


Prawdopodobieństwo warunkowe ( względne ) występuje, gdy mamy do czynienia ze zdarzeniem A, którego prawdopodobieństwo zależy od zdarzenia B.
Zdarzenia A oraz B nazywamy wtedy zdarzeniami zależnymi. (Sobczyk M. 2002, s. 82)

Prawdopodobieństwo warunkowe zdarzenia A przy założeniu, że zaszło zdarzenie B, oznaczane jest symbolem P (A \ B) i wyraża się wzorem:

P (A \ B) = \(\frac{p \left (A \cap B \right)}{p \left (B \right)}\)

Prawdopodobieństwo warunkowe określa szansę zajęcia jakiegoś zdarzenia, gdy wiadomo, jakie zdarzenia już zaszły. (Siwek E. 2002)

Prawdopodobieństwo P (A\B) jest naogół różne od prawdopodobieństwa (bezwarunkowego lub apriori) zdarzenia A.
W pewnych przypadkach jednak informacja o zajściu zdarzenia B nie ma wpływu na prawdopodobieństwo zdarzenia A, tj.

P (A\B)= P (A)

Otrzymujemy wówczas:

P (A i B) = \( P\left (A\right)P\left (B\right)\)

Przykłady

Przykład 1

Załóżmy, że pomyślne ukończenie gry (wygrana) uzależnione jest od uzyskania 11 punktów w dwóch kolejnych rzutach
(lub dwoma kostkami jednocześnie). Jakie jest prawdopodobieństwo osiągnięcia takiego wyniku?
W pierwszym rzucie dwa wyniki nie przekreślają szans uzyskania potrzebnej liczby punktów: są to liczby 5 i 6. Prawdopodobieństwo
uzyskania jednej z nich wynosi:

\( \left (\frac{1}{6}\right) + \left (\frac{1}{6}\right)= \left (\frac{1}{3}\right)\)

Liczba punktów, które musimy uzyskać w drugim rzucie, aby spełnione zostało przyjęte założenie, jest już ściśle uwaunkowana wynikiem
uzyskanym w pierwszym rzucie (mamy więc do czynienia z prawdopodobieństwiem warunkowym).
Prawdopodobieństwo warunkowe zdarzenia B przy założeniu, że wystąpiło zdarzenie A, oznaczymy symbolem \(P\left (B\setminus A\right)\).
Tak więc w przypadku uzyskania w pierwszym rzucie 5 punktów, w drugim jedynie wyrzucenie 6 punktów da nam potrzebną sumę punktów.
I odwrotnie, jeśli w pierwszym rzucie uzyskamy 6 punktów, to w drugim jedynie wyrzucenie 5 punktów odpowiada przyjętemu założeniu.
A zatem prawdopodobieństwo uzyskania 11 punktów w dwóch kolejnych rzutach kostką wynosi:

\(\left (\frac{1}{3}\right) \left (\frac{1}{6}\right)= \left (\frac{1}{18}\right)\)

Przykład 2

Dzieci miały zaopatrzyć łódkę taty w wodę mineralną przed jego wyjazdem z kolegą na ryby. W domu byłby dwie skrzynki: jedna z wodą
mineralną, a druga z lemoniadą. Czteroletni Jacek przyniósł 3 butelki, a młodsza o rok agatka dwie. Wyjmując butelkę, już na jeziorze, tata
zobaczył, że woda zmyła z niej nalepkę. Kolega taty zauważył, że wyjęta butelka wygląda tak samo, jak butelka lemoniady.
Z jaki prawdopodobieństwem panowie napiją się wody mineralnej, jeżeli prawd., że Agatka przyniosła wodę, a nie lemoniadę, wynosi \(\frac{1}{2}\)
natomiast w przypadku Jacka prawdopodobieństwo to wynosi \(\frac{3}{4}\)

rozwiązanie

Dzieci chciały przynieść wodę, a nie lemoniadę więc każde wzięło wszystkie swoje butelki z jednej skrzynki. Niech A oznacza, że panowie
trafili na wodę. Przyjmiemy hipotezę H, że wyjęta butelka jest jedną z przyniesionych przez Jacka i zastosujemy wzór:

P (A)= P (H)P (A\H) + P (H')P (A\H')

Mamy:

P (A\ H)=(\(\frac{3}{4}\)) i P (A\ H')=(\(\frac{1}{2}\))

Teraz obliczamy:

P (A)=(\(\frac{3}{5}\))(\(\frac{3}{4}\))+(\(\frac{2}{5}\))(\(\frac{1}{2}\))=\(\left (\frac{13}{20}\right)\)

Wzór Bayesa

Wzór ten wyraża prawdopodobieństwo warunkowe \(P\left (H_1\setminus A\right)\) każdego z wzajemnie niezależnych zdarzeń \(H_1, H_2, H_3,... H_n\).,
o dodatnich prawdopodobieństwach, których suma jest całą przestrzenią zdarzeń elementarnych względem zdarzenia A o dodatnim prawdopodob.

Wiemy, że

P (\(H_1\)\ A) = P (\(H_1\)) \(\frac{P\left (A\setminus H_1\right)}{P\left (A\right)}\)

Zastępując prawdopodobieństwo P (A) w mianowniku ostatniego ułamka przez:

P (A)= P (\(H_1\))P (A\\(H_1\))+P (\(H_2\))P (A\\( H_2\))+.... +P (\(H_n\))P (A\ \(H_n\))

otrzymujemy:

P (\(H_1\)\A)= \(\frac{P\left (H_1\right) P (A\setminus H_1)}{P (H_1)P (A\setminus H_1)+P\left (H_2\right)P\left (A\setminus H_2\right)+.... +P\left (H_n\right)P\left (A\setminus H_n\right)}\)

zwany wzorem Bayesa. Wzór ten pozwala oliczyć prawdopodobieństwo warunkowe hipotezy \(H_1\), w doświadczeniu, w którym
zaszło zdarzenie A. Analogiczne związki zachodzą również dla pozostałych hipotez \(H_2, H_3,... H_n\).
Można z nich obliczyć prawdopodobieństwa warunkowe przyjętych wcześniej hipotez na podstawie wyniku doświadczenia po jego przeprowadzeniu. (Siwek E. 2002)

Bibliografia

  • Durka P. J. (2002) Wstęp do współczesnej statystyki, Wydawnictwo Adamantan, Warszawa
  • Kornacki J. (2006) Statystyka dla studentów kierunków technicznych i przyrodniczych (2006), Wydawnictwo Naukowo - Techniczne, Warszawa
  • Siwek E. (2002) Słownik encyklopedyczny, Cykada, Katowice
  • Sobczyk M. (2002) Statystyka, Wydawnictwo Naukowe PWN, Warszawa
  • Sobczyk M. (2010) Statystyka opisowa, Wydawnictwo C. H. Beck, Warszawa
  • Witkowski B. (red.) (2018) Statystyka w zarządzaniu., Wydawnictwo Naukowe PWN, Warszawa
  • Zieliński R. (2004) Siedem wykładów wprowadzających do statystyki matematycznej, Państwowe Wydawnictwo Naukowe, Warszawa

Autor: Anna Dziadosz, Bernadeta Nowacka