Bayes’sche Statistik: Definition & Beispiel
Bedingte Wahrscheinlichkeiten
Bei Zufallsexperimenten können sich die Eintrittswahrscheinlichkeiten von verschiedenen Ereignissen verändern, wenn weitere Informationen verfügbar sind. In diesem Fall spricht man von bedingten Wahrscheinlichkeiten.
Dabei betrachtet man die Wahrscheinlichkeit für das Eintreten von einem bestimmten Ereignis A unter der Bedingung, dass man weiß, dass Ereignis B bereits eingetreten ist. Mathematisch ausgedrückt entspricht dies P(A│B). So ist es zum Beispiel möglich, dass man a priori (vorher) eine Hypothese aufstellt und danach Indizien beobachtet, welche die Wahrscheinlichkeit der Hypothese a posteriori (im Nachhinein) stark verändern. Diese Effekte des Lernens werden eben durch die Bedingte Wahrscheinlichkeit beschrieben.
Beispiel
Person A würfelt einmal verdeckt mit einem fairen Würfel und verrät Person B, dass das gewürfelte Ergebnis gerade ist. Wie hoch ist nun die Wahrscheinlichkeit dafür, dass Person A die richtige Augenzahl errät?
In dem Fall bezeichnet Ereignis A das richtige Erraten der Augenzahl. Ohne die Information (a priori) wäre die Wahrscheinlichkeit für das richtige Raten gegeben durch P(A)=61.
Mit der Information, dass Ereignis B eingetreten ist (Augenzahl ist gerade a posteriori), ist die Wahrscheinlichkeit nun P(A│B)=31, weil nun nur noch 3 gleich wahrscheinliche Möglichkeiten (2,4,6) zur Verfügung sind.
Totale Wahrscheinlichkeit
Um die totale Wahrscheinlichkeit des Ereignisses B zu berechnen, welches in dem Fall eintritt, nachdem man bereits weiß, dass ein anderes Ereignis Ai eingetreten ist, muss man zunächst alle Möglichkeiten für Ereignisse, auf welche bedingt werden kann, auflisten. Also Ereignisse, von denen man erfährt, dass sie eingetreten sind: A1,A2,A3,... Es muss dabei gelten, dass P(A1)+P(A2)+P(A3)+…=1 ist. Dann ist die totale Wahrscheinlichkeit für das Ereignis B gegeben durch:
P(B)=P(B∣A1)⋅P(A1)+P(B∣A2)⋅P(A2)+…
Bayes Regel
Bayes‘ Regel kann nun benutzt werden, um bedingte Wahrscheinlichkeiten zu berechnen:
P(A│B)=P(B)P(B∣A)⋅P(A)
Zusammen mit der totalen Wahrscheinlichkeit ergibt dies:
P(A│B)=P(B∣A1)⋅P(A1)+P(B∣A2)⋅P(A2)+…P(B∣A)⋅P(A)
Dies ist die allgemeine Formel. Für das Ereignis A kann auch Ereignis A1 oder Ereignis A2, … eingesetzt werden. Dann ergibt sich zum Beispiel:
P(A1│B)=P(B∣A1)⋅P(A1)+P(B∣A2)⋅P(A2)+…P(B∣A1)⋅P(A1)
Beispiel
In einem Zufallsexperiment gibt es zwei Beutel, die gleich aussehen. Der erste Beutel enthält eine rote und drei weiße Kugeln und der zweite Beutel enthält zwei rote und zwei weiße Kugeln. Man wählt zufällig einen der beiden Beutel aus (es ist also nicht bekannt, welchen Beutel man gewählt hat) und zieht dann zwei Kugeln. Man zieht zwei Kugeln und erhält zwei weiße Kugeln. Wie wahrscheinlich ist es, dass man den ersten Beutel gewählt hat?
Um dies zu bestimmen ist es notwendig, bedingte Wahrscheinlichkeiten zu verwenden. Es werden die folgenden Bezeichnungen verwendet:
A1
| Beutel 1 wird gewählt |
A2
| Beutel 2 wird gewählt |
A3
| Es werden zwei weiße Kugeln gezogen
|
Die erste bedingte Wahrscheinlichkeit wird wie folgt berechnet:
P(B│A1)=43⋅32=21
Dies entspricht der Wahrscheinlichkeit, zwei weiße Kugeln aus dem ersten Beutel zu ziehen.
Äquivalent dazu ist die Wahrscheinlichkeit, zwei weiße Kugeln aus dem zweiten Beutel zu ziehen, gegeben durch:
P(A1│B)=P(B)P(B∣A1)⋅P(A1)=3121⋅21=43
Zum Test kann man, äquivalent dazu, auch die bedingte Wahrscheinlichkeit dafür, Beutel 2 gezogen zu haben, wenn das Ergebnis der Ziehung (2 mal weiß) bekannt ist berechnen:
P(A1│B)=P(B)P(B∣A2)⋅P(A2)=3161⋅21=41
Hinweis: Es gilt: P(A1∣B)+P(A2∣B)=1