Kurs:Grundkurs Mathematik (Osnabrück 2018-2019)/Teil II/Vorlesung 58/latex
\setcounter{section}{58}
\zwischenueberschrift{Bedingte Wahrscheinlichkeit}
Es kommt manchmal vor, dass man bei der Berechnung oder Abschätzung für eine Wahrscheinlichkeit zusätzliche Informationen zur Verfügung hat. Dadurch ändert sich die Grundmenge, da Ereignisse, die der Information nicht entsprechen, nicht weiter betrachtet werden müssen. Wenn beispielsweise jemand einen Würfel wirft und man wissen möchte, ob das Ergebnis gerade oder ungerade ist, so sind beide Möglichkeiten gleichwahrscheinlich. Wenn man aber zusätzlich die Information hat, dass die geworfene Augenzahl mindestens $4$ ist, so verbleiben die Möglichkeiten
\mathl{4,5,6}{,} die man untereinander als gleichwahrscheinlich ansehen kann, und die Wahrscheinlichkeit, dass eine gerade Augenzahl geworfen wird, ist
\zusatzgs {unter dieser Information bzw. Bedingung} {}
gleich
\mathl{{ \frac{ 2 }{ 3 } }}{.} Diese Beobachtung führt zum Begriff der bedingten Wahrscheinlichkeit.
\inputdefinition
{}
{
Es sei
\mathl{(M, P)}{} ein
\definitionsverweis {endlicher Wahrscheinlichkeitsraum}{}{}
und
\mavergleichskette
{\vergleichskette
{B
}
{ \subseteq }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
eine Teilmenge mit positiver Wahrscheinlichkeit. Dann nennt man zu jedem Ereignis
\mavergleichskette
{\vergleichskette
{E
}
{ \subseteq }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
die Zahl
\mavergleichskettedisp
{\vergleichskette
{P(E {{|}} B)
}
{ =} { { \frac{ P(E \cap B) }{ P(B) } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
die
\definitionswort {bedingte Wahrscheinlichkeit}{}
von $E$ unter der Bedingung $B$.
}
Die Bedingungsmenge $B$ muss positive Wahrscheinlichkeit besitzen, da man sonst dadurch nicht dividieren könnte. Eine direkte Umstellung liefert
\mavergleichskettedisp
{\vergleichskette
{ P (E \cap B)
}
{ =} { P(B) \cdot P( E {{|}} B )
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
Wenn man von bedingten Wahrscheinlichkeiten spricht, so nennt man die unbedingte Wahrscheinlichkeit von $E$ auch die \stichwort {totale Wahrscheinlichkeit} {.} Bei der Berechnung der bedingten Wahrscheinlichkeit liegt die Hauptschwierigkeit oft darin, das Durchschnittsereignis
\mathl{E \cap B}{} zu analysieren und seine Wahrscheinlichkeit zu bestimmen. Wenn
\mavergleichskette
{\vergleichskette
{ E
}
{ \subseteq }{ B
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
ist, so ist natürlich
\mavergleichskette
{\vergleichskette
{ E \cap B
}
{ = }{ E
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
und somit ist in diesem Fall
\mavergleichskette
{\vergleichskette
{ P(E {{|}} B)
}
{ = }{ { \frac{ P(E) }{ P(B) } }
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{,}
doch ist dies eher eine Ausnahme. Für ein Elementarereignis
\mavergleichskette
{\vergleichskette
{ E
}
{ = }{ \{x\}
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
gibt es für die bedingte Wahrscheinlichkeit nur zwei Möglichkeiten: Bei
\mavergleichskette
{\vergleichskette
{ x
}
{ \in }{ B
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
ist
\mavergleichskettedisp
{\vergleichskette
{P( x {{|}} B )
}
{ =} { { \frac{ P(x) }{ P(B) } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
und bei
\mavergleichskette
{\vergleichskette
{ x
}
{ \notin }{ B
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
ist
\mavergleichskettedisp
{\vergleichskette
{ P( x {{|}} B )
}
{ =} { 0
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
\inputbeispiel{}
{
Wir betrachten die Wahrscheinlichkeit, dass beim Zahlenlotto eine bestimmte Zahl, sagen wir die $31$, unter der Bedingung gezogen wird, dass auch eine bestimmte andere Zahl, sagen wir die $17$ gezogen wird. Die bedingte Wahrscheinlichkeit ist
\mavergleichskettedisp
{\vergleichskette
{ { \frac{ P(17,31) }{ P(17) } }
}
{ =} { { \frac{ { \frac{ 5 }{ 392 } } }{ { \frac{ 6 }{ 49 } } } }
}
{ =} { { \frac{ 245 }{ 2352 } }
}
{ =} { { \frac{ 5 }{ 48 } }
}
{ =} { 0,1041666 ...
}
}
{}{}{,}
wobei die Wahrscheinlichkeitsberechnungen in
Beispiel 55.12
durchgeführt wurden. Dies ist kleiner als
\mavergleichskettedisp
{\vergleichskette
{ { \frac{ 6 }{ 49 } }
}
{ =} { 0,12244897 ...
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
Wenn man also weiß, dass eine bestimmte Zahl gezogen wird, so reduziert sich die Wahrscheinlichkeit, dass zugleich eine bestimmte andere Zahl gezogen wird.
}
\inputbeispiel{}
{
Die drei Freunde Fritz, Fredo und Fitzgeraldo spielen Skat. Spieler Fredo hat von den bereits an ihn verteilten zehn Karten die ersten drei aufgenommen und alles sind Buben. Wie groß ist die Wahrscheinlichkeit, dass er auch noch den vierten Buben bekommt? Die einzige Information, die er hat, ist, dass unter den unbekannten
\mavergleichskette
{\vergleichskette
{32-3
}
{ = }{29
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
Karten noch ein Bube ist. Damit ist die Wahrscheinlichkeit, dass er auch den vierten Buben bekommt, gleich
\mathl{{ \frac{ 7 }{ 29 } }}{.} Dies kann man auch als eine bedingte Wahrscheinlichkeit berechnen. Es sei $B$ das Ereignis, dass die ersten drei aufgedeckten Karten alle Buben sind, und $A$ das Ereignis, dass Fredo alle Buben bekommt. Die Wahrscheinlichkeit von $A$ ist nach
Beispiel 55.14
gleich
\mavergleichskettedisp
{\vergleichskette
{ { \frac{ \binom { 28 } { 6 } }{ \binom { 32 } { 10 } } }
}
{ =} { { \frac{ 21 }{ 3596 } }
}
{ } {}
{ } {}
{ } {}
}
{}{}{.}
Die Wahrscheinlichkeit für $B$ ist
\mavergleichskettedisp
{\vergleichskette
{ { \frac{ 4 \cdot 3 \cdot 2 }{ 32 \cdot 31 \cdot 30 } }
}
{ =} { { \frac{ 1 }{ 4 \cdot 31 \cdot 10 } }
}
{ =} { { \frac{ 1 }{ 1240 } }
}
{ } {
}
{ } {
}
}
{}{}{.}
Die Wahrscheinlichkeit für
\mathl{A \cap B}{} kann man auf unterschiedliche Arten ausrechnen, nämlich als
\zusatzklammer {Wahrscheinlichkeit, dass die ersten drei Karten nur Buben sind, mal Wahrscheinlichkeit, dass dann noch der vierte Bube kommt} {} {}
\mavergleichskettedisp
{\vergleichskette
{ { \frac{ 1 }{ 1240 } } \cdot { \frac{ 7 }{ 29 } }
}
{ =} { { \frac{ 7 }{ 35960 } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
oder als
\zusatzklammer {Wahrscheinlichkeit, dass alle vier Buben bei einem Spieler landen, mal die Wahrscheinlichkeit, dass dabei drei bestimmte Karten Buben sind} {} {}
\mavergleichskettedisp
{\vergleichskette
{ { \frac{ 21 }{ 3596 } } \cdot { \frac{ 4 \cdot 3 \cdot 2 }{ 10 \cdot 9 \cdot 8 } }
}
{ =} { { \frac{ 21 }{ 3596 } } \cdot { \frac{ 1 }{ 10 \cdot 3 } }
}
{ =} { { \frac{ 7 }{ 35960 } }
}
{ } {
}
{ } {
}
}
{}{}{.}
Die bedingte Wahrscheinlichkeit ist jedenfalls
\mavergleichskettedisp
{\vergleichskette
{ P(A {{|}} B)
}
{ =} { { \frac{ P(A \cap B) }{ P(B) } }
}
{ =} { { \frac{ \, \, { \frac{ 7 }{ 35960 } } \, \, }{ { \frac{ 1 }{ 1240 } } } }
}
{ =} { { \frac{ 7 \cdot 124 }{ 3596 } }
}
{ =} { { \frac{ 7 }{ 29 } }
}
}
{}{}{.}
}
\inputbeispiel{}
{
Es wurde zehnmal eine faire Münze geworfen und es sei bekannt, dass mindestens fünfmal dabei Kopf fiel. Wie hoch ist die (bedingte) Wahrscheinlichkeit, dass der erste Wurf Kopf war? Wir müssen die Wahrscheinlichkeiten für die Ereignisse $B$
\zusatzklammer {mindestens fünfmal Kopf} {} {}
und $E$
\zusatzklammer {der erste Wurf ist Kopf} {} {}
berechnen. Unter den $2^{10}$ möglichen Wurfkombinationen gibt es
\mavergleichskettedisphandlinks
{\vergleichskettedisphandlinks
{ \binom { 10 } { 5 } + \binom { 10 } { 6 } + \binom { 10 } { 7 } + \binom { 10 } { 8 } + \binom { 10 } { 9 } + \binom { 10 } { 10 }
}
{ =} { 252 + 210 +120+ 45 + 10+1
}
{ =} { 638
}
{ } {
}
{ } {
}
}
{}{}{}
Kombinationen, in denen zumindest fünf Kopfwürfe auftreten. Unter diesen müssen wir die Anzahl der Kombinationen zählen, in denen der erste Wurf Kopf ist. Es geht also um die Anzahl von
\mathl{B \cap E}{.} Diese Menge kann man so charakterisieren, dass der erste Wurf Kopf ist und dass es unter den neun weiteren Würfen zumindest vier Kopfwürfe gibt. Die Anzahl dieser Menge ist somit
\mavergleichskettedisphandlinks
{\vergleichskettedisphandlinks
{ \binom { 9 } { 4 } + \binom { 9 } { 5 } + \binom { 9 } { 6 } + \binom { 9 } { 7 } + \binom { 9 } { 8 } + \binom { 9 } { 9 }
}
{ =} { 126 + 126 +84 + 36 + 9 +1
}
{ =} { 382
}
{ } {
}
{ } {
}
}
{}{}{.}
Somit ist
\mavergleichskettedisp
{\vergleichskette
{ P(E {{|}} B)
}
{ =} { { \frac{ P(E \cap B) }{ P(B) } }
}
{ =} { { \frac{ \,\, { \frac{ 382 }{ 2^{10} } } \, \, }{ { \frac{ 638 }{ 2^{10} } } } }
}
{ =} { { \frac{ 382 }{ 638 } }
}
{ =} { { \frac{ 191 }{ 319 } }
}
}
{}{}{.}
}
\inputbeispiel{}
{
Von einem Elternpaar ist bekannt, dass sie zwei Kinder haben, und dass eines davon ein Mädchen ist. Wie hoch ist die Wahrscheinlichkeit, dass auch das andere Kind ein Mädchen ist? Zunächst muss man sich die Bedeutung der Information klar machen, um Missverständnisse zu vermeiden. Man weiß nicht, ob das erste oder das zweite
\zusatzklammer {im Sinne der Geburtsreihenfolge} {} {}
Kind ein Mädchen ist. Wenn man beispielsweise weiß, dass das erste Kind ein Mädchen ist, so hat dies keine Auswirkungen auf das zweite Kind, und die Wahrscheinlichkeit, für dieses zweite Kind ein Mädchen zu sein, ist einfach ${ \frac{ 1 }{ 2 } }$. Hier weiß man aber nur, dass überhaupt eines der beiden Kinder ein Mädchen ist. Um die Wahrscheinlichkeit zu berechnen, muss man auf die möglichen gleichberechtigen Konfigurationen bei zwei Kindern zurückgehen und schauen, welche durch die Information ausgeschlossen werden. Die vier gleichwahrscheinlichen Geburtsreihenfolgen sind
\mathdisp {(M,M),\, (J,M),\, (M,J) \text{ und } (J,J)} { . }
Durch die angegebene Bedingung ist die letzte Möglichkeit, zwei Jungen, ausgeschlossen, und es verbleiben die drei anderen gleichberechtigten Möglichkeiten. Unter diesen ist nur die erste Möglichkeit für die Frage positiv, die beiden anderen nicht. Die Wahrscheinlichkeit ist also ${ \frac{ 1 }{ 3 } }$.
}
\bild{ \begin{center}
\includegraphics[width=5.5cm]{\bildeinlesung {Monty open door chances.svg} }
\end{center}
\bildtext {} }
\bildlizenz { Monty open door chances.svg } {} {Cepheus~commonswiki} {Commons} {gemeinfrei} {}
\inputbeispiel{}
{
Beim Ziegenproblem geht es um die folgende Anordnung. Bei einer Fernsehshow kann ein Kandidat aus drei Türen wählen, wobei hinter einer Tür ein Auto als Preis wartet und hinter zwei Türen jeweils eine Ziege als Niete. Der Kandidat wählt zunächst eine Tür. Diese wird aber nicht geöffnet, stattdessen öffnet der Moderator, der weiß, wo der Gewinn sich verbirgt, eine der beiden anderen Türen, hinter denen eine Ziege steckt. Wenn der Kandidat auf eine Ziegentür gezeigt hat, so hat der Moderator keine Wahl, wenn der Kandidat auf die Autotür gezeigt hat, so wählt der Moderator zufällig eine der Ziegentüren. Danach darf der Kandidat bei seiner ersten Wahl bleiben oder aber sich auf die verbleibende Tür umentscheiden. Die Frage ist, ob der Kandidat seine Gewinnchancen erhöht, wenn er sich umentscheidet. Die Antwort ist ja! Die Wahrscheinlichkeit, dass er mit seiner ursprünglichen Wahl gewinnt, ist
\mathl{{ \frac{ 1 }{ 3 } }}{.} Die Wahrscheinlichkeit, dass er mit der Umentscheidungsstrategie gewinnt bzw. verliert, berechnet sich folgendermaßen. Man analysiert die Situation entlang der komplementären Ereignisse, dass er bei der ersten Wahl falsch oder richtig liegt. Wenn er richtig liegt, und das hat Wahrscheinlichkeit ${ \frac{ 1 }{ 3 } }$, so verliert er definitiv mit der Umentscheidung. Wenn er aber falsch liegt, und das hat Wahrscheinlichkeit ${ \frac{ 2 }{ 3 } }$, so gewinnt er definitiv mit der Umentscheidung. Die Gewinnwahrscheinlichkeit ist also
\mathl{{ \frac{ 2 }{ 3 } }}{.}
}
\inputfaktbeweis
{Endlicher Wahrscheinlichkeitsraum/Bedingte Wahrscheinlichkeit/Unabhängigkeit/Fakt}
{Lemma}
{}
{
\faktsituation {Es sei
\mathl{(M, P)}{} ein
\definitionsverweis {endlicher Wahrscheinlichkeitsraum}{}{}
und
\mavergleichskette
{\vergleichskette
{B
}
{ \subseteq }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
eine Teilmenge mit positiver Wahrscheinlichkeit und es sei
\mavergleichskette
{\vergleichskette
{E
}
{ \subseteq }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
ein
\definitionsverweis {Ereignis}{}{.}}
\faktfolgerung {Dann sind $E$ und $B$ genau dann
\definitionsverweis {unabhängig}{}{,}
wenn
\mavergleichskettedisp
{\vergleichskette
{P(E)
}
{ =} {P(E {{|}} B)
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
ist, wenn also die Wahrscheinlichkeit von $E$ mit der
\definitionsverweis {bedingten Wahrscheinlichkeit}{}{}
von $E$ unter der Bedingung $B$ übereinstimmt.}
\faktzusatz {}
\faktzusatz {}
}
{
Nach Definition ist
\mavergleichskettedisp
{\vergleichskette
{P(E {{|}} B )
}
{ =} { { \frac{ P(E \cap B) }{ P(B) } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
Die Bedingung, dass dies mit
\mathl{P(E)}{} übereinstimmt, ist äquivalent dazu, dass
\mavergleichskettedisp
{\vergleichskette
{ P(E \cap B)
}
{ =} { P(E) \cdot P(B)
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
ist, was die Unabhängigkeit bedeutet.
Im unabhängigen Fall hat also das Eintreten von $B$ keine Auswirkung auf die Wahrscheinlichkeit von $E$. Bei
\mavergleichskette
{\vergleichskette
{P(E{{|}}B)
}
{ > }{ P(E)
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
sagt man auch, dass $B$ einen positiven Einfluss
\zusatzklammer {im Sinne von erhöht die Wahrscheinlichkeit} {} {}
auf das Ereignis $E$ besitzt, bei
\mavergleichskette
{\vergleichskette
{ P(E{{|}}B)
}
{ < }{ P(E)
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
sagt man, dass $B$ einen negativen Einfluss auf das Ereignis $E$ besitzt.
\inputfaktbeweis
{Endlicher Wahrscheinlichkeitsraum/Bedingte Wahrscheinlichkeit/Wahrscheinlichkeitsmaß/Fakt}
{Lemma}
{}
{
\faktsituation {Es sei
\mathl{(M, P)}{} ein
\definitionsverweis {endlicher Wahrscheinlichkeitsraum}{}{}
und
\mavergleichskette
{\vergleichskette
{B
}
{ \subseteq }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
eine Teilmenge mit positiver Wahrscheinlichkeit.}
\faktfolgerung {Dann ist die bedingte Wahrscheinlichkeit
\maabbeledisp {} { \mathfrak {P} \, (M ) } { \R_{\geq 0}
} {E} { P(E {{|}} B)
} {,}
ein
\definitionsverweis {Wahrscheinlichkeitsmaß}{}{}
auf $M$.}
\faktzusatz {}
\faktzusatz {}
}
{
Wir müssen zeigen, dass die bedingte Wahrscheinlichkeit additiv ist und die bedingte Gesamtwahrscheinlichkeit gleich $1$ ist. Für disjunkte Ereignisse
\mathkor {} {E} {und} {F} {}
ist
\mavergleichskettealign
{\vergleichskettealign
{P(E \cup F {{|}} B)
}
{ =} { { \frac{ P((E \cup F) \cap B) }{ P(B) } }
}
{ =} { { \frac{ P((E \cap B) \cup (F \cap B) ) }{ P(B) } }
}
{ =} { { \frac{ P(E \cap B ) + P( F \cap B) }{ P(B) } }
}
{ =} { { \frac{ P(E \cap B) }{ P(B) } } + { \frac{ P( F \cap B) }{ P(B) } }
}
}
{
\vergleichskettefortsetzungalign
{ =} {P(E {{|}} B) + P( F {{|}} B)
}
{ } {}
{ } {}
{ } {}
}
{}{}
und es ist
\mavergleichskettedisp
{\vergleichskette
{ P( M {{|}} B)
}
{ =} { { \frac{ P(M \cap B) }{ P(B) } }
}
{ =} { { \frac{ P( B) }{ P(B) } }
}
{ =} {1
}
{ } {
}
}
{}{}{.}
Sämtliche Ereignisse $E$, die mit dem Bedingungsereignis $B$ einen leeren Durchschnitt haben, besitzen unter der beschriebenen bedingten Wahrscheinlichkeit den Wert $0$, und sämtliche Ereignisse, die $E$ umfassen, insbesondere $B$ selbst, haben die bedingte Wahrscheinlichkeit $1$.
\inputbeispiel{}
{
Es sei ein
\definitionsverweis {Laplace-Raum}{}{}
$M$ mit $n$ Elementen und eine Teilmenge
\mavergleichskette
{\vergleichskette
{B
}
{ \subseteq }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
mit
\mathbed {k} {}
{1 \leq k \leq n} {}
{} {} {} {,}
Elementen gegeben. Dann ist die bedingte Wahrscheinlichkeit gleich
\mavergleichskettedisp
{\vergleichskette
{P(E {{|}} B)
}
{ =} { { \frac{ { \# \left( E \cap B \right) } }{ k } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
gegeben. Dies ist mit der einzigen Ausnahme
\mavergleichskette
{\vergleichskette
{B
}
{ = }{M
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
kein Laplace-Raum.
}
Die folgende Formel heißt \stichwort {Formel für die totale Wahrscheinlichkeit} {.}
\inputfaktbeweis
{Endlicher Wahrscheinlichkeitsraum/Bedingte Wahrscheinlichkeit/Totale Wahrscheinlichkeit/Fakt}
{Lemma}
{}
{
\faktsituation {Es sei
\mathl{(M, P)}{} ein
\definitionsverweis {endlicher Wahrscheinlichkeitsraum}{}{}
und
\mavergleichskettedisp
{\vergleichskette
{M
}
{ =} { B_1 \uplus B_2 \uplus \ldots \uplus B_n
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
eine Zerlegung in disjunkte Teilmengen, die alle positive Wahrscheinlichkeiten haben mögen.}
\faktfolgerung {Dann ist für jedes Ereignis $E$
\mavergleichskettedisp
{\vergleichskette
{P(E)
}
{ =} { \sum_{ i = 1}^n P(B_i) \cdot P( E {{|}} B_i )
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}}
\faktzusatz {}
\faktzusatz {}
}
{
Es ist
\mavergleichskettealign
{\vergleichskettealign
{P(E)
}
{ =} { P( E \cap ( B_1 \uplus B_2 \uplus \ldots \uplus B_n ) )
}
{ =} {P ( (E \cap B_1) \uplus (E \cap B_2) \uplus \ldots \uplus (E \cap B_n ))
}
{ =} { \sum_{i = 1}^n P (E \cap B_i)
}
{ =} { \sum_{ i = 1}^n P(B_i) \cdot P( E {{|}} B_i )
}
}
{}
{}{.}
Ein Spezialfall liegt vor, wenn $B$ eine Teilmenge ist und man die Zerlegung
\zusatzklammer {Bedingung und komplementäre Bedingung} {} {}
\mavergleichskettedisp
{\vergleichskette
{M
}
{ =} {B \uplus (M \setminus B)
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
betrachtet, wobei beide Teilmengen positive Wahrscheinlichkeit haben mögen. Dann ist
\mavergleichskettedisp
{\vergleichskette
{P(E)
}
{ =} { P(B) \cdot P( E {{|}} B ) + P(M \setminus B) \cdot P( E {{|}} M \setminus B )
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
Die folgende Aussage heißt \stichwort {Bayessche Formel} {.} Sie berechnet eine bedingte Wahrscheinlichkeit
\mathl{P(B {{|}} A)}{} unter der Voraussetzung, dass umgekehrt die bedingten Wahrscheinlichkeiten von $A$ unter gewissen weiteren Bedingungen bekannt sind.
\inputfaktbeweis
{Endlicher Wahrscheinlichkeitsraum/Bayessche Formel/Fakt}
{Lemma}
{}
{
\faktsituation {Es sei
\mathl{(M, P)}{} ein
\definitionsverweis {endlicher Wahrscheinlichkeitsraum}{}{}
und
\mavergleichskettedisp
{\vergleichskette
{M
}
{ =} { B_1 \uplus B_2 \uplus \ldots \uplus B_n
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
eine Zerlegung in disjunkte Teilmengen, die alle positive Wahrscheinlichkeiten haben mögen.}
\faktfolgerung {Dann ist für jedes Ereignis $A$ mit positiver Wahrscheinlichkeit
\mavergleichskettedisp
{\vergleichskette
{P(B_k {{|}} A)
}
{ =} { { \frac{ P(B_k) \cdot P(A {{|}} B_k) }{ \sum_{ i = 1}^n P(B_i) \cdot P( A {{|}} B_i ) } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}}
\faktzusatz {}
\faktzusatz {}
}
{
Nach
Lemma 58.10
angewendet auf $A$ ist
\mavergleichskettealign
{\vergleichskettealign
{P(B_k {{|}} A)
}
{ =} { { \frac{ P(B_k \cap A) }{ P(A) } }
}
{ =} { { \frac{ P(B_k \cap A) }{ \sum_{ i = 1}^n P(B_i) \cdot P( A {{|}} B_i ) } }
}
{ =} { { \frac{ P(B_k) \cdot P(A {{|}} B_k) }{ \sum_{ i = 1}^n P(B_i) \cdot P( A {{|}} B_i ) } }
}
{ } {
}
}
{}
{}{.}
Ein wichtiger Spezialfall der Bayesschen Formel liegt bei der Zerlegung
\mavergleichskettedisp
{\vergleichskette
{ M
}
{ =} { B \cup { \left( M \setminus B \right) }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
vor, wobei $B$ und das Komplement positive Wahrscheinlichkeit haben mögen. Dann gilt
\mavergleichskettedisp
{\vergleichskette
{ P( B {{|}} A )
}
{ =} { { \frac{ P(B) \cdot P( A {{|}} B ) }{ P(B) \cdot P( A {{|}} B ) + P(M \setminus B) \cdot P( A {{|}} M \setminus B ) } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
Eine typische Anwendung wird in der folgenden Situation beschrieben.
\inputbeispiel{}
{
In der Bevölkerung ist ein Virus im Umlauf, und es gibt einen Test für den Virus, der allerdings nicht absolut sicher ist. Wenn jemand den Virus hat, so erkennt der Test dies zu $98 \%$. Wenn jemand den Virus nicht hat, so erkennt der Test dies zu $99 \%$. Die Wahrscheinlichkeit, den Virus zu haben, beträgt
\mathl{0,1 \%}{.} Eine Person geht zum Arzt und lässt sich testen, das Ergebnis des Tests ist positiv, der Virus ist laut Test vorhanden. Wie hoch ist die Wahrscheinlichkeit, dass die getestete Person wirklich den Virus besitzt? Es sei $V$ das Ereignis, den Virus zu haben, und $T$ das Ereignis, dass der Test den Virus diagnostiziert. Gefragt ist also nach der bedingten Wahrscheinlichkeit von $V$ unter der Bedingung $T$, also
\mathl{P(V{{|}}T)}{,} wobei die Wahrscheinlichkeiten
\zusatzklammer {$\neg$ bedeutet hier die Negation des Ereignisses} {} {}
\mathdisp {P(V)=0,001, \, P(T{{|}}V) =0,98 ,\, P(T {{|}} \neg V)=0,01} { }
bekannt sind.
Die Formel von Bayes
liefert in diesem Fall
\mavergleichskettealign
{\vergleichskettealign
{ P( V {{|}} T )
}
{ =} { { \frac{ P(V) \cdot P( T {{|}} V ) }{ P(V) \cdot P(T {{|}} V ) + P( \neg V) \cdot P( T {{|}} \neg V ) } }
}
{ =} { { \frac{ 0,001 \cdot 0,98 }{ 0,001 \cdot 0,98 + 0,999 \cdot 0,01 } }
}
{ =} { { \frac{ 0,00098 }{ 0,00098 + 0,00999 } }
}
{ =} { { \frac{ 0,00098 }{ 0,01097 } }
}
}
{
\vergleichskettefortsetzungalign
{ =} { 0,0893345...
}
{ } {}
{ } {}
{ } {}
}
{}{.}
Obwohl sich die Zuverlässigkeit des Tests recht gut anhört, haben doch nur $9 \%$ der positiv getesteten Personen wirklich den Virus.
}