Kurs:Grundkurs Mathematik (Osnabrück 2018-2019)/Teil II/Vorlesung 56/latex
\setcounter{section}{56}
\zwischenueberschrift{Produkte von endlichen Wahrscheinlichkeitsräumen}
\inputbeispiel{}
{
Eine Münze wird zweimal unabhängig voneinander hintereinander geworfen, und wir interessieren uns für die Wahrscheinlichkeit, wie oft dabei Zahl fällt. Die Möglichkeiten sind
\mathl{0,1,2}{.} Diese sind aber nicht gleichwahrscheinlich, sondern die $1$ ist deutlich wahrscheinlicher als die $0$ und die $2$. Wenn man das Ereignis mit der möglichen Wertemenge
\mathl{\{0,1,2\}}{} beschreibt, so liegt kein
\definitionsverweis {Laplace-Raum}{}{}
vor. Es ist besser, die Gesamtsituation durch den Produktraum
\mathl{\{ K,Z \} \times \{ K,Z \}}{} zu beschreiben, wobei die Paare daraus die möglichen Ausgänge des Gesamtexperimentes bezeichnen, bei dem das Ergebnis beim ersten Wurf an erster und das Ergebnis beim zweiten Wurf an zweiter Stelle notiert wird. Die möglichen Ergebnisse sind somit
\mathdisp {(Z,Z), \, (Z,K), \, (K,Z),\, (K,K)} { . }
Diese Elementarereignisse sind gleichwahrscheinlich, d.h. mit diesem Produktraum wird das Gesamtexperiment durch einen Laplace-Raum beschrieben, bei dem jedes Elementarereignis die Wahrscheinlichkeit
\mathl{{ \frac{ 1 }{ 4 } }}{} besitzt. Die ursprüngliche Frage nach der Wahrscheinlichkeit, wie oft insgesamt Zahl geworfen wird, wird mit Hilfe dieses Produktraumes dadurch beantwortet, dass man zählt, wie viele der Elementarereignisse zur Summenanzahl
\mathl{0,1,2}{} führen. Somit besitzt keinmal Zahl die Wahrscheinlichkeit
\mathl{{ \frac{ 1 }{ 4 } }}{,} einmal Zahl die Wahrscheinlichkeit
\mathl{{ \frac{ 1 }{ 2 } }}{} und zweimal Zahl die Wahrscheinlichkeit
\mathl{{ \frac{ 1 }{ 4 } }}{.}
}
Die mehrfache Hintereinanderausführung eines Experimentes wird durch die Produktmenge, die Produktdichte und das Produktmaß mathematisch realisiert.
\inputdefinition
{}
{
Es seien
\mathl{(M_1, \mu_1) , \ldots , (M_n, \mu_n)}{}
\definitionsverweis {endliche Wahrscheinlichkeitsräume}{}{}
mit zugehörigen Dichten $f_i$.
Dann nennt man die
\definitionsverweis {Produktmenge}{}{}
\mathl{M_1 \times \cdots \times M_n}{} zusammen mit der durch
\mavergleichskettedisp
{\vergleichskette
{f(x_1 , \ldots , x_n)
}
{ \defeq} { f_1 (x_1 ) \cdots f_n ( x_n)
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
gegebenen
\definitionsverweis {Wahrscheinlichkeitsdichte}{}{}
den
\definitionswort {Produktraum}{}
der Wahrscheinlichkeitsräume.
}
Häufig nimmt man in jeder Komponente den gleichen Wahrscheinlichkeitsraum $M$, etwa, wenn man die $n$-fache Hintereinanderausführung eines Experimentes untersuchen möchte. Für den Produktraum schreibt man dann kurz
\mathl{M^n}{.}
\inputbeispiel{}
{
Es soll zehnmal mit einer Münze hintereinander geworfen werden. Mit dem Grundraum
\mavergleichskettedisp
{\vergleichskette
{M
}
{ =} { \{ K,Z \}
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
wird dies dann mit dem Produktraum
\mavergleichskettedisp
{\vergleichskette
{N
}
{ =} {M^{10}
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
beschrieben, die Elemente im Produktraum dokumentieren einen möglichen Ausgang des Gesamtexperimentes, es handelt sich um sämtliche Kombinationen der Länge $10$ aus
\mathkor {} {K} {oder} {Z} {,}
\anfuehrung{typische}{} Elemente sind
\mathdisp {(Z,Z,K,Z,K,K,Z,K,K ,Z),\, (K,K,Z,K,K,K, Z,K,Z,K),\, (Z,Z,Z,Z,Z,Z, Z,Z,Z,Z)} { . }
Diese haben alle die Wahrscheinlichkeit
\mavergleichskettedisp
{\vergleichskette
{ { \left( { \frac{ 1 }{ 2 } } \right) }^{10}
}
{ =} { { \frac{ 1 }{ 2^{10} } }
}
{ } {
}
{ } {
}
{ } {}
}
{}{}{.}
}
\inputfaktbeweis
{Endliche Wahrscheinlichkeitsräume/Produktmenge/Rechenregeln/Fakt}
{Lemma}
{}
{
\faktsituation {Es seien
\mathl{(M_1, \mu_1) , \ldots , (M_n, \mu_n)}{}
\definitionsverweis {endliche Wahrscheinlichkeitsräume}{}{}
und
\mavergleichskettedisp
{\vergleichskette
{M
}
{ =} { M_1 \times \cdots \times M_n
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
der
\definitionsverweis {Produktraum}{}{.}}
\faktuebergang {Dann gelten folgende Aussagen.}
\faktfolgerung {\aufzaehlungzwei {Der
\definitionsverweis {Produktraum}{}{}
ist in der Tat ein
\definitionsverweis {Wahrscheinlichkeitsraum}{}{.}
} {Für Teilmengen
\mathl{T_1 \subseteq M_1 , \ldots , T_n \subseteq M_n}{} ist
\mavergleichskettedisp
{\vergleichskette
{\mu (T_1 \times \cdots \times T_n)
}
{ =} { \mu_1(T_1) \cdots \mu_n (T_n)
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
}}
\faktzusatz {}
\faktzusatz {}
}
{
Es seien $f_i$ die zugehörigen Wahrscheinlichkeitsdichten.
\aufzaehlungzwei {Unter Verwendung des allgemeinen Distributivgesetzes in der Form von
Aufgabe 11.8
gilt
\mavergleichskettealign
{\vergleichskettealign
{ \sum_{x \in M } f(x)
}
{ =} { \sum_{ (x_1 , \ldots , x_n) \in M_1 \times \cdots \times M_n } f_1(x_1) \cdots f_n(x_n)
}
{ =} { { \left( \sum_{ x_1 \in M_1 } f_1(x_1) \right) } \cdots { \left( \sum_{ x_n \in M_n } f_n(x_n ) \right) }
}
{ =} { 1 \cdots 1
}
{ =} {1
}
}
{}
{}{.}
} {Es ist entsprechend
\mavergleichskettealignhandlinks
{\vergleichskettealignhandlinks
{\mu (T_1 \times \cdots \times T_n)
}
{ =} { \sum_{x \in T_1 \times \cdots \times T_n } f(x)
}
{ =} { \sum_{ (x_1 , \ldots , x_n) \in T_1 \times \cdots \times T_n } f_1(x_1) \cdots f_n(x_n)
}
{ =} { { \left( \sum_{ x_1 \in T_1 } f_1(x_1) \right) } \cdots { \left( \sum_{ x_n \in T_n } f_n(x_n ) \right) }
}
{ =} {\mu_1(T_1) \cdots \mu_n (T_n)
}
}
{}
{}{.}
}
\inputbemerkung
{}
{
Zu
\definitionsverweis {Laplace-Räumen}{}{}
\mathl{(M_1, \mu_1) , \ldots , (M_n, \mu_n)}{} mit
\mavergleichskettedisp
{\vergleichskette
{ { \# \left( M_i \right) }
}
{ =} { k_i
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
ist der
\definitionsverweis {Produktraum}{}{}
\mathl{M_1 \times \cdots \times M_n}{} ebenfalls ein Laplace-Raum mit
\mathl{k_1 \cdots k_n}{} Elementen. Dies ergibt sich unmittelbar aus der Definition des Produktraumes und aus
Satz 9.6.
}
\zwischenueberschrift{Die Binomialverteilung}
\bild{ \begin{center}
\includegraphics[width=5.5cm]{\bildeinlesung {Arbre binaire loi binomiale.svg} }
\end{center}
\bildtext {} }
\bildlizenz { Arbre binaire loi binomiale.svg } {} {Cdang} {Commons} {CC-by-sa 3.0} {}
\inputdefinition
{}
{
Es sei
\mavergleichskette
{\vergleichskette
{ p
}
{ \in }{ [0,1]
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
und
\mavergleichskette
{\vergleichskette
{ n
}
{ \in }{ \N
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{.}
Die endliche Wahrscheinlichkeitsdichte $B_{p,n}$ auf
\mavergleichskette
{\vergleichskette
{M
}
{ = }{ \{ 0,1 , \ldots , n \}
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
mit
\mavergleichskettedisp
{\vergleichskette
{ B_{p,n} (k)
}
{ =} { \binom { n } { k } p^k (1-p)^{n-k}
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
heißt
\definitionswort {Binomialverteilung}{}
zur Stichprobenlänge $n$ und zur Erfolgswahrscheinlichkeit $p$.
}
\inputfaktbeweis
{Binomialverteilung/Diskrete Wahrscheinlichkeitsdichte/Fakt}
{Lemma}
{}
{
\faktsituation {Die
\definitionsverweis {Binomialverteilung}{}{}
zu
\mavergleichskette
{\vergleichskette
{ p
}
{ \in }{ [0,1]
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}}
\faktfolgerung {ist eine
\definitionsverweis {Wahrscheinlichkeitsdichte}{}{}
auf
\mathl{\{ 0,1 , \ldots , n \}}{.}}
\faktzusatz {}
\faktzusatz {}
}
{
Wir müssen lediglich nachweisen, dass
\mavergleichskettedisp
{\vergleichskette
{ \sum_{k = 0}^n B_{p,n} (k)
}
{ =} {1
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
ist. Nach
dem binomischen Lehrsatz
ist
\mavergleichskettealign
{\vergleichskettealign
{1
}
{ =} { 1^n
}
{ =} { (p +(1-p))^n
}
{ =} { \sum_{ k = 0}^n \binom { n } { k } p^k (1-p)^{n-k}
}
{ =} { \sum_{k = 0}^n B_{p,n} (k)
}
}
{}
{}{,}
was die Behauptung bestätigt.
\inputfaktbeweis
{Bernoulli-Verteilung/Produktmenge/Binomialverteilung/Fakt}
{Lemma}
{}
{
\faktsituation {Es sei
\mavergleichskette
{\vergleichskette
{M
}
{ = }{\{0,1\}
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
mit der Bernoulli-Verteilung zur Wahrscheinlichkeit $p$ versehen und es sei
\mavergleichskette
{\vergleichskette
{n
}
{ \in }{\N_+
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{.}
Es sei
\mavergleichskettedisp
{\vergleichskette
{N
}
{ =} {M^n
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
das $n$-fache
\definitionsverweis {Produkt}{}{}
von $M$ mit sich selbst.}
\faktfolgerung {Dann besitzt zu
\mavergleichskette
{\vergleichskette
{k
}
{ \in }{ \{ 0,1 , \ldots , n \}
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
das Ereignis
\mavergleichskettedisp
{\vergleichskette
{E_k
}
{ =} { { \left\{ { \left( x_1 , \ldots , x_n \right) } \in M^n \mid \sum_{i = 1}^n x_i = k \right\} }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
die Wahrscheinlichkeit
\mavergleichskettedisp
{\vergleichskette
{B_{p,n} (k)
}
{ =} { \binom { n } { k } p^k (1-p)^{n-k}
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}}
\faktzusatz {}
\faktzusatz {}
}
{
Da jedes $x_i$ nur den Wert
\mathkor {} {0} {oder} {1} {}
haben kann, gilt
\mavergleichskette
{\vergleichskette
{\sum_{i = 1}^n x_i
}
{ = }{k
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
genau dann, wenn in
\mavergleichskettedisp
{\vergleichskette
{x
}
{ =} { \left( x_1 , \, \ldots , \, x_n \right)
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{}
genau $k$-fach eine $1$
\zusatzklammer {und \mathlk{n-k}{-}fach eine $0$ steht} {} {.}
Diese Tupel entsprechen den $k$-elementigen Teilmengen von
\mathl{{ \{ 1 , \ldots , n \} }}{,} davon gibt es nach
Satz 13.6
\mathl{\binom { n } { k }}{} Stück. Die Wahrscheinlichkeit für ein solches einzelnes Tupel von diesem Typ ist nach der Definition der Produktwahrscheinlichkeit gleich
\mathl{p^k (1-p)^{n-k}}{.} Somit ist die Gesamtwahrscheinlichkeit von $E_k$ gleich
\mathdisp {\binom { n } { k } p^k (1-p)^{n-k}} { . }
\inputfaktbeweis
{Experiment/Hintereinanderausführung/Binomialverteilung/Fakt}
{Satz}
{}
{
\faktsituation {Es sei ein Experiment gegeben, das nur die Werte $0$ und $1$ annehmen kann und bei dem der Wert $1$ die Wahrscheinlichkeit $p$ besitzt.}
\faktfolgerung {Dann ist die Verteilung auf
\mathl{\{ 0,1 , \ldots , n \}}{,} die die Wahrscheinlichkeit beschreibt, dass bei der $n$-fachen
\zusatzklammer {unabhängigen} {} {}
Hintereinaderausführung des Experimentes $k$-fach das Ereignis $1$ eintritt, durch die
\definitionsverweis {Binomialverteilung}{}{}
zur Stichprobenlänge $n$ und zur Erfolgswahrscheinlichkeit $p$ gegeben.}
\faktzusatz {}
\faktzusatz {}
}
{
Das Experiment wird durch die
\definitionsverweis {Bernoulli-Verteilung}{}{}
auf
\mavergleichskette
{\vergleichskette
{M
}
{ = }{ \{0,1\}
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
mit der Erfolgswahrscheinlichkeit $p$ beschrieben. Die $n$-fache Hintereinanderausführung wird somit durch den
\definitionsverweis {Produktraum}{}{}
$M^n$ beschrieben. Das Ereignis
\mavergleichskettedisp
{\vergleichskette
{E_k
}
{ \subseteq} {M^n
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{,}
das beschreibt, dass genau $k$-fach $1$ eintritt, besitzt nach
Lemma 56.8
die Wahrscheinlichkeit
\mavergleichskettedisp
{\vergleichskette
{B_{p,n} (k)
}
{ =} { \binom { n } { k } p^k (1-p)^{n-k}
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
\inputfaktbeweis
{Münzwurf/Binomialverteilung/Fakt}
{Korollar}
{}
{
\faktsituation {Die Wahrscheinlichkeit, dass bei einem $n$-fachen Münzwurf genau $k$-fach Kopf fällt,}
\faktfolgerung {beträgt
\mavergleichskettedisp
{\vergleichskette
{B_{ { \frac{ 1 }{ 2 } },n } (k)
}
{ =} { { \frac{ \binom { n } { k } }{ 2^n } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}}
\faktzusatz {}
\faktzusatz {}
}
{
Dies folgt unmittelbar aus
Satz 56.9,
da bei
\mavergleichskette
{\vergleichskette
{p
}
{ = }{ { \frac{ 1 }{ 2 } }
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
die Gleichheit
\mavergleichskettedisp
{\vergleichskette
{p^k (1-p)^{n-k}
}
{ =} { { \left( { \frac{ 1 }{ 2 } } \right) }^k \cdot { \left( { \frac{ 1 }{ 2 } } \right) }^{n-k}
}
{ =} { { \left( { \frac{ 1 }{ 2 } } \right) }^n
}
{ =} { { \frac{ 1 }{ 2^n } }
}
{ } {
}
}
{}{}{}
gilt.
\zwischenueberschrift{Das Gesetz der großen Zahlen}
\bild{ \begin{center}
\includegraphics[width=5.5cm]{\bildeinlesung {Jakob Bernoulli.jpeg} }
\end{center}
\bildtext {Jakob Bernoulli (1655-1705) bewies erstmals das Gesetz der großen Zahlen für den Münzwurf.} }
\bildlizenz { Jakob Bernoulli.jpeg } {} {File Upload Bot (Magnus Manske)} {Commons} {gemeinfrei} {}
In der Wahrscheinlichkeitstheorie interessiert man sich häufig für asymptotische Aussagen. Dass bei einem einzelnen Münzwurf Kopf und Zahl gleichwahrscheinlich ist, ist eine plausible Definition, aber selbst noch nicht sehr aussagestark. Eine gehaltvolle Aussage wird erst dann daraus, wenn man zeigen kann, dass bei einer häufigen Wiederholung des Experimentes die relative Häufigkeit, wie oft Kopf fällt, sich in der Nähe von ${ \frac{ 1 }{ 2 } } n$ befindet, wenn $n$ die Anzahl der Wiederholungen bezeichnet. In diesem Kontext ist es zunächst wichtig, sich klar zu machen, was eine sinnvolle Formulierung sein könnte und wie hier \anfuehrung{in der Nähe von}{} zu verstehen ist. Insbesondere muss man sich klar machen, was zu viel erwartet wäre. Beispielsweise ist die Wahrscheinlichkeit, dass bei einem $n$-fachen Münzwurf
\zusatzklammer {mit $n$ gerade} {} {}
genau $n/2$-oft Kopf fällt, gleich
\mathl{{ \frac{ \binom { n } { n/2 } }{ 2^n } }}{} nach
Korollar 56.10.
Dies ist wahrscheinlicher als jedes andere Ergebnis für die Anzahl der Kopfwürfe. Wenn aber $n$ gegen unendlich strebt, so wird diese Wahrscheinlichkeit beliebig klein, sie konvergiert gegen $0$. Auch wenn man einen gewissen Abstand zu der Mitte $n/2$ fixiert, wie wenn man sagt, dass die Anzahl der Kopfwürfe zwischen
\mathkor {} {n/2 -10} {und} {n/2+10} {}
liegen soll, so geht die Wahrscheinlichkeit dafür gegen $0$ für $n$ gegen unendlich. Dies klingt einleuchtend, wenn man ein sehr großes $n$ betrachtet. Dass bei einer Million an Münzwürfen die Kopfanzahl im
\zusatzklammer {relativ gesehen kleinen} {} {}
Intervall
\mathl{[499 990, 5000 010]}{} liegen soll, ist doch nicht zu erwarten. Anders sieht es aus, wenn man \anfuehrung{in der Nähe von }{} anteilig bzw. prozentual versteht. Wenn man sich Intervalle der Form
\mathdisp {[ { \frac{ n }{ 2 } } - { \frac{ n }{ 10 } }, { \frac{ n }{ 2 } } + { \frac{ n }{ 10 } } ]} { }
anschaut, so sind dies für einige Zehnerpotenzen die Intervalle
\mathl{[4,6]}{,}
\mathl{[40,60]}{,}
\mathl{[400,600]}{,}
\mathl{[400 000, 600 000]}{,} und unser stochastisches Gefühl sagt uns, dass die Wahrscheinlichkeiten zunehmend größer werden, dass die Anzahlen der Kopfwürfe in diesen Intervallen liegen. Diese Beobachtung wird durch das \stichwort {Gesetz der großen Zahlen} {} präzisiert. Es gibt eine ganze Reihe von Aussagen unter diesem Namen, wir beschränken uns auf den Fall eines Münzwurfes. Das folgende Lemma beinhaltet die entscheidenden Abschätzungen, um das Gesetz der großen Zahlen für den Münzwurf zu beweisen. Zur Orientierung: Im zuletzt erwähnten Beispiel muss man
\mavergleichskette
{\vergleichskette
{ \beta
}
{ = }{ 0,1
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
nehmen, es ist
\mavergleichskette
{\vergleichskette
{n
}
{ = }{ 1 000 000
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
und
\mavergleichskette
{\vergleichskette
{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor
}
{ = }{ 400 000
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{.}
Der Beweis liefert eine Abschätzung nach oben dafür, dass bei einem millionenfachen Münzwurf höchstens
\mathl{400 000}{-}mal Zahl geworfen wird.
\inputfaktbeweis
{Binomialkoeffizient/Abschätzung zum Mittelpunkt/Summe/Fakt}
{Lemma}
{}
{
\faktsituation {Es sei
\mavergleichskette
{\vergleichskette
{ \beta
}
{ \in }{ \R
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{,}
\mavergleichskette
{\vergleichskette
{ 0
}
{ < }{ \beta
}
{ < }{ { \frac{ 1 }{ 2 } }
}
{ }{
}
{ }{
}
}
{}{}{,}
fixiert und
\mavergleichskette
{\vergleichskette
{ n
}
{ \in }{ \N
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}
gerade.}
\faktuebergang {Dann gelten folgende Aussagen.}
\faktfolgerung {\aufzaehlungvier{Es ist
\mathl{{ \frac{ \binom { n } { n/2 } }{ 2^n } } \rightarrow 0}{} für
\mathl{n \rightarrow \infty}{.}
}{Es ist
\mavergleichskettedisp
{\vergleichskette
{ \binom { n } { { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }
}
{ \leq} { { \left( { \left( { \frac{ 1 }{ 1 + 2 \beta } } \right) }^{ \beta} \right) }^{ n } \cdot \binom { n } { { \frac{ n }{ 2 } } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
}{Es ist
\mavergleichskettedisphandlinks
{\vergleichskettedisphandlinks
{ \sum_{k = 0}^{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor } \binom { n } { k }
}
{ \leq} { { \left( { \frac{ n }{ 2 } } + 1 - \left \lfloor \beta n \right \rfloor \right) } \cdot { \left( { \left( { \frac{ 1 }{ 1+ 2\beta } } \right) }^\beta \right) }^{n} \cdot \binom { n } { { \frac{ n }{ 2 } } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
}{Für $n \rightarrow \infty$ konvergiert der Ausdruck
\mathdisp {{ \frac{ 1 }{ 2^n } } { \left( \sum_{k = 0}^{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor } \binom { n } { k } \right) }} { }
gegen $0$.
}}
\faktzusatz {}
\faktzusatz {}
}
{
\aufzaehlungvier{Siehe
Aufgabe 56.18.
}{Nach
Aufgabe 13.18
ist
\mavergleichskettedisp
{\vergleichskette
{ \binom { n } { k+1 }
}
{ =} { { \frac{ n-k }{ k+1 } } \cdot \binom { n } { k }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
Somit besteht zwischen
\mathkor {} {\binom { n } { { \frac{ 1 }{ 2 } } n }} {und} {\binom { n } { { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }} {}
der Zusammenhang
\mavergleichskettealign
{\vergleichskettealign
{ \binom { n } { { \frac{ n }{ 2 } } }
}
{ =} { { \frac{ { \frac{ n }{ 2 } } +1 }{ { \frac{ n }{ 2 } } } } \cdot \binom { n } { { \frac{ n }{ 2 } } -1 }
}
{ =} { { \frac{ { \frac{ n }{ 2 } } +1 }{ { \frac{ n }{ 2 } } } } \cdot { \frac{ { \frac{ n }{ 2 } } +2 }{ { \frac{ n }{ 2 } } -1 } } \cdot \binom { n } { { \frac{ n }{ 2 } } -2 }
}
{ =} { { \frac{ { \frac{ n }{ 2 } } +1 }{ { \frac{ n }{ 2 } } } } \cdot { \frac{ { \frac{ n }{ 2 } } +2 }{ { \frac{ n }{ 2 } } -1 } } \cdots { \frac{ { \frac{ n }{ 2 } } + \left \lfloor \beta n \right \rfloor +1 }{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor } } \cdot \binom { n } { { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }
}
{ } {
}
}
{}
{}{.}
Dies bedeutet umgekehrt
\mavergleichskettealignhandlinks
{\vergleichskettealignhandlinks
{ \binom { n } { { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }
}
{ =} { { \frac{ { \frac{ n }{ 2 } } }{ { \frac{ n }{ 2 } } +1 } } \cdot { \frac{ { \frac{ n }{ 2 } } -1 }{ { \frac{ n }{ 2 } } +2 } } \cdots { \frac{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }{ { \frac{ n }{ 2 } } + \left \lfloor \beta n \right \rfloor +1 } } \cdot \binom { n } { { \frac{ n }{ 2 } } }
}
{ =} { { \frac{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }{ { \frac{ n }{ 2 } } +1 } } \cdot { \frac{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor +1 }{ { \frac{ n }{ 2 } } +2 } } \cdots { \frac{ { \frac{ n }{ 2 } } }{ { \frac{ n }{ 2 } } + \left \lfloor \beta n \right \rfloor +1 } } \cdot \binom { n } { { \frac{ n }{ 2 } } }
}
{ } {
}
{ } {
}
}
{}
{}{.}
Die Faktoren sind alle von der Form
\mathdisp {{ \frac{ { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor -1 +i }{ { \frac{ n }{ 2 } } +i } }} { }
mit
\mavergleichskette
{\vergleichskette
{i
}
{ = }{ 1 , \ldots , \left \lfloor \beta n \right \rfloor + 1
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{.}
Sie sind alle $<1$ und für das maximale $i$, also für
\mathl{\left \lfloor \beta n \right \rfloor +1}{,} am größten. Da es
\mathl{\left \lfloor \beta n \right \rfloor +1}{} viele Faktoren gibt, kann man das Produkt unter Verwendung von
Lemma 25.18 (1),
Lemma 53.5 (6)
und
Lemma 53.5 (8)
durch
\mavergleichskettealign
{\vergleichskettealign
{ { \left( { \frac{ { \frac{ n }{ 2 } } }{ { \frac{ n }{ 2 } } + \left \lfloor \beta n \right \rfloor +1 } } \right) }^{ \left \lfloor \beta n \right \rfloor +1 }
}
{ \leq} { { \left( { \frac{ { \frac{ n }{ 2 } } }{ { \frac{ n }{ 2 } } + \beta n } } \right) }^{ \left \lfloor \beta n \right \rfloor +1 }
}
{ \leq} { { \left( { \frac{ { \frac{ n }{ 2 } } }{ { \frac{ n }{ 2 } } + \beta n } } \right) }^{ \beta n }
}
{ =} { { \left( { \frac{ { \frac{ 1 }{ 2 } } }{ { \frac{ 1 }{ 2 } } + \beta } } \right) }^{ \beta n }
}
{ =} { { \left( { \left( { \frac{ 1 }{ 1 + 2 \beta } } \right) }^{ \beta} \right) }^{ n }
}
}
{}
{}{}
nach oben abschätzen. Also ist
\mavergleichskettedisp
{\vergleichskette
{ \binom { n } { { \frac{ n }{ 2 } } - \left \lfloor \beta n \right \rfloor }
}
{ \leq} { { \left( { \left( { \frac{ 1 }{ 1 + 2 \beta } } \right) }^{ \beta} \right) }^{ n } \cdot \binom { n } { { \frac{ n }{ 2 } } }
}
{ } {
}
{ } {
}
{ } {
}
}
{}{}{.}
}{Dies folgt aus (2), da die Binomialkoeffizienten in diesem Bereich wachsend sind und da es
\mathl{{ \left( { \frac{ n }{ 2 } } + 1 - \left \lfloor \beta n \right \rfloor \right) }}{} Summanden gibt.
}{Nach (1) konvergiert
\mathl{{ \frac{ \binom { n } { n/2 } }{ 2^n } }}{} gegen $0$. Nach (3) genügt es daher, zu zeigen, dass
\mathdisp {{ \left( { \frac{ n }{ 2 } } + 1 - \left \lfloor \beta n \right \rfloor \right) } { \left( { \left( { \frac{ 1 }{ 1+ 2\beta } } \right) }^\beta \right) }^{n}} { }
gegen $0$ konvergiert. Dieser Ausdruck ist aber
\zusatzklammer {beschränkt durch} {} {}
von der Form
\mathdisp {n \cdot \gamma^n} { }
mit
\mavergleichskette
{\vergleichskette
{\gamma
}
{ < }{1
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{,}
also nach
Satz 27.12
konvergent gegen $0$.
}
\bild{ \begin{center}
\includegraphics[width=5.5cm]{\bildeinlesung {De moivre-laplace.gif} }
\end{center}
\bildtext {Die geeignet normierte Binomialverteilung zu ${ \frac{ 1 }{ 2 } }$ \anfuehrung{konvergiert}{} gegen die sogenannte Normalverteilung.} }
\bildlizenz { De moivre-laplace.gif } {} {Stpasha} {Commons} {gemeinfrei} {}
\inputfaktbeweis
{Binomialverteilung/Münzwurf/Gesetz der großen Zahlen/Fakt}
{Satz}
{}
{
\faktsituation {Zu jedem
\mavergleichskette
{\vergleichskette
{\alpha
}
{ < }{ { \frac{ 1 }{ 2 } }
}
{ }{
}
{ }{
}
{ }{
}
}
{}{}{}}
\faktfolgerung {\definitionsverweis {konvergiert}{}{}
die Folge
\mathdisp {{ \frac{ 1 }{ 2^n } } { \left( \sum_{k = 0}^{\lfloor \alpha n \rfloor } B_{ { \frac{ 1 }{ 2 } },n } (k) \right) }} { }
gegen $0$.}
\faktzusatz {Das bedeutet, dass die relative Häufigkeit bei einem $n$-fach wiederholten
\definitionsverweis {Bernoulli-Experiment}{}{}
zur Wahrscheinlichkeit ${ \frac{ 1 }{ 2 } }$ bei $n$ hinreichend groß mit beliebig hoher Wahrscheinlichkeit im Intervall
\mathl{[\alpha n, (1-\alpha )n]}{} liegt.}
\faktzusatz {}
}
{
Wir schreiben
\mavergleichskettedisp
{\vergleichskette
{\beta
}
{ =} { { \frac{ 1 }{ 2 } } - \alpha
}
{ >} {0
}
{ } {
}
{ } {
}
}
{}{}{.}
Somit ergibt sich die Aussage direkt aus
Lemma 56.11 (4).