Wir geben hier einen weiteren Beweis für das Gesetz der großen Zahlen, der näher am üblichen wahrscheinlichkeitstheoretischen Zugang liegt als der in der Vorlesung gegebene. Allerdings werden wir die Konzepte Zufallsvariable, Erwartungswert, Varianz nur versteckt verwenden. Alles bezieht sich auf die Hintereinanderausführung eines Bernoulli-Experimentes zur Erfolgswahrscheinlichkeit
p
{\displaystyle {}p}
. Die Wahrscheinlichkeit von Ereignissen in den zugehörigen Produkträumen bezeichnen wir mit
P
{\displaystyle {}P}
.
Es liege eine Bernoulli-Verteilung auf
{
0
,
1
}
{\displaystyle {}\{0,1\}}
mit der Wahrscheinlichkeit
p
{\displaystyle {}p}
für
1
{\displaystyle {}1}
vor. Dann gelten folgende Aussagen.
Es ist
∑
x
∈
{
0
,
1
}
(
x
−
p
)
2
⋅
P
(
x
)
=
p
(
1
−
p
)
.
{\displaystyle {}\sum _{x\in \{0,1\}}(x-p)^{2}\cdot P(x)=p(1-p)\,.}
Es ist
∑
(
x
,
y
)
∈
{
0
,
1
}
×
{
0
,
1
}
(
x
−
p
)
(
y
−
p
)
⋅
P
(
x
,
y
)
=
0
.
{\displaystyle {}\sum _{(x,y)\in \{0,1\}\times \{0,1\}}(x-p)(y-p)\cdot P(x,y)=0\,.}
Es ist
P
(
x
,
y
)
=
P
(
x
)
⋅
P
(
y
)
.
{\displaystyle {}P(x,y)=P(x)\cdot P(y)\,.}
Somit ist
∑
x
∈
{
0
,
1
}
(
x
−
p
)
2
⋅
P
(
x
)
=
p
2
(
1
−
p
)
+
(
1
−
p
)
2
p
=
p
(
1
−
p
)
(
p
+
1
−
p
)
=
p
(
1
−
p
)
.
{\displaystyle {}\sum _{x\in \{0,1\}}(x-p)^{2}\cdot P(x)=p^{2}(1-p)+(1-p)^{2}p=p(1-p)(p+1-p)=p(1-p)\,.}
Es ist
∑
(
x
,
y
)
∈
{
0
,
1
}
×
{
0
,
1
}
(
x
−
p
)
(
y
−
p
)
⋅
P
(
x
,
y
)
=
p
2
(
1
−
p
)
(
1
−
p
)
−
2
p
(
1
−
p
)
p
(
1
−
p
)
+
(
1
−
p
)
(
1
−
p
)
p
2
=
0
.
{\displaystyle {}\sum _{(x,y)\in \{0,1\}\times \{0,1\}}(x-p)(y-p)\cdot P(x,y)=p^{2}(1-p)(1-p)-2p(1-p)p(1-p)+(1-p)(1-p)p^{2}=0\,.}
◻
{\displaystyle \Box }
Dann ist
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
=
1
n
x
i
−
n
p
)
2
P
(
x
1
,
x
2
,
…
,
x
n
)
=
n
p
(
1
−
p
)
{\displaystyle {}\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i=1}^{n}x_{i}-np\right)}^{2}P(x_{1},x_{2},\ldots ,x_{n})=np(1-p)\,}
und
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
1
n
∑
i
=
1
n
x
i
−
p
)
2
P
(
x
1
,
x
2
,
…
,
x
n
)
=
p
(
1
−
p
)
n
.
{\displaystyle {}\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p\right)}^{2}P(x_{1},x_{2},\ldots ,x_{n})={\frac {p(1-p)}{n}}\,.}
Die zweite Aussage folgt unmittelbar aus der ersten durch Multiplikation mit
1
n
2
{\displaystyle {}{\frac {1}{n^{2}}}}
. Es ist
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
=
1
n
x
i
−
n
p
)
2
P
(
x
1
,
x
2
,
…
,
x
n
)
=
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
x
1
−
p
+
x
2
−
p
+
⋯
+
x
n
−
p
)
2
P
(
x
1
,
x
2
,
…
,
x
n
)
=
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
=
1
n
(
x
i
−
p
)
2
+
2
∑
i
<
j
(
x
i
−
p
)
(
x
j
−
p
)
)
P
(
x
1
,
x
2
,
…
,
x
n
)
=
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
=
1
n
(
x
i
−
p
)
2
)
P
(
x
1
,
x
2
,
…
,
x
n
)
+
2
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
<
j
(
x
i
−
p
)
(
x
j
−
p
)
)
P
(
x
1
,
x
2
,
…
,
x
n
)
.
{\displaystyle {}{\begin{aligned}\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i=1}^{n}x_{i}-np\right)}^{2}P(x_{1},x_{2},\ldots ,x_{n})&=\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(x_{1}-p+x_{2}-p+\cdots +x_{n}-p\right)}^{2}P(x_{1},x_{2},\ldots ,x_{n})\\&=\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i=1}^{n}(x_{i}-p)^{2}+2\sum _{i<j}(x_{i}-p)(x_{j}-p)\right)}P(x_{1},x_{2},\ldots ,x_{n})\\&=\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i=1}^{n}(x_{i}-p)^{2}\right)}P(x_{1},x_{2},\ldots ,x_{n})+2\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i<j}(x_{i}-p)(x_{j}-p)\right)}P(x_{1},x_{2},\ldots ,x_{n}).\end{aligned}}}
Für die vordere Summe ist
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
=
1
n
(
x
i
−
p
)
2
)
P
(
x
1
,
x
2
,
…
,
x
n
)
=
∑
i
=
1
n
(
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
x
i
−
p
)
2
⋅
P
(
x
1
,
x
2
,
…
,
x
n
)
)
=
∑
i
=
1
n
(
∑
(
x
1
,
…
,
x
i
−
1
,
x
i
,
…
,
x
n
)
∈
{
0
,
1
}
n
−
1
(
∑
x
i
∈
{
0
,
1
}
(
x
i
−
p
)
2
⋅
P
(
x
i
)
)
∏
k
≠
i
P
(
x
k
)
)
=
∑
i
=
1
n
(
∑
x
i
∈
{
0
,
1
}
(
x
i
−
p
)
2
⋅
P
(
x
i
)
)
=
∑
i
=
1
n
p
(
1
−
p
)
=
n
p
(
1
−
p
)
{\displaystyle {}{\begin{aligned}\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i=1}^{n}(x_{i}-p)^{2}\right)}P(x_{1},x_{2},\ldots ,x_{n})&=\sum _{i=1}^{n}{\left(\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}(x_{i}-p)^{2}\cdot P(x_{1},x_{2},\ldots ,x_{n})\right)}\\&=\sum _{i=1}^{n}{\left(\sum _{(x_{1},\ldots ,x_{i-1},x_{i},\ldots ,x_{n})\in \{0,1\}^{n-1}}{\left(\sum _{x_{i}\in \{0,1\}}(x_{i}-p)^{2}\cdot P(x_{i})\right)}\prod _{k\neq i}P(x_{k})\right)}\\&=\sum _{i=1}^{n}{\left(\sum _{x_{i}\in \{0,1\}}(x_{i}-p)^{2}\cdot P(x_{i})\right)}\\&=\sum _{i=1}^{n}p(1-p)\\&=np(1-p)\end{aligned}}}
nach
Fakt (1) .
Für die hintere Summe ist
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
∑
i
<
j
(
x
i
−
p
)
(
x
j
−
p
)
)
P
(
x
1
,
x
2
,
…
,
x
n
)
=
∑
i
<
j
(
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
x
i
−
p
)
(
x
j
−
p
)
P
(
x
1
,
x
2
,
…
,
x
n
)
)
=
∑
i
<
j
(
∑
(
x
1
,
…
,
x
i
−
1
,
x
i
+
1
,
…
,
x
j
−
1
,
x
j
+
1
,
…
,
x
n
)
∈
{
0
,
1
}
n
−
2
(
∑
(
x
i
,
x
j
)
∈
{
0
,
1
}
2
(
x
i
−
p
)
(
x
j
−
p
)
P
(
x
i
)
P
(
x
j
)
)
∏
k
≠
i
,
j
P
(
x
k
)
)
=
0
{\displaystyle {}{\begin{aligned}\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left(\sum _{i<j}(x_{i}-p)(x_{j}-p)\right)}P(x_{1},x_{2},\ldots ,x_{n})&=\sum _{i<j}{\left(\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}(x_{i}-p)(x_{j}-p)P(x_{1},x_{2},\ldots ,x_{n})\right)}\\&=\sum _{i<j}{\left(\sum _{(x_{1},\ldots ,x_{i-1},x_{i+1},\ldots ,x_{j-1},x_{j+1},\ldots ,x_{n})\in \{0,1\}^{n-2}}{\left(\sum _{(x_{i},x_{j})\in \{0,1\}^{2}}(x_{i}-p)(x_{j}-p)P(x_{i})P(x_{j})\right)}\prod _{k\neq i,j}P(x_{k})\right)}\\&=0\end{aligned}}}
nach
Fakt (2) .
◻
{\displaystyle \Box }
Es ist
∑
(
x
1
,
x
2
,
…
,
x
n
)
∈
{
0
,
1
}
n
(
1
n
∑
i
=
1
n
x
i
−
p
)
2
P
(
x
1
,
x
2
,
…
,
x
n
)
≥
∑
{
(
x
1
,
…
,
x
n
)
∈
{
0
,
1
}
n
∣
|
1
n
∑
i
=
1
n
x
i
−
p
|
≥
ϵ
}
(
1
n
∑
i
=
1
n
x
i
−
p
)
2
P
(
x
1
,
…
,
x
n
)
≥
∑
{
(
x
1
,
…
,
x
n
)
∈
{
0
,
1
}
n
∣
|
1
n
∑
i
=
1
n
x
i
−
p
|
≥
ϵ
}
ϵ
2
P
(
x
1
,
…
,
x
n
)
=
ϵ
2
∑
{
(
x
1
,
…
,
x
n
)
∈
{
0
,
1
}
n
∣
|
1
n
∑
i
=
1
n
x
i
−
p
|
≥
ϵ
}
P
(
x
1
,
…
,
x
n
)
=
ϵ
2
⋅
P
(
{
(
x
1
,
…
,
x
n
)
∈
{
0
,
1
}
n
∣
|
1
n
∑
i
=
1
n
x
i
−
p
|
≥
ϵ
}
)
.
{\displaystyle {}{\begin{aligned}\sum _{(x_{1},x_{2},\ldots ,x_{n})\in \{0,1\}^{n}}{\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p\right)}^{2}P(x_{1},x_{2},\ldots ,x_{n})&\geq \sum _{\left\{(x_{1},\ldots ,x_{n})\in \{0,1\}^{n}\mid \vert {{\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p}\vert \geq \epsilon \right\}}{\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p\right)}^{2}P(x_{1},\ldots ,x_{n})\\&\geq \sum _{\left\{(x_{1},\ldots ,x_{n})\in \{0,1\}^{n}\mid \vert {{\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p}\vert \geq \epsilon \right\}}\epsilon ^{2}P(x_{1},\ldots ,x_{n})\\&=\epsilon ^{2}\sum _{\left\{(x_{1},\ldots ,x_{n})\in \{0,1\}^{n}\mid \vert {{\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p}\vert \geq \epsilon \right\}}P(x_{1},\ldots ,x_{n})\\&=\epsilon ^{2}\cdot P{\left({\left\{(x_{1},\ldots ,x_{n})\in \{0,1\}^{n}\mid \vert {{\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p}\vert \geq \epsilon \right\}}\right)}.\end{aligned}}}
Aus
Fakt
folgt somit die Behauptung.
◻
{\displaystyle \Box }
Bei einer
n
{\displaystyle {}n}
-fachen Durchführung eines Bernoulli-Experimentes ist die relative Häufigkeit die Anzahl der positiven Ausgänge dividiert durch die Anzahl
n
{\displaystyle {}n}
der Durchführungen. Wenn man für das Experiment den Bernoulli-Raum
{
0
,
1
}
{\displaystyle {}\{0,1\}}
mit
P
(
1
)
=
p
{\displaystyle {}P(1)=p}
ansetzt und die
n
{\displaystyle {}n}
-fache Hintereinanderausführung durch den Produktraum
{
0
,
1
}
n
{\displaystyle {}\{0,1\}^{n}}
beschreibt, so ist die relative Häufigkeit gleich
∑
i
=
1
n
x
i
n
{\displaystyle {}{\frac {\sum _{i=1}^{n}x_{i}}{n}}}
. Der Abstand zur Erfolgswahrscheinlichkeit ist somit
|
∑
i
=
1
n
x
i
n
−
p
|
.
{\displaystyle \vert {{\frac {\sum _{i=1}^{n}x_{i}}{n}}-p}\vert .}
Für die Wahrscheinlichkeit, dass dieser Abstand größer als
ϵ
{\displaystyle {}\epsilon }
ist, gibt es nach
Fakt
die Abschätzung
P
(
{
(
x
1
,
…
,
x
n
)
∈
{
0
,
1
}
n
∣
|
1
n
∑
i
=
1
n
x
i
−
p
|
≥
ϵ
}
)
≤
p
(
1
−
p
)
n
ϵ
2
.
{\displaystyle {}P{\left({\left\{(x_{1},\ldots ,x_{n})\in \{0,1\}^{n}\mid \vert {{\frac {1}{n}}\sum _{i=1}^{n}x_{i}-p}\vert \geq \epsilon \right\}}\right)}\leq {\frac {p(1-p)}{n\epsilon ^{2}}}\,.}
Für
n
{\displaystyle {}n}
hinreichend groß wird die rechte Seite beliebig klein.
◻
{\displaystyle \Box }
Dies ergibt sich als ein Spezialfall von
Fakt ,
wenn man
α
=
1
2
−
ϵ
{\displaystyle {}\alpha ={\frac {1}{2}}-\epsilon }
ansetzt.
◻
{\displaystyle \Box }