Momente

Aus Wikiversity
Zur Navigation springen Zur Suche springen

Erwartungswert[Bearbeiten]

Vorbemerkung: Zwei Personen und vereinbaren ein Würfelspiel.

  • Ausgang '1': zahlt an 5€
  • Ausgang '2', ..., '6': zahlt an 1€

die Gewinnerwartung für die beiden Spieler beträgt hier Null: Erwarteter Gewinn von :

("faires Spiel")

Erwartungswert (Definition)[Bearbeiten]

Sei eine auf einem diskreten Wahrscheinlichkeitsraum definierte Zufallsvariable, dann heißt

Erwartungswert von , vorausgesetzt, dass . Falls , dann ist die Reihe in der Vorbemerkung absolut konvergent. (Die Fälle und werden also ausgeschlossen).

Satz[Bearbeiten]

Bezeichnet die Wahrscheinlichkeitsfunktion von auf , so gilt für eine auf definierte Zufallsvaraible :

(sofern

Beweis[Bearbeiten]

Es ist

[Großer Umordnungssatz für konvergente Reihen]

Bemerkungen[Bearbeiten]

1. Im Fall absoluter Konvergenz der Reihen (Beispiele oben) sagt man:

  • besitzt einen Erwartungswert, oder
  • der Erwartungswert von existiert.

Dies ist bei endlichen immer der Fall.

2. Schreibweise: Statt auch oder .

3. besitzt genau dann einen Erwartungswet, falls .

4. Aus dem Satz folgt: falls für alle .

Beispiel[Bearbeiten]

Ist , und ist die Gleichverteilung auf , so lautet der Erwartungswert

("arithmetisches Mittel")

[Der Erwartungswert der Augenzahl beim Würfeln ist 3,5.]

Beispiel[Bearbeiten]

Für die Indikatorvaraible eines Ereignisses gilt:

Eine direkte Folgerung aus der Behauptung ist der folgende Satz.

Satz[Bearbeiten]

Besitzen die Zufallsvaraiblen Erwartungswerte, so auch die Zufallsvariablen , und es gilt:

("Linearität")

Beispiel[Bearbeiten]

Für ein -verteiltes X gilt:

Beweismöglichkeiten[Bearbeiten]

1.

2. für die Binominalverteilung gilt mit . Dann ist

(wg. Linearität)

Der Erwartungswert von Funktionen einer Zufallsgröße berechnet sich wie folgt.

Satz[Bearbeiten]

Ist Zufallsgröße auf und eine Abbildung, dann gilt

[Falls die Reihe absolut konvergiert].

Beweis[Bearbeiten]

[Großer Umordnungssatz für absolut konvergente Reihen].

Gemäß der Behauptung gilt z.B.

usw.

Bemerkung[Bearbeiten]

Die rechte Seite der Behauptung kann man auch als schreiben. In der Tat, ist Wahrscheinlichkeitsfunktion auf und wird als Zufallsvaraible auf aufgefasst:

Satz[Bearbeiten]

Die Zufallsvariablen mögen unabhängig sein und Erwartungswerte besitzten. Dann besitzt auch einen Erwartungswert und es gilt

Beweis[Bearbeiten]

i) Zur Existenz von :

[Reihe links oben also absolut konvergent.]

ii) Die Gleiche Rechnung wie in i) ohne Betragsstriche liefert:

Es wurde angewandt: Doppelreihensatz und Umordnungssatz für Reihen mit nicht negativen Gliedern (in i)) und für absolut konvergente Reihen (in ii)).

Bemerkung[Bearbeiten]

1. Allgemein gilt für unabhängige Zufallsvaraiblen mit existierenden Erwartungswerten:

2. Bei fehlender Unabhängigkeit folgt aus nicht notwendigerweise .

Bedingter Erwartungswert (Definition)[Bearbeiten]

Sei diskreter Wahrscheinlichkeitsraum, Zufallsvaraible it existierendem Erwartungswert und mit . Dann heißt

der bedingte Erwartungswert von unter (der Bedingung) .[ ist die bedingte Wahrscheinlichkeitsverteilung auf unter .

Formeln zu Berechnung[Bearbeiten]

Bemerkung[Bearbeiten]

1. Da absolut konvergiert, so auch ; also existiert .

2. Spezialfälle:

3. Der hier eingeführte Begriff des bedingten Erwartungswertes spielt eine untergeordnete Rolle. In der allgemeinen Wahrscheinlichkeitstheorie definiert man bedingte Erwartungswerte der Art , Zufallsvaraible, welche von großer Wichtigkeit sind (jedoch hier in der Einführung nicht gebraucht werden).

Varianz, Kovarianz[Bearbeiten]

Der Erwartungswert dient als Maß der Zentralen Lage der Verteilung von . Wir definieren ein Streuungs- (Schwankungs-) Maß der Verteilung .

Varianz, Standardabweichung (Definition)[Bearbeiten]

Ist Zufallsvaraible auf und ist , so heißt Varianz von , und Standardabweichung von . Zur Existenz der Erwartungswerte siehe obigen Satz i).

Satz[Bearbeiten]

i) Falls , so auch , für alle . ii) Es gilt und genau dann, wenn und , fast überall.

Beweis[Bearbeiten]

i) Wegen gilt

Wegen gilt

.

ii) Die Darstellung , bzw. Formel 2 zur Varianz.

Formeln zur Varianz von X[Bearbeiten]

denn:

[allgemein: liefert die untere Gleichung.]

für

Bemerkung[Bearbeiten]

1. Denkt man sich als eine Massenverteilung (Gesamtmasse =1), so entspricht dem Schwerpunkt und dem Trägheitsmoment.

2. Ist eine Zufalls variable mit , so gilt für die sogenannte Standardisierte von , d.i. , .

Beispiel[Bearbeiten]

Gleichverteilung auf . Dann ist

Wir bilden nun Maße für den Zusammenhang zweier Zufallsvariablen und .

Kovarianz (Definition)[Bearbeiten]

Für Zufallsvariablen und auf mit definiert

a)

die Kovarianz von und und

b)

(sofern ) den Korrelationskoeffizienten von und .

c) und heißen unkorreliert, falls .

Zum Studium der Größen und benötien wir den folgenden Satz.

Satz[Bearbeiten]

Für die Zufallsvariablen mit gilt:

i)

ii) Cauchy-Schwarzsche-Ungleichung:

iii) Das Gleichheitszeichen in ii) gilt genau dann, wenn es Zahlen gibt mit und

( fast überall lin. abh.)

Beweis[Bearbeiten]

1. Aus der Ungleichung folgt , d.i. i).

2. Sei . Dann ist nach 2.2 i) für alle mit udn es gilt und das Gleichheitszeichen in der Cauchy-Schwarzschen-Ungleichung. Ferner ist die Gleichung erfüllt ( mit ).

3. Sei . Zunächst gilt für ein beliebiges :

(*)

Einsetzten von liefert:

oder

, d.h. die Cauchy-Schwarzsche Ungleichung.

Hier gilt das Gleichheitszeichen genau dann, wenn es in (*) gilt, d. h. wenn glt:

(**)

Aus (**) folgt über ii) die Gleichung aus iii) mit . Umgekehrt folgt auch aus iii) die Gleichung (**).

Folgerungen[Bearbeiten]

1. Aus

(+)

folgt also die Existenz des Erwartungswertes von : .

Im Fall der Unabhängigkeit der benötigen wir in 1.5 anstatt (+) nur .

Aus (+) folgt die Existenz der Kovarianz (). In der Tat, in der Formel

(++)

existieren gemäß 2.2 i) und i) sämtliche Erwartungswerte.

2. Formel (++) vereinfacht sich zur "Verschiebungsformel":

3. Setzt man in die Cauchy-Schwarzsche Ungleichung ein (anstatt ), so erhält man

d.h. es gilt .

4. genau dann, wenn

für alle mit .

Interpretation: ist ein Maß für den linearen Zusammenhang von und .

Eigenschaften der Varianz und Kovarianz[Bearbeiten]

Sei vorausgesetzt.

a)

Insbesondere:

für , .

b)

c)

Insbesondere gilt für paarweise unkorrelierte (d.h. , für ) die "Formel von Bienaymé":

d) unabhängig unkorreliert.

Beweis[Bearbeiten]

Zu c): Wegen der der letzten Formel im Abschnitt "Formeln zur Varianz von X" und a) können wir annehmen, dass . Dann gilt:

Zu d): unabhängig (Verschiebungsformel).

Erzeugende Funktionen[Bearbeiten]

Erzeugende Funktionen nützen bei der Berechnung von

  • Momenten
  • Faltung
  • Grenzwerten von Wahrscheinlicgkeiten

Erzeugende Funktion (Definition)[Bearbeiten]

Ist eine Zufallsvariable auf mit Werten in , so heißt

die erzeugende Funktion von [von ].

Wegen stellt eine Potenzreihe dar mit Konvergenzradius . Somit ist wohldefiniert und beliebig oft differenzierbar in .

Bemerkungen[Bearbeiten]

1. Wegen so dass die Zuordnung injektiv ist.

2. Man beachte auch die folgende Schreibweise: .

3. Für unabhängige Zufallsvariablen mit Werten in gilt:

Satz[Bearbeiten]

Sei eine Zufallsvariable mit Werten in .

a) Der (linksseitige) Grenzwert existiert genau dann, wenn existiert. In diesem Fall ist .

b) Es existiere . existiert genau dann, wenn existiert. In diesem Fall ist .

Beweis[Bearbeiten]

a) Zunächst gilt für :

i) Sei .

Also auch

.

ii) Sei . Für gilt:

Also auch beliebige :

und bei :

Aus i) und ii) ferner:

b) Vorbemerkung: genau dann, wenn .

Ausgehend von , zeigt man wie in a) die Gleichzeitige Existenz von und . In welchem Fall dann ist. Die Verschiebungsformel schließlich liefert .

Beispiel[Bearbeiten]

Sei -verteilt, so rechnet man mit .

,

Ableitung an der Stelle 1 liefert:

Seien unabhängige beziehungsweise -verteilte Zufallsvariablen. Aus Bemerkung 3 folgt:

d.h. ist die -Verteilung (mit Bemerkung 1), kurz:

Poissonverteilung (Beispiel)[Bearbeiten]

Ist -verteilt, so ist

.

Ableitung an der Stelle 1:

(Erwartungswert und Varianz jeweils gleich .

Sind und unabhängige, beziehungsweise -verteilte Zufallsvariablen, so gilt:

d.h. , mit Bemerkung 1.

Negative Binominalverteilung (Definition)[Bearbeiten]

[, setze ]

Eine Wahrscheinlichkeitsverteilung auf mit der Wahrscheinlichkeitsfunktion

heißt negative Binominalverteilung. Man kann auch schreiben

,

wobei .

Im Spezialfall spricht man von einer geometrischen Verteilung: .

Zählt die Anzahl der 'Misserfolge' 0 bis zum Auftreten des n-ten 'Erfolges' 1 (unabhängige Wiederholungen), so ist -verteilt, .

Man rechnet (Binomische Reihe)

[ , 'oversidpension']

Es gilt:

(n-mal verknüpft)

Grenzen von Wahrscheinlichkeitsverteilungen[Bearbeiten]

Notaion: Ist eine Wahrscheinlichkeitsfunktion auf , (), so bezeichnet , ihre erzeugende Funktion. Liegt eine Folge

von Wahrscheinlichkeitsfunktionen auf vor, so konvergieren die Wahrscheinlichkeiten bei genau dann, wenn die Folge der zugehörigen erzeugenden Funktionen

konvergiert. Genauer:

Stetigkeitssatz[Bearbeiten]

Gegeben sei eine Folge von Wahrscheinlichkeitsfunktionen aus , mit der der Folge der zugehörenden erzeugenden Funktionen. Dann existieren die Limiten

für alle genau dann, wenn der Limes

für alle existiert. In diesem Fall ist

Bemerkung[Bearbeiten]

Aus der ersten Formel folgt mit und ( bilden nicht notwendigerweise eine Wahrscheinlichkeitsfunktion).

Beweis[Bearbeiten]

i) Wir nehmen an und definieren durch . Wegen gilt für :

Zu wähle so groß, dass . Dann .

ii) Gelte nun die zweite Gleichung. Wir zeigen die erste sukzessive für .

Zunächst :

Für jeden Häufungspunkt der beschränkten Folge , gilt demnach:

, für alle

Wegen der Monotonie von existiert also , so dass die obige Gleichung bei liefert:

(*) .

Zu :

Aus der zweiten Gleichung folgt:

links: Potenzreihe mit als Anfangsglied, rechts: Differenzenquotient, der gegen bei konvergiert (!).

Analog zu :

Beispiel[Bearbeiten]

(Poissonverteilung als Grenzwert der negativen Binominalverteilung)

Nach der Definition lautet die erzeugende Funktion der gleich . Nun gehe , aber so, dass , genauer:

Es gibt ein mit (*) . die Erzeugende Funktion der lautet dann mit :

ist erzeugende Funktion der -Verteilung. Also folgt aus dem Stetigkeitssatz:

, unter (*), .

Interpretation[Bearbeiten]

Für große ist die Anzahl der auftretenden Ereignisse ('Misserfolge') in einer langen beobachtungsperiode, wobei eine sehr kleine Auftrittswahrscheinlichkeit hat.

Bemerkung[Bearbeiten]

Die Anwendung des Stetigkeitssatzes ist auf alle Fälle beschränkt, in denen die 'Grenzverteilung' die diskrete Wahrscheinlichkeitsverteilung ist. Der wichtigste Fall ist dabei gerade der mit einer 'stetigen Grenzverteilung' (später), so dass wir dort einen anderen Stetigketissatz benötigen werden.

Approximation der Binominalverteilung[Bearbeiten]

Für große sind Wahrscheinlichkeiten, die nicht mit der -Verteilung verknüpft sind, größenordnungsmäßig schlecht zu erfassen udn umständlich zu berechnen. Wir wollen sie durch handlichere Größen approximieren.

Hilfssatz[Bearbeiten]

Es gilt:

mit der Standard-Normalenverteilung .

Beweis[Bearbeiten]

Ferner definieren wir die sogenannte Verteilungsfunktion der Standardnormalenverteilung:

Polarkoordinatentransformation[Bearbeiten]


Satz (DeMoivre-Laplace)[Bearbeiten]

Ist -verteilt, , so gilt mit der Standardisierten

.

Vorüberlegung[Bearbeiten]

Sei -verteilt, . Wegen und läuft die Verteilung für wachsendes n einerseits nach rechts, anderseits 'verläuft' sie auch in die Breite. Wir bilden deshalb die Standardisierte von , d.h. .

Die Verteilung von liegt 'glockenförmig' um 0, allerdings in 'diskreter Form'. Um die ideale 'Glockenforn' analytisch zu beschreiben, führen wir die Funktion ein:

Beweis[Bearbeiten]

Der Satz ist ein Spezialfall des sogenannten zentralen Grenzwertsatzes (später).

Bemerkungen[Bearbeiten]

1. Insbesondere gilt:

2. Zur approximativen Berechnung der Wahrscheinlichkeit von geht man wie folgt vor:

Bilde , dann

mit gleiche Ereignisse, und wenn groß genug ist. [Faustregel: ]

3. Für kleine ist noch eine sogenannte Stetigkeitskorrektur nützlich:

Beispiel[Bearbeiten]

Ein Medikament heilt einen Patienten mit der Wahrscheinlichkeit . Wie grooß ist die Wahrscheinlichkeit, dass unter Patienten (denen das Medikament verabreicht wird) mindestens Patienten geheilt werden?

Poissonscher Grenzwertsatz[Bearbeiten]

Ist , eine Folge mit

(*) ,

so gilt

.

Beispiel[Bearbeiten]

der Bevölkerung haben eine bestimmte Krankheit. Wie groß ist die Wahrscheinlichkeit, dass unter Personen (zufällig herausgegriffen) mindestens diese Krankheit haben?

a) binominalverteilt, -Verteilung

b) poissonverteilt, -Verteilung