Benutzer:Stepri2005/Kurs:Stochastische Prozesse/Allgemeine Stochastische Prozesse

Aus Wikiversity

3.1 Mehrdimensionale Normalverteilung[Bearbeiten]

Definition 3.1[Bearbeiten]

Sei ein Wahrscheinlichkeitsraum. Eine zufällige Größe auf diesem Raum heißt normalverteilt mit den Parametern und , wobei und sind, falls die folgende Dichtefunktion besitzt:
(3.1)
Symbolisch schreiben wir . Falls , so heißt standardnormalverteilt. Die Normalverteilung nennt man auch Gauß-Verteilung.

Wir setzen als aus der Analysis bekannt voraus

(3.2)

Aus (3.2) folgt, dass eine Dichtefunktion ist. Für erhalten wir nach Substitution

Theorem 3.1[Bearbeiten]

Sei . Dann gilt und .

Aufgabe 3.1[Bearbeiten]

Sei . Beweise, dass gilt
(3.3)
wobei für ungerade natürliche Zahlen die Doppelfakultät als das Produkt aller ungeraden natürlichen Zahlen bis definiert ist, also .

Definition 3.2[Bearbeiten]

Sei ein Wahrscheinlichkeitsraum, . Ein zufälliger Spaltenvektor auf diesem Raum heißt -dimensional normalverteilt mit Erwartungswertvektor und Kovarianzmatrix , wobei eine symmetrische positiv definite -Matrix ist, falls die folgende Dichtefunktion besitzt:
(3.4)
Symbolisch schreiben wir .

Anmerkung:[Bearbeiten]

Es ist noch zu zeigen, dass Definition 3.2 korrekt ist, dass also der Erwartungswertvektor und die Kovarianzmatrix ist. In finanzmathematischen Anwendungen nennt man auch Volatilitätsmatrix.

Definition 3.3[Bearbeiten]

Die Verteilung , wobei der Nullvektor in und die -Einheitsmatrix ist, heißt -dimensionale Standardnormalverteilung.

Anmerkung:[Bearbeiten]

Die Dichte eines -verteilten Zufallsvektors hat die Form

(3.5)

Man beachte, dass genau dann gilt, wenn unabhängige standardnormalverteilte Zufallsgrößen sind. Damit ist es in diesem Spezialfall offensichtlich, dass der Erwartungswertvektor und die Kovarianzmatrix ist.

Der in Definition 3.2 beschriebene allgemeine normalverteilte Zufallsvektor lässt sich aus einem standardnormalverteilten Zufallsvektor durch eine affine Abbildung gewinnen. Den folgenden Satz setzen wir als aus der Analysis bekannt voraus.

Theorem 3.2[Bearbeiten]

Sei ein zufälliger Spaltenvektor mit Dichtefunktion und eine affine Abbildung, mit und . Der Zufallsvektor hat die Dichte
(3.6)

Theorem 3.3[Bearbeiten]

Seien unabhängige standardnormalverteilte Zufallsgrößen, . Weiter sei eine reguläre -Matrix, ein gegebener Spaltenvektor und . Es gilt mit .

Anmerkung:[Bearbeiten]

Jeder normalverteilte Vektor lässt sich durch eine affine Transformation aus einem standardnormalverteilten erzeugen. Dies folgt daraus, dass sich jede symmetrische positv definite -Matrix in der Form darstellen lässt, wobei eine reguläre -Matrix ist. Somit erhält man für beliebig gegebenes positiv definites und symmetrisches und jeden Vektor einen -verteilten zufälliger Vektor aus einem standardnormalverteilten Vektor durch die Transformation .

Beweis:[Bearbeiten]

Nach Theorem 3.2 gilt für

wobei wir die Beziehung verwendet haben.

q.e.d.

Theorem 3.4[Bearbeiten]

Sei . Für alle gilt

Beweis:[Bearbeiten]

Zu existiert eine reguläre Matrix mit . Es gilt mit . Für gilt

Mit bezeichnen wir die Elemente der Matrix . Da als unabhängig und standardnormalverteilt vorausgesetzt wurden, gilt für alle die Beziehung , woraus folgt

was zu beweisen war.

q.e.d.

Ein Charakteristikum für normalverteilte Zufallsvektoren ist, dass Unabhängigkeit und Unkorreliertheit äquivalent sind.

Theorem 3.5[Bearbeiten]

Sei . Die zufälligen Größen sind genau dann unabhängig, wenn sie unkorreliert sind.

Beweis:[Bearbeiten]

Da die Kovarianzmatrix ist, ist Unkorreliertheit äquivalent zu für (d. h. ist eine Diagonalmatrix). Weiterhin gilt . Die zur Diagonalmatrix inverse Matrix ist wiederum diagonal mit den Einträgen auf der Diagonalen. Folglich ist genau dann unkorreliert, wenn die Dichtefunktion die Form

hat.

q.e.d.

Im folgenden identifizieren wir die lineare Abbildung mit der sie beschreibenden Matrix. Eine Abbildung (Matrix) heißt orthogonal, falls . Folglich gilt auch . Orthogonale Abbildungen im sind Drehspiegelungen.

Theorem 3.6[Bearbeiten]

Sei -dimensional standardnormalverteilt und eine orthogonale Transformation. Dann ist wiederum standardnormalverteilt.

Beweis:[Bearbeiten]

Aus Theorem 3.3 folgt unmittelbar , denn .

q.e.d.

Wir geben noch an, wie sich -dimensional normalverteilte Zufallsvektoren bei allgemeinen affinen Transformationen verhalten.

Theorem 3.7[Bearbeiten]

Es sei eine beliebige affine Abbildung, für , wobei eine -Matrix mit Rang ist und . Weiter sei -dimensional normalverteilt, . Dann ist -dimensional normalverteilt und zwar gilt
(3.7)

Wir verzichten hier auf den Beweis.

Als Spezialfall erhalten wir das folgende Ergebnis:

Theorem 3.8[Bearbeiten]

Sei . Dann gilt . Sind die Zufallsgrößen unkorreliert (unabhängig), so ist .

Beweis:[Bearbeiten]

Gegeben sei die -Matrix . Dann gilt . Aus Theorem 3.7 schlussfolgern wir . Es gilt sowie , womit der Beweis beendet ist.

q.e.d.

Für normalverteilte Zufallsgrößen kann man also mühelos die Verteilung der Summe ermitteln. Im allgemeinen kann man meist nur unter der zusätzlichen Annahme der Unabhängigkeit die Verteilung der Summe explizit ermitteln.

3.2 Grundbegriffe[Bearbeiten]

Definition 3.4[Bearbeiten]

Eine Familie von Zufallsgrößen über einem Wahrscheinlichkeitsraum heißt stochastischer Prozess. oder heißt dabei die Zeitparametermenge. Falls höchstens abzählbar ist, so heißt zeitlich diskreter stochastischer Prozeß, sonst zeitlich stetig.

Anmerkung 3.5[Bearbeiten]

kann auch als Funktion mit

mit

beschrieben werden. Dann ist eine Zufallsgröße und heißt Trajektorie (oder Pfad) von .

Definition 3.6[Bearbeiten]

Sei ein Wahrscheinlichkeitsraum. Eine Familie von -Algebren mit
heißt Filtration in .

Definition 3.7[Bearbeiten]

Ein Wahrscheinlichkeitsraum heißt vollständig, falls alle Nullmengen enthält. Dabei ist
(3.8)
Eine Filtration heißt vollständig, falls vollständig ist.

Definition 3.8[Bearbeiten]

Sei Filtration in , stochastischer Prozess über .
  1. heißt stochastischer Prozess mit Filtration, falls -messbar ist .
  2. heißt dann an die Filtration adaptiert.
  3. Die Filtration mit heißt die kanonische Filtration von .

Definition 3.9[Bearbeiten]

und seien stochastische Prozesse mit Filtrationen über .
  1. heißt Modifikation von , falls -f. s. .
  2. und heißen ununterscheidbar, falls .

Anmerkung 3.10[Bearbeiten]

Falls und ununterscheidbar sind, so ist Modifikation von .

Satz 3.11[Bearbeiten]

Sei Modifikation von und beide haben -f. s. stetige Trajektorien. Dann sind sie ununterscheidbar.

Definition 3.12[Bearbeiten]

Sei stochastischer Prozess über . Die Verteilungen aller möglichen Zufallsvektoren heißen die endlich-dimensionalen Verteilungen von .

Der Funktionenraum enthält alle Trajektorien eines stochastischen Prozesses . Demzufolge läßt sich als zufälliges Element von auffassen. Dazu betrachten wir

(3.9)

die -Algebra der Zylindermengen im .

Gegeben sei ein stochastischer Prozess . sei das Verteilungsgesetz des zufälligen Vektors , also das Wahrscheinlichkeitsmaß auf mit

(3.10)

Falls ein Prozess gegeben ist, so existieren die endlich-dimensionalen Verteilungen.

Sei eine Familie von Wahrscheinlichkeitsmaßen mit

Definition 3.13[Bearbeiten]

heißt konsistent, falls
  1. und für alle Permutationen
(3.11)
und
  1. und
(3.12)
gilt.

Satz 3.14 (Existenzsatz von Kolmogoroff)[Bearbeiten]

Sei eine konsistente Familie von Wahrscheinlichkeitsmaßen. Dann existiert ein Wahrscheinlichkeitsmaß auf und ein stochastischer Prozess auf , so dass und gilt:
(3.13)
Hierbei ist .

Definition 3.15[Bearbeiten]

Ein stochastischer Prozess heißt Gauß-Prozess, falls alle endlich-dimensionalen Verteilungen (mehrdimensional) normalverteilt sind.

Definition 3.16[Bearbeiten]

sei stochastischer Prozess.
  1. mit ,
  2. mit und
  3. mit
heißen Erwartungswert-, Kovarianz- und Varianzfunktion von .

Beispiel 3.1[Bearbeiten]

Seien i. i. d. Dann ist Gauß-Prozess mit:

(3.14) und

Dieser Prozess hat allerdings höchst irreguläre Trajektorien.

Definition 3.17[Bearbeiten]

Ein stochastischer Prozess heißt streng stationär oder stationär im engeren Sinne, falls die endlich-dimensionalen Verteilungen invariant sind gegenüber Indexverschiebung, d. h. und mit gilt:
(3.15)
Speziell gilt: .

Definition 3.18[Bearbeiten]

heißt stationär (im weiteren Sinne), falls und mit und gilt:
(3.16)

Definition 3.19[Bearbeiten]

heißt Prozess mit stationären Zuwächsen, falls mit und gilt:
(3.17)

Definition 3.20[Bearbeiten]

heißt Prozess mit unabhängigen Zuwächsen, falls die Zuwächse
unabhängig sind.

Beispiel 3.2[Bearbeiten]

sei Prozess mit unabhängigen Zuwächsen. Wir setzen

und .

Dann sind die unabhängig und

Auch die Umkehrung gilt. hat unabhängige Zuwächse genau dann, wenn Summe unabhängiger Zufallsgrößen ist.

3.3 Wiener-Prozess[Bearbeiten]

Definition 3.21[Bearbeiten]

Ein stochastischer Prozess heißt Wiener-Prozess oder Brownsche Bewegung, falls die folgenden Bedingungen erfüllt sind:
  • ,
  • ist ein Prozess mit unabhängigen und stationären Zuwächsen,
  • für alle gilt ,
  • -fast alle Trajektorien sind stetig.

Aufgabe 3.2[Bearbeiten]

Zeige, dass für die Zuwächse eines Wiener-Prozesses gilt .

Anmerkung:[Bearbeiten]

, also je größer , um so größer die Fluktuationen um den Erwartungswert .

Theorem 3.9[Bearbeiten]

Für einen Wiener-Prozess gilt .

Theorem 3.10[Bearbeiten]

Ein Wiener-Prozess ist ein Gauß-Prozess.

Definition 3.22[Bearbeiten]

Die kanonische Filtration eines Wiener-Prozesses ist die Filtration
(3.18)
die Filtration
(3.19)
heißt Brownsche Filtration, wobei die Familie der Nullmengen (s. (3.8)) bezeichnet.

Anmerkung:[Bearbeiten]

Die Brownsche Filtration ist vollständig. Das hat u. a. folgenden Vorteil: Ist ein Wiener-Prozess mit Brownscher Filtration und ist eine Modifikation von , so ist auch -messbar, also es ist auch eine Filtration für . Die Brownsche Filtration ist also in gewisser Weise universell.

Definition 3.23[Bearbeiten]

Ein stochastischer Prozess heißt -selbstähnlich, , falls für alle , für alle und für beliebiges gilt
(3.20)

Anmerkung:[Bearbeiten]

Selbstähnlich heißt, dass eine andere Skalierung (Ausschnitt, Vergrößerung) wieder eine ähnliche Form hat wie das Original. Aber das gilt natürlich nicht trajektorienweise, sondern in Verteilung.

Theorem 3.11[Bearbeiten]

Der Wiener-Prozess ist 1/2-selbstähnlich, also falls für alle , für alle und für beliebiges gilt
(3.21)

Selbstähnliche Prozesse (und damit auch der Wiener-Prozess) haben ziemlich verrückte Trajektorien. Man beachte, dass die Trajektorien stetig sind, aber sie sind nicht differenzierbar.

Theorem 3.12 (Nichtdifferenzierbarkeit selbstähnlicher Prozesse)[Bearbeiten]

Sei ein -selbstähnlicher Prozess mit und habe stationäre Zuwächse. Für alle gilt
(3.22)
d. h. -fast alle Trajektorien sind in keinem Punkt differenzierbar.

Karl Weierstrass entdeckte als erster stetige nirgends differenzierbare Funktionen.

Theorem 3.13 (Unbeschränkte Variation der Brownschen Bewegung)[Bearbeiten]

Für -f. a. Trajektorien eines Wiener-Prozesses und alle ist die Variation von auf unendlich, d. h. bezeichnen wir mit die Menge aller endlichen Zerlegungen , so gilt für -f. a.
(3.23)

Anmerkung:[Bearbeiten]

Die unbeschränkte Variation ist (neben der Nichtdifferenzierbarkeit) der Hauptgrund dafür, dass die herkömmliche Integrationstheorie nicht anwendbar ist und neue Methoden - nämlich die stochastische Analysis - entwickelt werden mussten. Man beachte aber auch Satz 4.1.

Aufgabe 3.3 (Brownsche Brücke)[Bearbeiten]

Sei ein Wiener-Prozess. Der Prozess mit
(3.24)
heißt Brownsche Brücke.

Zeige, dass ein Gauß-Prozess ist und dass gilt

sowie .

Aufgabe 3.4 (Brownsche Bewegung mit Drift)[Bearbeiten]

Sei ein Wiener-Prozess, und Konstanten. Der Prozess mit
(3.25)
heißt Brownsche Bewegung mit Drift.

Zeige, dass ein Gauß-Prozess ist mit

sowie .

L. Bachelier beschrieb als erster die Preise von risikoreichen Anlagen durch eine Brownsche Bewegung. Die Brownsche Bewegung kann aber - wie jeder Gauß-Prozess - auch negative Werte annehmen, was für die Modellierung von Preisen nicht wünschenswert ist. In den mit dem Nobelpreis ausgezeichneten Arbeiten von Black, Scholes und Merton wird vorgeschlagen, nicht mit der Brownschen Bewegung selbst, sondern mit einer Funktion davon die Modellierung vorzunehmen.

Aufgabe 3.5 (Geometrische Brownsche Bewegung)[Bearbeiten]

Sei ein Wiener-Prozess, und Konstanten. Der stochastische Prozess mit
(3.26)
heißt geometrische Brownsche Bewegung mit Drift.

Zeige, dass kein Gauß-Prozess ist und dass gilt

In der Physik bezeichnet man eine gewisse "Ableitung" der Trajektorien des Wiener Prozesses als weißes Rauschen. Da die Trajektorien nirgends differenzierbar sind, ist dies nur im Sinne einer gewissen Konvergenz zu verstehen. Eine gewisse Approximation dieses weißen Rauschens ist das sog. farbige Rauschen.

Aufgabe 3.6 (Gaußsches farbiges Rauschen)[Bearbeiten]

Sei ein Wiener-Prozess und eine Konstante. Der Prozess mit
(3.27)
heißt Gaußsches farbiges Rauschen.

Zeige, dass ein Gauß-Prozess ist und dass gilt

und .

Anmerkung:[Bearbeiten]

Für gilt , d. h. (die Zufallsgrößen sind normalverteilt!) zu weiter als voneinander entfernten Zeitpunkten sind die Zufallsgrößen unabhängig. Wäre differenzierbar, so würde für in (3.27) im Limes die Ableitung des Wiener-Prozesses stehen. In diesem Sinne ist das farbige Rauschen eine Approximation des weißen Rauschens. Beachte auch, dass gilt. Je kleiner , um so größer die Varianz der Zufallsgrößen.

Aufgabe 3.7[Bearbeiten]

a) Sei differenzierbar in . Berechne
b) Sei ein Wiener-Prozess, . Berechne
c) Wie erklären Sie sich die unterschiedlichen Ergebnisse?

3.4 Martingale[Bearbeiten]

In Definition 3.8 wurde der Begriff eines adaptierten stochastischen Prozesses eingeführt. Ein stochastischer Prozess ist adaptiert an die Filtration , falls für alle gilt , die besitzen also nicht mehr Information als . Ist ( ist zeitlich diskret), so heißt das speziell für alle .

Definition 3.24[Bearbeiten]

Ein stochastischer Prozess heißt Martingal in stetiger Zeit bezüglich der Filtration , falls folgendes gilt:
    • für alle ,
    • adaptiert ist an sowie
(3.28) für alle .

Definition 3.25[Bearbeiten]

Ein stochastischer Prozess heißt Martingal in diskreter Zeit bezüglich der Filtration , falls folgendes gilt:
    • für alle ,
    • adaptiert ist an sowie
(3.29) für alle .

Aufgabe 3.8[Bearbeiten]

Sei ein Martingal in diskreter Zeit bezüglich der Filtration . Zeige, dass für alle gilt

(3.30)

Aufgabe 3.9[Bearbeiten]

Sei ein Martingal in diskreter Zeit bezüglich der Filtration und die Folge der Martingaldifferenzen: . Zeige, dass für alle gilt .

Aufgabe 3.10[Bearbeiten]

Beweise, dass die Erwartungswertfunktion eines Martingals konstant ist, also dass für alle gilt .

Aufgabe 3.11[Bearbeiten]

Sei ein Wiener Prozess mit der kanonischen Filtration . Zeige, dass kein Martingal bezüglich der Filtration ist.

Aufgabe 3.12[Bearbeiten]

Sei ein Wiener Prozess mit der kanonischen Filtration . Welche der folgenden stochastischen Prozesse sind bezüglich ein Martingal:

(3.31) a) ,
(3.32) b) ,
(3.33) c) ?

Aufgabe 3.13[Bearbeiten]

Sei ein Wiener Prozess mit der kanonischen Filtration . Finde einen Prozess , so dass bezüglich ein Martingal ist.

Aufgabe 3.14[Bearbeiten]

Sei eine Folge von unabhängigen Zufallsgrößen über einem Wahrscheinlichkeitsraum , und es gelte für alle sowie . Wir setzen

Weiter sei die kanonische Filtration zu , also .

a) Zeige, dass gilt .
b) Beweise, dass bezüglich der kanonischen Filtration ein Martingal ist.

Aufgabe 3.15[Bearbeiten]

Sei eine Zufallsgröße über einem Wahrscheinlichkeitsraum mit und eine beliebige Filtration in . Beweise, dass

bezüglich der Filtration ein Martingal ist.

Aufgabe 3.16 (Martingaltransformation)[Bearbeiten]

Sei eine Folge von Martingaldifferenzen (s. Aufgabe 3.9) bezüglich einer Filtration und es sei ein stochastischer Prozess mit der Eigenschaft

(3.34)

Ein solcher Prozess heißt vorhersagbar bezüglich der Filtration . Wir definieren einen neuen stochastischen Prozess vermöge

(3.35)

Symbolisch schreiben wir und nennen die Martingaltransformierte von mit . Beweise, dass ein Martingal und eine Folge von Martingaldifferenzen bezüglich der Filtration ist.

Aufgabe 3.17 (Brownsche Martingaltransformation)[Bearbeiten]

Sei ein Wiener Prozess mit der kanonischen Filtration und eine Zerlegung von ,

a) Beweise, dass die Folge ,
eine Folge von Martingaldifferenzen bezüglich der Filtration mit
darstellt.
b) Zeige, dass vorhersagbar ist bezüglich und dass die Martingaltransformierte ein Martingal bezüglich der Filtration ist, wobei gilt