Diese Seite kann als Wiki2Reveal Folien angezeigt werden.
Einzelne Abschnitte werden als Folien betrachtet und Änderungen an den Folien wirken sich sofort auf den Inhalt der Folien aus.
Das Gram-Schmidtsche Orthonormalisierungsverfahren ist ein Spezialfall des Gram-Schmidtsche Orthogonalisierungsverfahren, bei dem aus einem gegebenen System linear unabhängiger Vektoren (z.B. einer Hamelbasis) ein System von orthogonal zueinander stehenden Vektoren der Länge 1 ersteht. ist ein Algorithmus aus dem mathematischen Teilgebiet der linearen Algebra.
Das Verfahren erzeugt zu jedem System linear unabhängiger Vektoren aus einem Prähilbertraum (einem Vektorraum mit Skalarprodukt) ein Orthogonalsystem, das denselben Untervektorraum erzeugt.
Aus dem Orthogonalsystem erhält man durch Normalisierung
ein Orthonormalsystem. Die Normalisierung ist möglich, da linear unabhängige Vektoren sich vom Nullvektor unterscheiden und damit eine positive Länge haben
.
Verwendet man ein System von Basisvektoren als Eingabe für die Algorithmen, so berechnen sie eine Orthogonal- bzw. Orthonormalbasis.
Numerische Berechnung von Orthonormalsystem
[Bearbeiten]
Für die numerische Berechnung durch einen Computer mit Gleitpunktarithmetik sind die Gram-Schmidt-Verfahren schlecht geeignet. Durch akkumulierte Rundungsfehler weisen die berechneten Vektoren z.T. deutliche Abweichung von orthogonalen Vektor auf. Es existieren aber Modifikationen des Verfahrens, die diesen Nachteil nicht haben. Andere Orthogonalisierungsverfahren basieren auf Householdertransformationen oder Givens-Rotationen.
Die beiden Verfahren sind nach Jørgen Pedersen Gram und Erhard Schmidt benannt. Sie wurden allerdings bereits früher in den Werken von Pierre-Simon Laplace und Augustin-Louis Cauchy verwendet.
Orthonormalisierungsatz nach Gram-Schmidt
[Bearbeiten]
Im Folgenden betrachteten man ein separablen Hilbertraum
mit einer abzählbaren Basis
. Dann gibt es ein Orthonormalsystem
mit der Eigenschaft:
- (ON1)

- (ON2)
für alle
und 
- (ON3)
für alle 
Für zwei beliebige vom Nullvektor
verschiedene Vektoren
ist die Orthogonalprojektion von
auf
über das Skalarprodukt wie folgt definiert.

Bemerkung - seminlinear komplexer Fall
[Bearbeiten]
Im komplexen Fall wird dabei die Konvention verwendet, dass das Skalarprodukt im ersten Argument semilinear, im zweiten Argument linear ist, das heißt

für alle Vektoren
,
und alle
. Im komplexen Fall kommt es deshalb bei den unten dargestellten Formeln auf die Reihenfolge der Faktoren im Skalarprodukt an, im reellen Fall jedoch nicht.
Bemerkung - Skalarproduktinduzierte Norm
[Bearbeiten]
Zudem bezeichnet
die Norm des Vektors
. Dabei liegt der von
aufgespannte Untervektorraum dicht in
bzgl. dieser Norm.
Illustration des Gram-Schmidt-Verfahrens an einem Beispiel mit drei Vektoren.
Für die Orthogonalisierung des 3. Vektors
subtrahiert die Orthogonalprojektionen von
auf die bereits orthogonalisierten Vektoren
und
und erhält dann
.

Dieses Vorgehen entspricht dem induktiv im konstruktiven Beweis des Gram-Schmidtsches Orthonormalisierungsverfahren, bei dem
über die Subtraktion der Orthogonalprojektion von
auf die
vorher bereits orthogonalisierten Vektoren
berechnet wird.
Algorithmus des Orthogonalisierungsverfahrens
[Bearbeiten]
Die Kontruktion und der Beweis für abzählbar viele Basisvektoren erfolgt über vollständige Induktion.
Zunächt einmal wird als Induktionsanfang der erste Vektor gewählt
gewählt. Im Gegensatz zur Orthonormalisierung muss hier
nicht normiert werden.
- Definiere

- Für die Orthogonalität ist nichts zu überprüfen, da es in dem System
keine zwei paarweise verschiedene Vektoren gibt.
Seien nun
linear unabhängigen Vektoren
in ein Orthogonalsystem von
paarweise orthogonalen Vektoren überführt worden, mit
:
- (ON1)

- (ON2)
für alle
und 
Man kann einen weiteren Vektor
so wählen, dass mit
:
- (ON1)

- (ON2)
für alle
und 
Der Vektor
wird über
und die Projektion von
auf Vektoren aus dem Orthogonalsystem aus
definiert.

Die Bedingung (ON1)
gilt über den Nachweis von zwei Mengeninklusionen.


Aus
folgt, dass es ein
und ein
gibt mit:

Aus
folgt, dass es ein
und ein
gibt mit:

Sei nun
beliebig gewählt und man zeigt nun das
gilt:

In der zweiten Gleichung fallen durch die Orthogonalität von
für
genau
weg.
Wenn die Vektoren
durch normalisierte Vektoren der Länge 1 ersetzt, spannen die normalisierten Vektoren genau den Gleichen Untervektorraum auf und die Skalarprodukte bleiben 0 durch die Semilinearität in der ersten und die Linearität in der zweiten Komponente.

Die einzelnen Vektoren
des Orthogonalsystems berechnen sich wie folgt:




Die Vektoren wurden induktiv definiert für
über die bereits definierten Vektoren
für
.

In dem neu definierten System sind paarweise verschiedene Vektoren zueinander orthogonal und für ein festes
spannt das erzeugte Orthogonalsystem den gleichen Untervektoraum auf. Über die vollständige Induktion wird die Behauptung auf das abzählbare System von linear unabhängigen Vektoren übertragen.
Im
versehen mit dem Standardskalarprodukt
seien zwei linear unabhängige Vektoren vorgegeben, die einen Untervektorraum erzeugen:

Es werden nun zwei orthogonale Vektoren
und
berechnet, die denselben Untervektorraum erzeugen:


Algorithmus des Orthonormalisierungsverfahrens
[Bearbeiten]
Der folgende Algorithmus berechnet zu den linear unabhängigen Vektoren
ein Orthonormalsystem von
normierten, paarweise orthogonalen Vektoren, das denselben Untervektorraum erzeugt. Er ist identisch mit einer Normierung der orthogonalen Vektoren, welche durch den obigen Algorithmus bestimmt wurden.
Die einzelnen Vektoren
des Orthonormalsystems erhält man, indem zuerst jeweils ein orthogonaler Vektor berechnet und anschließend normalisiert wird:
(Normalisieren des ersten Vektors
)
(Orthogonalisieren des zweiten Vektors
)
(Normalisieren des Vektors
)
(Orthogonalisieren des dritten Vektors
)
(Normalisieren des Vektors
)

(Orthogonalisieren des
-ten Vektors
)
(Normalisieren des Vektors
)
Anders gesagt werden die
und
für
also rekursiv durch
und
definiert.
Im Allgemeinen erhält man durch dieses Verfahren kein besonders ausgezeichnetes System. Im
muss z. B. erst ein Umordnungsschritt nachgeschaltet werden, um ein Rechts- oder Linkssystem zu erhalten.
Im
versehen mit dem Standardskalarprodukt
seien zwei Basisvektoren gegeben:

Es werden nun zwei Vektoren
und
berechnet, die eine Orthonormalbasis des
bilden.



Eine besondere Eigenschaft der beiden Verfahren ist, dass nach jedem Zwischenschritt die bisher berechneten Vektoren
den gleichen Vektorraum erzeugen wie die Vektoren
. Die Vektoren
bilden also eine Orthogonal- bzw. Orthonormalbasis der entsprechenden Untervektorräume. Anders ausgedrückt ist die Transformationsmatrix, die die Koordinaten des einen Systems im anderen ausdrückt, eine rechtsobere Dreiecksmatrix. Diese hat außerdem eine positive Determinante, daher hat die resultierende Orthogonal- bzw. Orthonormalbasis die gleiche Orientierung wie die Ausgangsbasis. Fasst man die orthonormalen Vektoren
als Spalten einer Matrix Q zusammen, ebenso die Vektoren des Ausgangssystems
zu einer Matrix A, so gibt es eine Dreiecksmatrix R mit A=QR, es wird also eine QR-Zerlegung bestimmt. Dementsprechend kann das Ergebnis der Gram-Schmidt-Orthonormalisierung auch mit anderen Methoden zur QR-Zerlegung bestimmt werden, die mit Givens-Rotationen oder Householder-Spiegelungen arbeiten.
Berechnet man ein Orthonormalsystem von Hand, ist es oftmals einfacher, zunächst ein Orthogonalsystem auszurechnen und dann die einzelnen Vektoren zu normieren. Dadurch erspart man sich das zweifache Normieren und kann oftmals mit einfacheren Werten rechnen. Gegebenenfalls lohnt es sich, vor dem Erstellen des Orthogonalsystems/Orthonormalsystems das Gaußsche Eliminationsverfahren durchzuführen.
Sind die orthogonalen Vektoren
bereits bestimmt, versuchen wir, von
eine passende Linearkombination der Vektoren
abzuziehen,
sodass der Differenzvektor

zu allen Vektoren
orthogonal wird. Dies ist gleichbedeutend damit, dass das Skalarprodukt
für alle
den Wert 0 ergibt. Eine solche Linearkombination ergibt sich, wenn für jedes
der Ausdruck

gewählt wird. Eine Kontrollrechnung zeigt, dass dadurch alle Skalarprodukte
mit
den Wert 0 annehmen:

Orthonormalisierung unendlicher Systeme von Vektoren
[Bearbeiten]
In einem beliebigen Hilbertraum
lässt sich das Verfahren auch auf unendliche Systeme unabhängiger Vektoren anwenden, wobei die Unabhängigkeit in dem Sinne zu verstehen ist, dass kein Element im Abschluss der linearen Hülle der übrigen Vektoren liegt. Den Fall eines abzählbaren Systems (d. h.
ist ein separabler Hilbertraum) kann direkt auf den oben dargestellten endlichen Fall zurückgeführt werden: Gegeben sei eine unabhängige Folge
, so erhält man eine entsprechende orthonormale Folge
, indem man für jedes
das obige Verfahren anwendet und
erhält. Allgemeiner kann jedes unabhängige System nach dem Wohlordnungssatz als Folge
für eine Kardinalzahl
und Ordinalzahlen
angesehen werden (im Falle einer dichten linearen Hülle des unabhängigen Systems ist
gerade die Dimension von
). Bezeichne nun
die orthogonale Projektion auf einen abgeschlossenen Teilraum
, die aufgrund der Vollständigkeit des Raumes stets existiert,
bezeichne die Normierung
. So ergibt sich ein Orthonormalsystem
durch

.
Per transfiniter Induktion lässt sich dann zeigen, dass
, sogar für
. Expliziter lässt sich das Verfahren per transfiniter Rekursion wie folgt schreiben:

Hierbei ist die Summe aufgrund der besselschen Ungleichung wohldefiniert (insbesondere sind stets nur abzählbar viele Summanden ungleich Null).
- K. Kirchgessner, M. Schreck: Vektoranalysis für Dummies. Das Pocketbuch Paperback . Wiley-VCH, 2012. ISBN 978-3-527-70742-3
Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.
Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Funktionalanalysis' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.
Diese Seite wurde auf Basis der folgenden Wikipedia-Quelle erstellt: