Kurs:Numerik I/Orthonormalisierungsverfahren

Aus Wikiversity

Einleitung[Bearbeiten]

Diese Seite kann als Wiki2Reveal Folien angezeigt werden. Einzelne Abschnitte werden als Folien betrachtet und Änderungen an den Folien wirken sich sofort auf den Inhalt der Folien aus.

Einführung - Orthogonalisierungsverfahren[Bearbeiten]

In diesem Abschnitt soll für eine gegebene Matrix mit eine Zerlegung der Form

bestimmt werden, wobei eine orthogonale Matrix ist und eine um Nullzeilen ergänzte obere Dreiecksmatrix ist,

Orthogonale Matrix[Bearbeiten]

Eine orthogonole eine reguläre (invertierbare) Matrix mit der Eigenschaft

Wenn man nun das Matrixprodukt berechnet, dann bilden die Spaltenvektoren Orthonormalbasis vom mit:

.

Orthonormal Vektoren und Einheitsmatrix[Bearbeiten]

  • Die Orthogonalität der Spaltenvektoren führt zu der Eigenschaft für .
  • Die Normalisierung der Basisvektoren führt zu der Eigenschaft und damit auch , was den Diagonalelementen der Matrix entspricht.

Um Nullzeilen ergänzte obere Dreieckmatrix[Bearbeiten]

In der Zerlegung ist mit einer oberen Dreiecksmatrix , die wie folgt mit Nullzeilen ergänzt wird:

Im Fall ist demnach insbesondere .

Ziel der QR/QS Zerlegung[Bearbeiten]

Wie wir zeigen wollen, ermöglicht eine solche QR- bzw. QS-Zerlegung von sowohl die stabile Lösung linearer Gleichungssysteme als auch die stabile Lösung von Ausgleichsproblemen

Dafür benötigen wir einige Eigenschaften orthogonaler Matrizen.

Elementare Eigenschaften orthogonaler Matrizen[Bearbeiten]

In der Geometrie der Ebene kennt man die Kongruenzabbildungen, bei denen die Bilder von Strecken wieder Strecken der gleichen Länge abgebildet. Kongruenzabbildungen, wie Geradenspiegelungen sind dabei längentreu und winkeltreu, d.h. unter der Abbildung bleiben Winkel zwischen Strecken und die Länge von Strecken unverändert (invariant). Orthogonale Matrizen besitzen als Abbildung die Eigenschaft der Längeninvarianz.

Lemma - Längeninvarianz/Isometrie für orthogonale Matrizen[Bearbeiten]

Sei eine orthogonale Matrix. Dann ist auch eine orthogonale Matrix und es gilt

Bemerkung[Bearbeiten]

Eine orthogonal Matrix kann man als Abbildung von nach auffassen. Eine orthogonal Matrix verändert dabei die Länge des Vektors nicht in der Euklidischen Norm . Der Begriff der Isometrie ist dabei allgemein für metrische Räumen definiert. Ein zentrische Streckung mit einem Streckungsfaktor ist z.B. keine Isometrie, da unter der Abbildung der Bildvektor die -fache Länge von besitzt.

Beweis[Bearbeiten]

Der Beweis erfolgt in zwei Schritten:

  • Man zeigt, dass auch die transponierte Matrix eine orthogonale Matrix ist.
  • Man zeigt die Längeninvarianz unter Darstellung des Skalarproduktes als Matrixmultiplikation (d.h. , wobei als Spaltenvektoren aufgefasst werden und als Matrizenprodukt einer -Matrix und einer -Matrix ist.

Beweis 1 - inverse Matrix - orthogonale Matrix[Bearbeiten]

Wegen

ist auch eine orthogonale Matrix.

Beweis 2 - Umformungen in einer Matrixmultiplikation[Bearbeiten]

Des Weiteren hat man für

und somit auch für die orthogonale Matrix .

q.e.d.

Bermerkung[Bearbeiten]

Die Eigenschaft der Längentreue der durch und definierten linearen Abbildungen bezeichnet man auch als isometrisch bezüglich der Euklidischen Norm, bzw. als Isometrie.

Lemma - Euklidische Norm und Determinante orthogonaler Matrizen[Bearbeiten]

Für die Operatornorm einer linearen Abbildung und für die Determinante orthogonaler Matrizen gilt:

  • (i) ,
  • (ii) .

Beweis - Euklidische Norm und Determinante orthogonaler Matrizen[Bearbeiten]

Der Beweis gliedert sich in zwei Teilaussagen

  • (i) zur Operatornorm für lineare Abbildung und
  • (ii) zur Determinate von orthogonalen Matrizen.

Beweis (i) Längeninvarianz/Isometrie[Bearbeiten]

Wenn man das Lemma Längeninvarianz bzw. Isometrie für orthogonale Matrizen auf und anwendet, erhält man die Aussage (i) über die Definition der Operatornorm mit:

Beweis (ii) Längeninvarianz/Isometrie[Bearbeiten]

Mit der Einheitsmatrix und der Multiplikativität der Determinanten folgt die Aussage (ii) über die Eigenschaft, dass die transponierte Matrix multiplikativ invers zu der Matrix ist.

Dabei geht in die Gleichungskette ein, dass die Determinante der transponierten Matrix und der Matrix selbst gleich sind. q.e.d.

Korollar - Konditionszahl orthogonaler Matrizen[Bearbeiten]

Seien eine reguläre und eine orthogonale Matrix. Dann gilt für die Konditionszahl

Beweis[Bearbeiten]

Der Beweis gliedert sich in die folgenden Teile:

  • Verwendung der Längeninvarianz/Isometrie für orthogonale Abbildungen

Beweis 1 - Längeninvarianz orthogonaler Abbildungen[Bearbeiten]

Nach Lemma zur Längeninvarianz/Isometrie für orthogonale Abbildungen gilt für alle . Mit erhält man

für und somit

Beweis 2 - Längeninvarianz orthogonaler Abbildungen[Bearbeiten]

Weiter gilt mit Lemma 3.24 (i)

und folglich . Damit ergibt sich

q.e.d.

Multiplikation einer quadratischen Matrix von links mit einer orthogonalen Matrix führt also auf eine Matrix mit derselben Kondition wie . Weiter gilt:

Lemma - Produkt orthogonaler Matrizen[Bearbeiten]

Seien orthogonale Matrizen. Dann ist auch eine orthogonale Matrix.

Beweis.[Bearbeiten]

Die Aussage des Lemma folgt aus

q.e.d.

3.4.2 Lösung linearer Gleichungssysteme mittels QR-Zerlegung[Bearbeiten]

Wir betrachten nun wieder die Lösung eines linearen Gleichungssystems für eine reguläre Matrix und beliebige rechte Seite und gehen davon aus, dass eine Zerlegung der Form von mit einer orthogonalen Matrix und einer oberen Dreiecksmatrix gegeben ist (vgl. (3.37) - (3.39)). Wegen Lemma 3.24 gilt offenbar

Weiter hat man die Äquivalenzen

und mit Korollar 3.25 die Beziehungen

D. h., das Gleichungssystem ist äquivalent zu dem gestaffelten Gleichungssystem , wobei die Matrix bezüglich der Spektralnorm keine schlechtere Kondition als aufweist und gemäß 3.40 gilt.

3.4.3 QR-Zerlegung mittels Gram-Schmidt-Orthogonalisierung[Bearbeiten]

Es sei nun eine quadratische Matrix mit und es seien eine orthogonale Matrix und eine obere Dreiecksmatrix gesucht, so dass

(3.41)

gilt. Schreiben wir und mit Vektoren in der Form

so ist die Gleichung (3.41) offenbar äquivalent mit den Gleichungen

(3.42)

wobei für berücksichtigt wurde. Dabei sind die linear unabhängig und die wegen der Orthogonalität von paarweise orthonormal und damit auch linear unabhängig. Die Gleichungen (3.42) implizieren somit für

(3.43)

Folglich suchen wir eine orthogonale Basis des , für welche die Gleichungen (3.42) erfüllt sind. Wir wollen im Folgenden zeigen, dass man eine solche durch Orthogonalisierung der mittels des aus der Linearen Algebra bekannten Gram-Schmidt-Orthonormierungsverfahrens erhält.

Sind die gegebenen Spalten von , welche nach Voraussetzung eines Basis des bilden, so lautet für diese das Gram-Schmidt-Orthonormierungsverfahren, wobei wir die durch das Verfahren erzeugten Vektoren gleich mit bezeichnen:

(3.44)

Bekanntlich gilt für die so erzeugten Vektoren die Identität (3.43) und sind diese paarweise orthonormal.

Aus den Gleichungen (3.44) leitet man unmittelbar die folgenden Gleichungen her:

Wie ein Vergleich mit den Gleichungen (3.42) zeigt, erhält man demnach die gewünschte QR-Faktorisierung von für die Matrix mit den durch das Gram-Schmidt-Verfahren erzeugten Vektoren und die obere Dreiecksmatrix , welche folgende Elemente hat:

Der hier beschriebene Orthogonalisierungsprozess ist aber unter Umständen nicht gutartig, etwa für und damit (s. Beispiel 3.4 in Band 1 von Quarteroni/Sacco/Saleri und S. 177 bei Stoer). Mit wachsendem kann die Orthogonalität immer stärker verloren gehen. Deshalb werden zumeist andere Methoden, wie die im folgenden Abschnitt dargestellte, zur QR-Faktorisierung von herangezogen.

3.4.4 QS-Zerlegung mittels Householder-Transformationen[Bearbeiten]

Sei nun allgemeiner mit gegeben. Gegenstand dieses Abschnitts ist die Bestimmung einer Zerlegung der Form mit einer orthogonalen Matrix und einer im Fall nichtquadratischen Matrix wie in (3.39) mittels sog. Householder-Transformationen. In diesem Zusammenhang zeigen wir zunächst:

Lemma 3.27[Bearbeiten]

Es sei ein Vektor mit und die Matrix
(3.45)
Dann gilt
(3.46) ( ist symmetrisch),
(3.47) ( ist involutorisch),
(3.48) ( ist orthogonal).

Beweis.[Bearbeiten]

Die Beziehungen (3.46) und (3.47) ergeben sich aus

Die Identität (3.48) folgt aus (3.46) und (3.47).

q.e.d.

Eine Matrix vom Typ (3.45) für ein mit nennen wir Householder-Matrix und eine lineare Abbildung

mit einer Householder-Matrix bezeichnen wir als Householder-Transformation.

Householder-Matrizen kann man dazu verwenden, einen Block von Komponenten eines gegebenen Vektors (durch Multiplikation mit einer solchen Matrix von links) zu Null zu setzen. Will man insbesondere alle Komponenten von außer der -ten Komponente Null setzen, so muss man den Vektor zur Konstruktion von so wählen, wie er im folgenden Lemma angegeben wird. Dabei ist wieder mit die -te Spalte von gemeint.

Lemma 3.28[Bearbeiten]

Gegeben sei mit . Weiter sei
(3.49)
mit
(3.50)
Dann hat man und für
(3.51)

Beweis.[Bearbeiten]

Wegen ist der Nenner in (3.49) ungleich Null und damit in (3.49) wohldefiniert. Offenbar ist . Ferner gilt

und damit

Zusammen mit (3.49) gelangt man zu der Darstellung

Bemerkung 3.29[Bearbeiten]

Zur Vermeidung von Stellenauslöschungen bei der Berechnung von (3.50) ist es offenbar sinnvoll, zu wählen, wobei die -te Komponente von bezeichnet.

Wir geben ein Beispiel.

Beispiel 3.30[Bearbeiten]

Sei und . Dann errechnen wir und setzen wir somit sowie

Es ergibt sich

und demnach


Will man für ein die Komponenten von unverändert lassen und gleichzeitig erreichen, bekommt man dies, indem man von links mit der Transformationsmatrix

multipliziert. Dabei ist die -Einheitsmatrix und die -Householder-Matrix der Form

welche mit dem aus den letzten Komponenten von bestehenden Vektor und der ersten Spalte der Einheitsmatrix gebildet wird. Denn ist der aus den ersten Komponenten von bestehende Vektor, so hat man nach Lemma 3.28

Nun ist klar, wie man eine Matrix in die Form mit einer orthogonalen Matrix und eine Matrix der Gestalt (3.39) zerlegen kann. Ausgehend von werden sukzessive Matrizen der Form

(3.52)

bestimmt, so dass dann schließlich die gewünschte Gestalt hat. Die Matrizen in (3.52) werden dabei sukzessive durch Transformationen der Form

(3.53)

mit Householder-Matrizen

erzeugt, wobei mit

so zu wählen ist, dass mit einem

gilt. Im Fall erreicht man dies gemäß Lemma 3.28 mit

Im selteneren Fall kann man offenbar bzw. in (3.53) wählen. Nach Lemma 3.27 sind dann die Matrizen und damit die Matrizen orthogonal und symmetrisch, so dass man wegen

mit

wegen (3.47) die gewünschte Zerlegung erhält. Gemäß Lemma 3.26 ist tatsächlich eine orthogonale Matrix.

Man beachte, dass man für die Lösung des Gleichungssystems mit (sowie für die des Ausgleichsproblems in Abschnitt 4.3) gar nicht benötigt, sondern nur den Vektor . Wegen ist dabei

so dass man mit wie mit verfahren kann:

Man beachte, dass mit

gemäß (3.52) und (3.53)

gilt, also wie beim Gauß-Algorithmus nur die verbleibende Restmatrix in und analog der verbleibende Anteil der rechten Seite zu transformieren ist. Weiter sei gesagt, dass Householder-Transformationsmatrizen niemals explizit durch Matrixmultiplikation gebildet werden sollten. Denn eine Matrixmultiplikation mit und kostet Multiplikationen. Die benötigten Matrixmultiplikationen für berechne man daher wie folgt:

(3.54)

Zunächst ermittele man also den Vektor und dann "aufdatiere" man die Matrix . Für ein solches Vorgehen benötigt man nur Multiplikationen.

Bemerkung 3.31[Bearbeiten]

Will man die Vektoren aufbewahren, weil man z. B. ein Gleichungssystem mit derselben Matrix und verschiedenen rechten Seiten zu lösen hat, so kann man für jedes das Diagonalelement zunächst gesondert speichern und anschließend den Vektor in der -ten Spalte der Matrix eintragen (s. Beispiel 3.32). Auf diese Weise spart man Speicherplatz, was bei sehr großen Matrizen relevant ist.

Beispiel 3.32[Bearbeiten]

Man berechne eine QS-Zerlegung von und für

Wir setzen und und bekommen zunächst

Damit folgt

Für benötigt man nun die Produkte und , die man analog zu (3.54) berechnet. Es ist

und demnach

Demzufolge ergibt sich

Wollte man den Vektor aufbewahren, um damit zu einem späteren Zeitpunkt die Zerlegung von wieder erzeugen zu können, so legt man einen Arbeitsvektor an, setzt man und trägt man in die erste Spalte von ein, so dass sich ergibt:

In der Praxis kann man und auch wieder nennen, da man selbst nicht mehr benötigt.

Nun verfährt man analog mit der Restmatrix bzw. dem Restvektor

Man bekommt

Damit ergibt sich nun

Will man die wiederverwenden, so bilde man mit und dem oben definierten

Aus und könnte man in offensichtlicher Weise gewinnen.


Man kann sich überlegen, dass eine QS-Zerlegung von mittels Householder-Transformationen etwa

Multiplikationen benötigt, also

(3.55) für und für

und damit bei quadratischen Matrizen etwa doppelt so viele wesentliche Rechenoperationen wie der Gauß-Algorithmus. Neben dem Einsatz für die bereits besprochene stabile Lösung von linearen Gleichungssystemen werden wir im nächsten Abschnitt eine weitere wichtige Anwendung einer solchen QS-Zerlegung geben.


Siehe auch[Bearbeiten]

Seiteninformation[Bearbeiten]

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal[Bearbeiten]

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.