Diese Seite kann als Wiki2Reveal Folien angezeigt werden.
Einzelne Abschnitte werden als Folien betrachtet und Änderungen an den Folien wirken sich sofort auf den Inhalt der Folien aus.
Einführung - Orthogonalisierungsverfahren
[Bearbeiten]
In diesem Abschnitt soll für eine gegebene Matrix
mit
eine Zerlegung der Form

bestimmt werden, wobei
eine orthogonale Matrix ist und
eine um Nullzeilen ergänzte obere Dreiecksmatrix ist,
Eine orthogonole eine reguläre (invertierbare) Matrix mit der Eigenschaft

Wenn man nun das Matrixprodukt
berechnet, dann bilden die Spaltenvektoren
Orthonormalbasis vom
mit:
.
Orthonormal Vektoren und Einheitsmatrix
[Bearbeiten]
- Die Orthogonalität der Spaltenvektoren
führt zu der Eigenschaft
für
.
- Die Normalisierung der Basisvektoren
führt zu der Eigenschaft
und damit auch
, was den Diagonalelementen der Matrix
entspricht.
Um Nullzeilen ergänzte obere Dreieckmatrix
[Bearbeiten]
In der Zerlegung
ist
mit einer oberen Dreiecksmatrix
, die wie folgt mit Nullzeilen ergänzt wird:

Im Fall
ist demnach insbesondere
.
Wie wir zeigen wollen, ermöglicht eine solche QR- bzw. QS-Zerlegung von
sowohl die stabile Lösung linearer Gleichungssysteme
als auch die stabile Lösung von Ausgleichsproblemen

Dafür benötigen wir einige Eigenschaften orthogonaler Matrizen.
Elementare Eigenschaften orthogonaler Matrizen
[Bearbeiten]
In der Geometrie der Ebene kennt man die Kongruenzabbildungen, bei denen die Bilder von Strecken wieder Strecken der gleichen Länge abgebildet. Kongruenzabbildungen, wie Geradenspiegelungen sind dabei längentreu und winkeltreu, d.h. unter der Abbildung bleiben Winkel zwischen Strecken und die Länge von Strecken unverändert (invariant). Orthogonale Matrizen besitzen als Abbildung die Eigenschaft der Längeninvarianz.
Lemma - Längeninvarianz/Isometrie für orthogonale Matrizen
[Bearbeiten]
Sei
eine orthogonale Matrix. Dann ist auch
eine orthogonale Matrix und es gilt

Eine orthogonal Matrix kann man als Abbildung von
nach
auffassen.
Eine orthogonal Matrix verändert dabei die Länge des Vektors nicht in der Euklidischen Norm
. Der Begriff der Isometrie ist dabei allgemein für metrische Räumen definiert. Ein zentrische Streckung
mit einem Streckungsfaktor
ist z.B. keine Isometrie, da unter der Abbildung der Bildvektor
die
-fache Länge von
besitzt.
Der Beweis erfolgt in zwei Schritten:
- Man zeigt, dass auch die transponierte Matrix eine orthogonale Matrix ist.
- Man zeigt die Längeninvarianz unter Darstellung des Skalarproduktes als Matrixmultiplikation (d.h.
, wobei
als Spaltenvektoren aufgefasst werden und
als Matrizenprodukt einer
-Matrix
und einer
-Matrix
ist.
Beweis 1 - inverse Matrix - orthogonale Matrix
[Bearbeiten]
Wegen

ist auch
eine orthogonale Matrix.
Des Weiteren hat man für

und somit auch
für die orthogonale Matrix
.
q.e.d.
Die Eigenschaft der Längentreue der durch
und
definierten linearen Abbildungen bezeichnet man auch als isometrisch bezüglich der Euklidischen Norm, bzw. als Isometrie.
Lemma - Euklidische Norm und Determinante orthogonaler Matrizen
[Bearbeiten]
Für die Operatornorm
einer linearen Abbildung und für die Determinante orthogonaler Matrizen gilt:
- (i)
,
- (ii)
.
Beweis - Euklidische Norm und Determinante orthogonaler Matrizen
[Bearbeiten]
Der Beweis gliedert sich in zwei Teilaussagen
- (i) zur Operatornorm für lineare Abbildung und
- (ii) zur Determinate von orthogonalen Matrizen.
Wenn man das Lemma Längeninvarianz bzw. Isometrie für orthogonale Matrizen auf
und
anwendet, erhält man die Aussage (i) über die Definition der Operatornorm mit:

Mit der Einheitsmatrix
und der Multiplikativität der Determinanten
folgt die Aussage (ii) über die Eigenschaft, dass die transponierte Matrix
multiplikativ invers zu der Matrix
ist.
![{\displaystyle {\begin{array}{rcl}1&=&\det(E_{n})=\det(Q\cdot Q^{T})=\det(Q)\cdot \det(Q^{T})\\&=&[\det(Q)]^{2}=\left[\det(Q^{T})\right]^{2}.\\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/281a578371a687163d36a24db281d281201ee8a4)
Dabei geht in die Gleichungskette ein, dass die Determinante der transponierten Matrix und der Matrix selbst gleich sind.
q.e.d.
Korollar - Konditionszahl orthogonaler Matrizen
[Bearbeiten]
Seien
eine reguläre und
eine orthogonale Matrix. Dann gilt für die Konditionszahl

Der Beweis gliedert sich in die folgenden Teile:
- Verwendung der Längeninvarianz/Isometrie für orthogonale Abbildungen
Beweis 1 - Längeninvarianz orthogonaler Abbildungen
[Bearbeiten]
Nach Lemma zur Längeninvarianz/Isometrie für orthogonale Abbildungen gilt
für alle
. Mit
erhält man

für
und somit
Beweis 2 - Längeninvarianz orthogonaler Abbildungen
[Bearbeiten]

Weiter gilt mit Lemma 3.24 (i)

und folglich
. Damit ergibt sich

q.e.d.
Multiplikation einer quadratischen Matrix
von links mit einer orthogonalen Matrix führt also auf eine Matrix mit derselben Kondition wie
. Weiter gilt:
Seien
orthogonale Matrizen. Dann ist auch
eine orthogonale Matrix.
Die Aussage des Lemma folgt aus

q.e.d.
3.4.2 Lösung linearer Gleichungssysteme mittels QR-Zerlegung
[Bearbeiten]
Wir betrachten nun wieder die Lösung eines linearen Gleichungssystems
für eine reguläre Matrix
und beliebige rechte Seite
und gehen davon aus, dass eine Zerlegung der Form
von
mit einer orthogonalen Matrix
und einer oberen Dreiecksmatrix
gegeben ist (vgl. (3.37) - (3.39)). Wegen Lemma 3.24 gilt offenbar

Weiter hat man die Äquivalenzen

und mit Korollar 3.25 die Beziehungen

D. h., das Gleichungssystem
ist äquivalent zu dem gestaffelten Gleichungssystem
, wobei die Matrix
bezüglich der Spektralnorm keine schlechtere Kondition als
aufweist und gemäß 3.40
gilt.
3.4.3 QR-Zerlegung mittels Gram-Schmidt-Orthogonalisierung
[Bearbeiten]
Es sei nun
eine quadratische Matrix mit
und es seien eine orthogonale Matrix
und eine obere Dreiecksmatrix
gesucht, so dass
- (3.41)

gilt. Schreiben wir
und
mit Vektoren
in der Form

so ist die Gleichung (3.41) offenbar äquivalent mit den Gleichungen
- (3.42)

wobei
für
berücksichtigt wurde. Dabei sind die
linear unabhängig und die
wegen der Orthogonalität von
paarweise orthonormal und damit auch linear unabhängig. Die Gleichungen (3.42) implizieren somit für
- (3.43)

Folglich suchen wir eine orthogonale Basis
des
, für welche die Gleichungen (3.42) erfüllt sind. Wir wollen im Folgenden zeigen, dass man eine solche durch Orthogonalisierung der
mittels des aus der Linearen Algebra bekannten Gram-Schmidt-Orthonormierungsverfahrens erhält.
Sind
die gegebenen Spalten von
, welche nach Voraussetzung eines Basis des
bilden, so lautet für diese das Gram-Schmidt-Orthonormierungsverfahren, wobei wir die durch das Verfahren erzeugten Vektoren gleich mit
bezeichnen:
- (3.44)
![{\displaystyle {\hat {q}}^{j}:=aj-\sum _{i=1}^{j-1}\left[(a^{j})^{T}q^{i}\right]q^{i},\quad q^{j}:={\frac {{\hat {q}}^{j}}{\|{\hat {q}}^{j}\|_{2}}},\quad j=1,2,...,n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d24aba98d48baa1d7277c870c6808cbd2650dc1c)
Bekanntlich gilt für die so erzeugten Vektoren
die Identität (3.43) und sind diese paarweise orthonormal.
Aus den Gleichungen (3.44) leitet man unmittelbar die folgenden Gleichungen her:
![{\displaystyle a^{j}=\left\|{\hat {q}}^{j}\right\|_{2}q^{j}+\sum _{i=1}^{j-1}\left[(a^{j})^{T}q^{i}\right]q^{i},\quad j=1,2,...,n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/854ffc42160dc5688bd860946f7980da1e8f0ed5)
Wie ein Vergleich mit den Gleichungen (3.42) zeigt, erhält man demnach die gewünschte QR-Faktorisierung von
für die Matrix
mit den durch das Gram-Schmidt-Verfahren erzeugten Vektoren
und die obere Dreiecksmatrix
, welche folgende Elemente hat:

Der hier beschriebene Orthogonalisierungsprozess ist aber unter Umständen nicht gutartig, etwa für
und damit
(s. Beispiel 3.4 in Band 1 von Quarteroni/Sacco/Saleri und S. 177 bei Stoer). Mit wachsendem
kann die Orthogonalität immer stärker verloren gehen. Deshalb werden zumeist andere Methoden, wie die im folgenden Abschnitt dargestellte, zur QR-Faktorisierung von
herangezogen.
Sei nun allgemeiner
mit
gegeben. Gegenstand dieses Abschnitts ist die Bestimmung einer Zerlegung der Form
mit einer orthogonalen Matrix
und einer im Fall
nichtquadratischen Matrix
wie in (3.39) mittels sog. Householder-Transformationen. In diesem Zusammenhang zeigen wir zunächst:
- Es sei
ein Vektor mit
und
die Matrix
- (3.45)

- Dann gilt
- (3.46)
(
ist symmetrisch),
- (3.47)
(
ist involutorisch),
- (3.48)
(
ist orthogonal).
Die Beziehungen (3.46) und (3.47) ergeben sich aus


Die Identität (3.48) folgt aus (3.46) und (3.47).
q.e.d.
Eine Matrix vom Typ
(3.45) für ein
mit
nennen wir Householder-Matrix und eine lineare Abbildung

mit einer Householder-Matrix
bezeichnen wir als Householder-Transformation.
Householder-Matrizen kann man dazu verwenden, einen Block von Komponenten eines gegebenen Vektors
(durch Multiplikation mit einer solchen Matrix von links) zu Null zu setzen. Will man insbesondere alle Komponenten von
außer der
-ten Komponente Null setzen, so muss man den Vektor
zur Konstruktion von
so wählen, wie er im folgenden Lemma angegeben wird. Dabei ist wieder mit
die
-te Spalte von
gemeint.
- Gegeben sei
mit
. Weiter sei
- (3.49)

- mit
- (3.50)

- Dann hat man
und für
- (3.51)

Wegen
ist der Nenner in (3.49) ungleich Null und damit
in (3.49) wohldefiniert. Offenbar ist
. Ferner gilt

und damit

Zusammen mit (3.49) gelangt man zu der Darstellung

Zur Vermeidung von Stellenauslöschungen bei der Berechnung von (3.50) ist es offenbar sinnvoll,
zu wählen, wobei
die
-te Komponente von
bezeichnet.
Wir geben ein Beispiel.
Sei
und
. Dann errechnen wir
und setzen wir somit
sowie

Es ergibt sich

und demnach

Will man für ein
die Komponenten
von
unverändert lassen und gleichzeitig
erreichen, bekommt man dies, indem man
von links mit der Transformationsmatrix

multipliziert. Dabei ist
die
-Einheitsmatrix und
die
-Householder-Matrix der Form

welche mit dem aus den letzten
Komponenten von
bestehenden Vektor
und der ersten Spalte
der Einheitsmatrix
gebildet wird. Denn ist
der aus den ersten
Komponenten von
bestehende Vektor, so hat man nach Lemma 3.28

Nun ist klar, wie man eine Matrix
in die Form
mit einer orthogonalen Matrix
und eine Matrix
der Gestalt (3.39) zerlegen kann. Ausgehend von
werden sukzessive Matrizen der Form
- (3.52)

bestimmt, so dass dann schließlich
die gewünschte Gestalt hat. Die Matrizen in (3.52) werden dabei sukzessive durch Transformationen der Form
- (3.53)

mit Householder-Matrizen

erzeugt, wobei
mit

so zu wählen ist, dass mit einem

gilt. Im Fall
erreicht man dies gemäß Lemma 3.28 mit

Im selteneren Fall
kann man offenbar
bzw.
in (3.53) wählen. Nach Lemma 3.27 sind dann die Matrizen
und damit die Matrizen
orthogonal und symmetrisch, so dass man wegen





mit

wegen (3.47) die gewünschte Zerlegung
erhält. Gemäß Lemma 3.26 ist
tatsächlich eine orthogonale Matrix.
Man beachte, dass man
für die Lösung des Gleichungssystems
mit
(sowie für die des Ausgleichsproblems in Abschnitt 4.3) gar nicht benötigt, sondern nur den Vektor
. Wegen
ist dabei

so dass man mit
wie mit
verfahren kann:





Man beachte, dass mit

gemäß (3.52) und (3.53)

gilt, also wie beim Gauß-Algorithmus nur die verbleibende Restmatrix
in
und analog der verbleibende Anteil der rechten Seite zu transformieren ist. Weiter sei gesagt, dass Householder-Transformationsmatrizen niemals explizit durch Matrixmultiplikation gebildet werden sollten. Denn eine Matrixmultiplikation
mit
und
kostet
Multiplikationen. Die benötigten Matrixmultiplikationen für
berechne man daher wie folgt:
- (3.54)

Zunächst ermittele man also den Vektor
und dann "aufdatiere" man die Matrix
. Für ein solches Vorgehen benötigt man nur
Multiplikationen.
Will man die Vektoren
aufbewahren, weil man z. B. ein Gleichungssystem
mit derselben Matrix und verschiedenen rechten Seiten zu lösen hat, so kann man für jedes
das Diagonalelement
zunächst gesondert speichern und anschließend den Vektor
in der
-ten Spalte der Matrix
eintragen (s. Beispiel 3.32). Auf diese Weise spart man Speicherplatz, was bei sehr großen Matrizen relevant ist.
Man berechne eine QS-Zerlegung von
und
für

Wir setzen
und
und bekommen zunächst

Damit folgt



Für
benötigt man nun die Produkte
und
, die man analog zu (3.54) berechnet. Es ist


und demnach


Demzufolge ergibt sich


Wollte man den Vektor
aufbewahren, um damit zu einem späteren Zeitpunkt die Zerlegung von
wieder erzeugen zu können, so legt man einen Arbeitsvektor
an, setzt man
und trägt man
in die erste Spalte von
ein, so dass sich ergibt:

In der Praxis kann man
und auch
wieder
nennen, da man
selbst nicht mehr benötigt.
Nun verfährt man analog mit der Restmatrix bzw. dem Restvektor

Man bekommt








Damit ergibt sich nun

Will man die
wiederverwenden, so bilde man mit
und dem oben definierten

Aus
und
könnte man
in offensichtlicher Weise gewinnen.
Man kann sich überlegen, dass eine QS-Zerlegung von
mittels Householder-Transformationen etwa
![{\displaystyle 2\left[{\frac {k^{3}}{3}}+(n-k){\frac {k^{2}}{2}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/19eb9f9b8296083b9031e545885ccc448b96fa09)
Multiplikationen benötigt, also
- (3.55)
für
und
für 
und damit bei quadratischen Matrizen etwa doppelt so viele wesentliche Rechenoperationen wie der Gauß-Algorithmus. Neben dem Einsatz für die bereits besprochene stabile Lösung von linearen Gleichungssystemen werden wir im nächsten Abschnitt eine weitere wichtige Anwendung einer solchen QS-Zerlegung geben.
Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.
Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.