Für die mehrdimensionale Tailorentwicklung von einer quadratischen Funktion mit dem Vektor
als Entwicklungspunkt gilt:

Dabei ist
der Gradient von
an der Stelle
und
die Hesse-Matrix von
an der Stelle
.
Ausgangsfunktion der Ausgleichsrechnung
[Bearbeiten]
Im Allgemeinen wurde aus der linearen Ausgleichsrechnung die folgende Gleichung hergeleitet

Diese wird nun als mehrdimensionale Taylorentwicklung einer quadratischen Funktion
interpretiert.

Wir betrachten nun die obige quadratische Funktion, wobei wir
voraussetzen.
hat
- im Entwicklungspunkt
den Gradienten
,
- an der Stelle
den Gradienten
und
- die Hesse-Matrix

Notwendige Bedingung, dass
Minimalpunkt von
ist, ist die Bedingung
bzw. äquivalent dazu, dass
die sog. Normalgleichungen

erfüllt. Nach dem Lemma zur Lösbarkeit der Normalengleichung ist dabei die (von
unabhängige) Matrix
positiv definit, so dass die eindeutige Lösung
der Normalgleichungen auch der einzige (globale) Minimalpunkt von
ist.
Satz - Lösbarkeit der Normalengleichung
[Bearbeiten]
Sei
mit
und
. Dann besitzt das lineare Ausgleichsproblem

eine eindeutige Lösung
und diese ist eindeutige Lösung des linearen Gleichungssystems

Die Matrix
ist mit
und
eine symmetrische Matrix, da die Kompomenten bestehen aus den Skalarprodukten der Spaltenvektor
von
mit:

Die Symmetrie des Skalarprodukte
für
liefert die Symmetrie der Matrix.
Bemerkung - Gleichungssystem mit invertierbarer Matrix
[Bearbeiten]
Die Invertierbarkeit von Matrizen bzgl. Matrixmultiplation betrachtet auf einem Matrizenraum von quadratischen betrachten bzgl. einer inneren Verknüpfung.
und
ist nicht quadratisch. Wenn der Rang von
allerdings
, hat
auch den Rang
und die Matrix
ist invertierbar. Mit der Normalengleichung,
gilt für die eindeutige Lösung
von

Wir betrachten dazu ein Beispiel der Ausgleichsrechnung.
Wir betrachten den Fall der sog. Ausgleichsgeraden. Wenn die
mit
ungefähr auf einer Geraden liegen, macht es Sinn, polynomiale Ansatzfunktionen bis zum Grad 1 zu verwenden. D.h. als Ansatzfunktionen wählt man

mit
.
Somit erhält man approximierende Funktion
über

und die gesuchten optimalen Koeffizienten der Geradengleichung werden durch den Vektor
definiert.
Als Daten haben wir z.B. wieder Daten
zum Zeitpunkt
erhoben, für die nun die Ausgleichsgerade gesucht wird. Dazu definiert man:

und den Spaltenvektor
, dessen Komponenten nur aus 1 besteht mit

Beispiel - Definition der Matrix A - 4
[Bearbeiten]
Nun hat
in diesem Fall die Gestalt
.
Da der erste Spaltenvektor
nur als Komponenten die 1 besitzt und die Zeitpunkte in
paarweise verschieden sind, hat die Matrix den Rang 2.
Beispiel - Berechnung der symmetrischen Matrix - 5
[Bearbeiten]
Weiter ist dann

Da der Rang der Matrix
2 ist, besitzt auch die symmetrische Matrix
den Rang 2.
Beispiel - Inverse Matrix zur symmetrischen Matrix - 6
[Bearbeiten]
Für eine symmetrische invertierbare Matrix
kann man die Inverse explizit angeben:

Beispiel - Lösung der Normalengleichung - 7
[Bearbeiten]
Somit lautet die Lösung der Normalgleichungen
in diesem Fall

Durch algebraische Umformungen erhält man demzufolge

Beispiel - Berechnung von Termen in der Lösung - 9
[Bearbeiten]
Dabei hat man

Beispiel - Einsetzung von Termen in die Lösung - 10
[Bearbeiten]
Durch Einsetzen erhält man:

Beispiel - Berechnung der Ausgleichsgerade für konkrete Wertepaare - 11
[Bearbeiten]
Beispielsweise für die
Wertepaare

Beispiel - Berechnung von Termen in der Lösung - 12
[Bearbeiten]
Wendet man die obigen Überlegungen auf die Beispieldaten an, erhält man

Beispiel - Berechnung von Termen in der Lösung - 13
[Bearbeiten]
Über Einsetzung in die Vektordefinition von
ergibt sich somit

Die Ausgleichsgerade zu den gegebenen Daten lautet folglich

Beispiel - Maximaler Fehler der Lösung - 14
[Bearbeiten]
Der maximale relative Fehler der
bezüglich der
beträgt

bzw. ungefähr 1.6%.
Für
könnte man die Normalgleichungen (4.10) mittels einer Cholesky-Zerlegung lösen. Diese selbst ist, wie man zeigen kann, numerisch stabil. Leider ist das Ausgleichproblem selbst aber häufig schlecht konditioniert.
Man betrachte z. B. die Matrix
, die sog. Vandermonde-Matrix, die man für
im Fall der Wahl der Monome (4.6) als Ansatzfunktionen erhält:

Für
unterscheiden sich die Funktionen
und
bereits für nicht allzu großes
kaum, so dass die
-te und
-te Spalten in
für solche
nahezu linear abhängig sind. Die oft große Kondition von
geht außerdem noch im Fall
bei der Lösung der Normalgleichungen quadratisch ein, denn es gilt:
Lemma - Eigenwerte positiv definiter Matrizen
[Bearbeiten]
Sei
eine positiv definite Matrix, dann sind alle Eigenwerte positiv.
Sei
ein Eigenwert der Matrix
und
ein beliebiger Eigenvektor. Dann gilt mit
und der positiven Definitheit:

Damit ist auch
. q.e.d.
Bemerkung - Normalengleichung - Taylorentwicklung
[Bearbeiten]
Durch die Darstellung der Funktion
in der mehrdimensionalen Taylorentwicklung ist
die Hesse-Matrix. Die
-Matrix
ist mit
positiv definit, denn dann müssen alle Eigenwerte von 0 verschieden sein.
Die
-Matrix
ist im Allgemeinen nur
nur positiv semidefinit, denn es gilt für alle
:

Lemma - Konditionszahl Normalengleichung
[Bearbeiten]
Für eine reguläre Matrix
gilt für die Konditionszahl

Dabei bezeichnet der Index 2 an der Konditionszahl, dass die Euklidische Norm bzw.
-Norm verwendet wurde.
Nach dem Lemma über Eigenwerte positiv definiter Matrix
gilt für die Eigenwerte
.
Beweis 1 - Eigenwert der inversen Matrix
[Bearbeiten]
Weiter hat wegen

für Eigenvektoren
zu
besitzt.
Beweis 2 - Berechnung der Konditionszahl
[Bearbeiten]
Es gilt folglich nach Satz zur Berechnung der Konditionszahl erhält man:


wobei
und
den größten bzw. kleinsten Eigenwert von
bezeichnen.
Beweis 3 - Orthonormalbasis aus Eigenvektoren
[Bearbeiten]
Indem man
mittels einer Orthonormalbasis von Eigenvektoren darstellt, kann man ferner die Abschätzungen

beweisen, wobei offenbar Gleichheit in der ersten bzw. zweiten Ungleichung für einen zu
bzw.
gehörenden Eigenvektor angenommen wird.
Beweis 4 - Orthonormalbasis aus Eigenvektoren
[Bearbeiten]
Folglich schließt man

Wendet man diese Ergebnisse auf das Lemma über Eigenwerte positiv definiter Matrizen auf die positiv definite Matrix
an,
Beweis 5 - Satz zur Berechnung der Konditionszahl
[Bearbeiten]
so erhält man mit dem Satz zur Berechnung der Konditionszahl
![{\displaystyle \operatorname {cond} _{2}(A^{T}A)={\frac {\lambda _{\max(}A^{T}A)}{\lambda _{\min(}A^{T}A)}}={\frac {\max \limits _{\|x\|_{2}=1}x^{T}(A^{T}A)x}{\min \limits _{\|x\|_{2}=1}x^{T}(A^{T}A)x}}={\frac {\max \limits _{\|x\|_{2}=1}\|Ax\|_{2}^{2}}{\min \limits _{\|x\|_{2}=1}\|Ax\|_{2}^{2}}}=[\operatorname {cond} _{2}(A)]^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ce1e696bb0cf2f13159f6dc0f6dd32729a34925)
q.e.d.
Es ist daher große Vorsicht bei Anwendung der Cholesky-Zerlegung für die Lösung der Normalgleichungen geboten. Prinzipiell ist sie nur zu empfehlen, wenn große Residuen
in der Lösung des Ausgleichsproblems zu erwarten sind (s. Deuflhard/Hohmann). Sicherer ist es aber, so vorzugehen, wie es im folgenden Abschnitt beschrieben ist.
Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.
Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.