Kurs:Numerik I/Lösung der Normalengleichung

Aus Wikiversity

Mehrdimensionale Taylorentwicklung[Bearbeiten]

Für die mehrdimensionale Tailorentwicklung von einer quadratischen Funktion mit dem Vektor als Entwicklungspunkt gilt:

Dabei ist der Gradient von an der Stelle und die Hesse-Matrix von an der Stelle .

Ausgangsfunktion der Ausgleichsrechnung[Bearbeiten]

Im Allgemeinen wurde aus der linearen Ausgleichsrechnung die folgende Gleichung hergeleitet

Mehrdimensionale Taylorentwicklung[Bearbeiten]

Diese wird nun als mehrdimensionale Taylorentwicklung einer quadratischen Funktion interpretiert.

Rang der Matrix[Bearbeiten]

Wir betrachten nun die obige quadratische Funktion, wobei wir voraussetzen. hat

  • im Entwicklungspunkt den Gradienten ,
  • an der Stelle den Gradienten und
  • die Hesse-Matrix

Normalengleichung[Bearbeiten]

Notwendige Bedingung, dass Minimalpunkt von ist, ist die Bedingung bzw. äquivalent dazu, dass die sog. Normalgleichungen

erfüllt. Nach dem Lemma zur Lösbarkeit der Normalengleichung ist dabei die (von unabhängige) Matrix positiv definit, so dass die eindeutige Lösung der Normalgleichungen auch der einzige (globale) Minimalpunkt von ist.

Satz - Lösbarkeit der Normalengleichung[Bearbeiten]

Sei mit und . Dann besitzt das lineare Ausgleichsproblem

eine eindeutige Lösung und diese ist eindeutige Lösung des linearen Gleichungssystems

Bemerkung - Symmetrie der Matrix[Bearbeiten]

Die Matrix ist mit und eine symmetrische Matrix, da die Kompomenten bestehen aus den Skalarprodukten der Spaltenvektor von mit:

Die Symmetrie des Skalarprodukte für liefert die Symmetrie der Matrix.

Bemerkung - Gleichungssystem mit invertierbarer Matrix[Bearbeiten]

Die Invertierbarkeit von Matrizen bzgl. Matrixmultiplation betrachtet auf einem Matrizenraum von quadratischen betrachten bzgl. einer inneren Verknüpfung. und ist nicht quadratisch. Wenn der Rang von allerdings , hat auch den Rang und die Matrix ist invertierbar. Mit der Normalengleichung, gilt für die eindeutige Lösung von

Beispiel[Bearbeiten]

Wir betrachten dazu ein Beispiel der Ausgleichsrechnung.

Beispiel - Ausgleichsgerade 1[Bearbeiten]

Wir betrachten den Fall der sog. Ausgleichsgeraden. Wenn die mit ungefähr auf einer Geraden liegen, macht es Sinn, polynomiale Ansatzfunktionen bis zum Grad 1 zu verwenden. D.h. als Ansatzfunktionen wählt man

mit .

Beispiel - Ausgleichsgerade - 2[Bearbeiten]

Somit erhält man approximierende Funktion über

und die gesuchten optimalen Koeffizienten der Geradengleichung werden durch den Vektor definiert.

Beispiel - Daten zu Zeitpunkten - 3[Bearbeiten]

Als Daten haben wir z.B. wieder Daten zum Zeitpunkt erhoben, für die nun die Ausgleichsgerade gesucht wird. Dazu definiert man:

und den Spaltenvektor , dessen Komponenten nur aus 1 besteht mit

Beispiel - Definition der Matrix A - 4[Bearbeiten]

Nun hat in diesem Fall die Gestalt . Da der erste Spaltenvektor nur als Komponenten die 1 besitzt und die Zeitpunkte in paarweise verschieden sind, hat die Matrix den Rang 2.

Beispiel - Berechnung der symmetrischen Matrix - 5[Bearbeiten]

Weiter ist dann

Da der Rang der Matrix 2 ist, besitzt auch die symmetrische Matrix den Rang 2.

Beispiel - Inverse Matrix zur symmetrischen Matrix - 6[Bearbeiten]

Für eine symmetrische invertierbare Matrix kann man die Inverse explizit angeben:


Beispiel - Lösung der Normalengleichung - 7[Bearbeiten]

Somit lautet die Lösung der Normalgleichungen in diesem Fall


Beispiel - Berechnung der Lösung - 8[Bearbeiten]

Durch algebraische Umformungen erhält man demzufolge

Beispiel - Berechnung von Termen in der Lösung - 9[Bearbeiten]

Dabei hat man

Beispiel - Einsetzung von Termen in die Lösung - 10[Bearbeiten]

Durch Einsetzen erhält man:

Beispiel - Berechnung der Ausgleichsgerade für konkrete Wertepaare - 11[Bearbeiten]

Beispielsweise für die Wertepaare

Beispiel - Berechnung von Termen in der Lösung - 12[Bearbeiten]

Wendet man die obigen Überlegungen auf die Beispieldaten an, erhält man

Beispiel - Berechnung von Termen in der Lösung - 13[Bearbeiten]

Über Einsetzung in die Vektordefinition von ergibt sich somit

Die Ausgleichsgerade zu den gegebenen Daten lautet folglich

Beispiel - Maximaler Fehler der Lösung - 14[Bearbeiten]

Der maximale relative Fehler der bezüglich der beträgt

bzw. ungefähr 1.6%.

Normalengleichung für höhere k[Bearbeiten]

Für könnte man die Normalgleichungen (4.10) mittels einer Cholesky-Zerlegung lösen. Diese selbst ist, wie man zeigen kann, numerisch stabil. Leider ist das Ausgleichproblem selbst aber häufig schlecht konditioniert.

Vandermonde-Matrix - Ansatzfunktionen[Bearbeiten]

Man betrachte z. B. die Matrix , die sog. Vandermonde-Matrix, die man für im Fall der Wahl der Monome (4.6) als Ansatzfunktionen erhält:

Einfluss auf die Konditionszahl[Bearbeiten]

Für unterscheiden sich die Funktionen und bereits für nicht allzu großes kaum, so dass die -te und -te Spalten in für solche nahezu linear abhängig sind. Die oft große Kondition von geht außerdem noch im Fall bei der Lösung der Normalgleichungen quadratisch ein, denn es gilt:

Lemma - Eigenwerte positiv definiter Matrizen[Bearbeiten]

Sei eine positiv definite Matrix, dann sind alle Eigenwerte positiv.

Beweis[Bearbeiten]

Sei ein Eigenwert der Matrix und ein beliebiger Eigenvektor. Dann gilt mit und der positiven Definitheit:

Damit ist auch . q.e.d.

Bemerkung - Normalengleichung - Taylorentwicklung[Bearbeiten]

Durch die Darstellung der Funktion in der mehrdimensionalen Taylorentwicklung ist die Hesse-Matrix. Die -Matrix ist mit positiv definit, denn dann müssen alle Eigenwerte von 0 verschieden sein.

Bemerkung - positiv semidefinit[Bearbeiten]

Die -Matrix ist im Allgemeinen nur nur positiv semidefinit, denn es gilt für alle :

Lemma - Konditionszahl Normalengleichung[Bearbeiten]

Für eine reguläre Matrix gilt für die Konditionszahl

Dabei bezeichnet der Index 2 an der Konditionszahl, dass die Euklidische Norm bzw. -Norm verwendet wurde.

Beweis[Bearbeiten]

Nach dem Lemma über Eigenwerte positiv definiter Matrix gilt für die Eigenwerte .

Beweis 1 - Eigenwert der inversen Matrix[Bearbeiten]

Weiter hat wegen

für Eigenvektoren zu besitzt.

Beweis 2 - Berechnung der Konditionszahl[Bearbeiten]

Es gilt folglich nach Satz zur Berechnung der Konditionszahl erhält man:

wobei und den größten bzw. kleinsten Eigenwert von bezeichnen.


Beweis 3 - Orthonormalbasis aus Eigenvektoren[Bearbeiten]

Indem man mittels einer Orthonormalbasis von Eigenvektoren darstellt, kann man ferner die Abschätzungen

beweisen, wobei offenbar Gleichheit in der ersten bzw. zweiten Ungleichung für einen zu bzw. gehörenden Eigenvektor angenommen wird.

Beweis 4 - Orthonormalbasis aus Eigenvektoren[Bearbeiten]

Folglich schließt man

Wendet man diese Ergebnisse auf das Lemma über Eigenwerte positiv definiter Matrizen auf die positiv definite Matrix an,

Beweis 5 - Satz zur Berechnung der Konditionszahl[Bearbeiten]

so erhält man mit dem Satz zur Berechnung der Konditionszahl

q.e.d.

Bemerkung - Cholesky-Zerlegung[Bearbeiten]

Es ist daher große Vorsicht bei Anwendung der Cholesky-Zerlegung für die Lösung der Normalgleichungen geboten. Prinzipiell ist sie nur zu empfehlen, wenn große Residuen in der Lösung des Ausgleichsproblems zu erwarten sind (s. Deuflhard/Hohmann). Sicherer ist es aber, so vorzugehen, wie es im folgenden Abschnitt beschrieben ist.

Siehe auch[Bearbeiten]

Seiteninformation[Bearbeiten]

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal[Bearbeiten]

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.