Zum Inhalt springen

Gradientenabstiegsverfahren/Gradient - lineares Funktional

Aus Wikiversity


Einleitung[Bearbeiten]

Diese Seite zum Thema Gradientenabstiegsverfahren/Gradient - lineares Funktional kann als Wiki2Reveal Folien angezeigt werden. Einzelne Abschnitte werden als Folien betrachtet und Änderungen an den Folien wirken sich sofort auf den Inhalt der Folien aus. Dabei werden die folgenden Teilaspekte im Detail behandelt:

  • (1) Ausgangspunkt ist eine lineare Abbildung die in Komponentenfunktionen zerlegt wird.
  • (2) auf die Komponentenfunktionen wird ein erweitertes Gradientenabstiegsverfahren angewendet

Zielsetzung[Bearbeiten]

Diese Lernressource wird Gradient eines lineares Funktional adressiert und diesen auf ein Gradientenabstiegsverfahren anzuwenden. Dabei erweitert man das Standardverfahren, um eine Minimierung in Gradientenrichtung. Dieses wertet die Fehlerfunktion in Richtung des normierten Gradienten an endlich vielen Stellen aus und wählt den nächsten Schritt in Abhängigkeit von dem Minimum der Fehlerfunktion.

Lernvoraussetzungen[Bearbeiten]

Die Lernressource zum Thema Gradientenabstiegsverfahren/Gradient - lineares Funktional hat die folgenden Lernvoraussetzungen, die zum Verständnis der nachfolgenden Ausführungen hilfreich bzw. notwendig sind.


Gradientenabstieg für lineares Funktional[Bearbeiten]

Wendet man das Gradientenabstiegsverfahren auf ein lineares Funktional wird bei der aktuellen Position der Gradient der Fehlerfunktion berechnet und der aktuelle Vektor in Richtung des negativen Gradient zu verändert, um den Gesamtfehler zu verkleinern.

Definition des linearen Funktionals[Bearbeiten]

Das lineare Funktional sei über das Skalarprodukt wie folgt definiert:

Partielle Ableitung eines linearen Funktionals[Bearbeiten]

Mit gilt:

Diese partielle Ableitung tritt bei der Ableitung der Fehlerfunktion mit quadratischem Fehler als innere Ableitung auf.

Daten für die Regression[Bearbeiten]

Die Daten für die mehrdimensionale lineare Regression bestehen aus Datenpunkten der Form :

Fehler für Datenpunkt[Bearbeiten]

Für einen einzelnen Datenpunkt kann man mit jeweils den Fehler wie folgt angeben:

Bemerkung - Fehler[Bearbeiten]

Der Fehler ist reellwertig und kann auch negativ sein. Das bedeutet, dass der durch geliefert Wert zu klein im Vergleich zu ist. Bei der Aggregation von reellwertigen Fehlern können sich positive Fehler und negative Fehler bei der Aggregation ausgleichen und ein Gesamtfehler von 0 kann dann nicht als fehlerfrei Regression interpretiert werden.

Aggregation von Einzelfehlern zu Fehlerfunktion[Bearbeiten]

Die obige Fehlerfunktion berechnet den reellwertigen Fehler von einem Datenvektor bzgl. einem Sollwert . Der quadratische Fehler ist nicht negativ und der Gesamtfehler wird für alle Datenpunkte aufsummiert.

Fehlerfunktion für Datenvektoren[Bearbeiten]

Die quadratische Fehlerfunktion hängt von den Daten (also den Vektoren und reellen Sollwerten ab:

Bemerkung - Differenzierbarkeit - Betragsfunktion[Bearbeiten]

Man könnte die Fehlerfunktion auch mit dem Betrag wie folgt definieren: . Die Betragsfunktion ist allerdings in 0 nicht differenzierbar. Daher wird der quadratische Fehler verwendet.

Gradient des Gesamtfehlers[Bearbeiten]

Mit der Anwendung der Summenregel für den Gradienten einer Summe man den Gradienten des Gesamtfehlers wie folgt berechnen.

Implementation in R[Bearbeiten]

In GNU R als OpenSource-Software zur Datenanalyse kann man die mathematische Definition des Gradienten implementieren. Die Implementation in R findet man bei der linearen Regression für Komponentenfunktionen.

Siehe auch[Bearbeiten]

Seiteninformation[Bearbeiten]

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal[Bearbeiten]

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Gradientenabstiegsverfahren' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.