Kurs:Optimierung II

Aus Wikiversity
Zur Navigation springen Zur Suche springen

Dieser Kurs gehört zum Fachbereich Mathematik.

Inhalt:

Grundlagen: Konvexe Funktionen, gleichmäßige Konvexität, Charakterisierung durch Bedingungen erster und zweiter Ordnung, Modellbildung, spezielle Problemklassen, Existenz- und Eindeutigkeitsaussagen für allgemeine Optimierungsprobleme, Optimalitätskriterien für Probleme ohne Nebenbedingungen, Grundsätzliches Vorgehen (Abstiegsrichtung, Schrittweiten, Trust-Region-Ansatz), Konvergenzraten (lineare, quadratische und superlineare Konvergenz, Q- und R-Raten)
Verfahren für unrestringierte Minimierungsprobleme: Modellalgorithmus, Schrittweitenstrategien (exakte Schrittweiten, (strenge) Wolfe-Powell-Schrittweite, Armijo-Schrittweite), Gradienten-verfahren, lokales und globalisiertes Newton-Verfahren, Rang-1- und Rang-2-Quasi-Newton-Verfahren, Verfahren der konjugierten Gradienten, Trust-Region Verfahren.
  1. Einführung
  2. Ein Modellalgorithmus
  3. Schrittweitenregeln
  4. Das Gradientenverfahren
  5. Verfahren der konjugierten Richtungen
  6. Das Newton-Verfahren
  7. Optimalitätskriterien für nichtlineare Optimierungsprobleme mit Nebenbedingungen
  8. Das lokale SQP-Verfahren

Quelle: Skript von Prof. Rembert Reemtsen