Kurs:Optimierung II
Erscheinungsbild
Dieser Kurs gehört zum Fachbereich Mathematik.
Inhalt:
- Grundlagen: Konvexe Funktionen, gleichmäßige Konvexität, Charakterisierung durch Bedingungen erster und zweiter Ordnung, Modellbildung, spezielle Problemklassen, Existenz- und Eindeutigkeitsaussagen für allgemeine Optimierungsprobleme, Optimalitätskriterien für Probleme ohne Nebenbedingungen, Grundsätzliches Vorgehen (Abstiegsrichtung, Schrittweiten, Trust-Region-Ansatz), Konvergenzraten (lineare, quadratische und superlineare Konvergenz, Q- und R-Raten)
- Verfahren für unrestringierte Minimierungsprobleme: Modellalgorithmus, Schrittweitenstrategien (exakte Schrittweiten, (strenge) Wolfe-Powell-Schrittweite, Armijo-Schrittweite), Gradienten-verfahren, lokales und globalisiertes Newton-Verfahren, Rang-1- und Rang-2-Quasi-Newton-Verfahren, Verfahren der konjugierten Gradienten, Trust-Region Verfahren.
- Einführung
- Ein Modellalgorithmus
- Schrittweitenregeln
- Das Gradientenverfahren
- Verfahren der konjugierten Richtungen
- Das Newton-Verfahren
- Optimalitätskriterien für nichtlineare Optimierungsprobleme mit Nebenbedingungen
- Das lokale SQP-Verfahren
Quelle: Skript von Prof. Rembert Reemtsen