Zum Inhalt springen

Kurs:Mathematik für Anwender (Osnabrück 2020-2021)/Teil II/Vorlesung 48

Aus Wikiversity



Totale Differenzierbarkeit

Wir möchten Abbildungen zwischen Vektorräumen differenzieren (ohne auf eine Richtung Bezug zu nehmen), und allgemeiner Abbildungen

wobei eine gewisse offene Teilmenge ist. Wir wiederholen kurz die Situation in einer Variablen: Angenommen wir haben eine Abbildung , dann ist die Grundidee einer differenzierbaren Abbildung und ihrer Ableitung, eine „Tangente an den Graphen“ anzulegen. Dabei kann man sagen, dass die Tangente die beste lineare Approximation von (genauer: Der Graph einer affin-linearen Approximation) in einem gegebenen Punkt darstellt. Da die Steigung der Tangente wieder eine reelle Zahl ist, wird beim Differenzieren jedem Punkt wieder eine Zahl zugeordnet. Wir erhalten also eine neue Funktion, welche wir mit bezeichnen. Im höherdimensionalen Fall ist dies komplizierter, aber die Idee einer bestmöglichen linearen Approximation bleibt bestehen.

Die Übereinstimmung der Konzepte wird auch deutlich, wenn man den Graphen einer Abbildung anschaut. Zu einer differenzierbaren Funktion schmiegt sich die Tangente im Punkt an den Graphen zu an. Zu einer Funktion

ist der Graph eine Teilmenge von , den man sich als ein Gebirge über der Ebene vorstellen sollte. Eine sinnvolle Fragestellung ist, ob es zu einem Punkt eine anschmiegende Tangentialebene an den Graphen zu gibt, die man als den Graphen einer affin-linearen Abbildung realisieren kann.

Im Folgenden nehmen wir an, dass alle Vektorräume endlichdimensional und mit einer euklidischen Norm versehen sind. Wie schon in Lemma 37.1 erwähnt wurde, hängt die Topologie, also die Konzepte offene Menge, Stetigkeit, Konvergenz, nicht von der gewählten euklidischen Struktur ab.


Es seien und endlichdimensionale - Vektorräume, eine offene Menge und eine Abbildung. Dann heißt differenzierbar (oder total differenzierbar) im Punkt , wenn es eine - lineare Abbildung mit der Eigenschaft

gibt, wobei eine in stetige Abbildung mit ist und die Gleichung für alle mit gilt.

Diese lineare Abbildung heißt, falls sie existiert, das (totale) Differential von an der Stelle und wird mit

bezeichnet.

Äquivalent zur totalen Differenzierbarkeit ist die Eigenschaft, dass der Ausdruck

für gegen konvergiert. Ebenfalls äquivalent ist die Eigenschaft, dass der Limes (von Funktionen)

existiert und gleich ist (siehe Aufgabe 37.7).

Das Konzept der totalen Differenzierbarkeit ist eher theoretisch und weniger konkreten Berechnungen zugänglich. Wir werden in Satz 48.11 dieses Konzept mit dem Konzept der partiellen Ableitungen in Verbindung bringen, welches eher für Berechnungen geeignet ist, jedoch von Koordinaten, d.h. von der Auswahl einer Basis, abhängt (siehe auch Beispiel 49.7 in der nächsten Vorlesung).



Es seien und endlichdimensionale - Vektorräume und sei die Abbildung auf einer offenen Teilmenge definiert. Sei ein Punkt.

Dann existiert höchstens eine lineare Abbildung mit den Eigenschaften aus Definition 48.1.

Ist im Punkt differenzierbar, so ist das totale Differential eindeutig bestimmt.

Angenommen, es gelte

und

mit linearen Abbildungen und und mit im Punkt stetigen Funktionen mit . Wir müssen zeigen. Dazu ziehen wir die beiden Gleichungen voneinander ab (da es sich hier um Gleichungen von Funktionswerten im Vektorraum handelt, ist hier werteweises Abziehen gemeint) und erhalten die Gleichung

Daher müssen wir zeigen, dass die (konstante) Nullabbildung die Eigenschaft besitzt, dass die lineare Abbildung ihre einzige lineare Approximation ist.  Wir nehmen daher an, dass

gilt, wobei linear und eine in stetige Funktion mit ist. Wenn nicht die Nullabbildung ist, so gibt es einen Vektor mit . Dann gilt für

Dies impliziert, dass für gilt. Die Norm von ist daher konstant gleich . Also gilt , ein Widerspruch.



Ist konstant mit für alle , so ist differenzierbar mit totalem Differential (siehe Aufgabe 48.6).




Es sei eine - lineare Abbildung zwischen den endlichdimensionalen - Vektorräumen und .

Dann ist in jedem Punkt differenzierbar und stimmt in jedem Punkt mit ihrem totalen Differential überein.

Aufgrund der Linearität gilt

Also können wir wählen.


Diese Aussage gilt auch für affin-lineare Abbildungen, also Abbildungen der Form

mit einer linearen Abbildung und einem festen Vektor . In diesem Fall ist das totale Differential gleich .


Wir zeigen direkt, dass die Funktion

im Nullpunkt total differenzierbar ist, und zwar mit der Nullabbildung als totales Differential. Dazu muss man nur zeigen, dass in der Gleichung

die Funktion die verlangten Eigenschaften besitzt. Wegen ist aber und diese Funktion ist stetig im Nullpunkt mit dem Wert .




Es sei ein reelles Intervall, ein euklidischer Vektorraum und

eine Abbildung.

Dann ist genau dann in als Kurve differenzierbar, wenn in total differenzierbar ist.

In diesem Fall besteht die Beziehung

Die Kurvendifferenzierbarkeit im Punkt bedeutet nach Definition 37.3 die Existenz des Limes

Diese Existenz ist (entsprechend Satz 14.5) dazu äquivalent, dass man

mit einem Vektor und einer in stetigen Abbildung mir schreiben kann (wobei sein muss). Dabei kann man hinten durch ersetzen (wobei man auch abwandeln muss). Diese lineare Approximierbarkeit ist aber die Definition der totalen Differenzierbarkeit, und zwar ist die lineare Abbildung durch

gegeben. Somit ist



Es seien und endlichdimensionale - Vektorräume und es sei eine offene Teilmenge. Es seien im Punkt differenzierbare Abbildungen mit den totalen Differentialen und .

Dann ist auch in differenzierbar und es gilt

Ebenso gilt für alle .

Sei und . Dann gilt

Wir erhalten also die gewünschte Gestalt, da auch in stetig mit ist. Der Beweis der zweiten Aussage ist ähnlich.



Es seien und endlichdimensionale - Vektorräume und eine offene Teilmenge. Es sei eine in differenzierbare Abbildung.

Dann ist auch stetig im Punkt .

Nach Definition gilt Die rechte Seite ist stetig (nach Definition 46.1 und Satz 36.10) in . Damit ist stetig in .




Totale Differenzierbarkeit und partielle Ableitungen

Im Folgenden wollen wir den Zusammenhang zwischen Richtungsableitungen, partiellen Ableitungen und dem totalen Differential verstehen. Totale Differenzierbarkeit impliziert richtungsweise Differenzierbarkeit.



Es seien und endlichdimensionale - Vektorräume, es sei eine offene Teilmenge und eine im Punkt differenzierbare Abbildung.

Dann ist in in jede Richtung differenzierbar, und es gilt

Da eine lineare Abbildung von nach ist, liefert die Anwendung dieser Abbildung auf einen Vektor einen Vektor in . Nach Voraussetzung haben wir

(mit den üblichen Bedingungen an ). Insbesondere gilt für (hinreichend kleines)

Also gilt

da und der Ausdruck beschränkt ist.


Es sei offen und eine in total differenzierbare Abbildung. Dann existieren nach Proposition 48.9 und nach Lemma 47.3 die partiellen Ableitungen

im Punkt . Daher existiert die[1] Jacobi-Matrix

Diese Matrix beschreibt das totale Differential bezüglich der Standardbasen im und . Es ist ja nach Proposition 48.9 und Lemma 47.3

und dies ist die -te Spalte der Jacobimatrix. Durch diese Eigenschaft ist aber die beschreibende Matrix zu einer linearen Abbildung bezüglich einer Basis festgelegt.




Es sei offen und eine Abbildung. Es seien , , die Koordinaten von und ein Punkt. Es sei angenommen, dass alle partiellen Ableitungen von in einer offenen Umgebung von existieren und in stetig sind.

Dann ist in (total) differenzierbar.

Ist die Abbildung bezüglich der Standardbasis des durch die Koordinatenfunktionen gegeben, so wird unter diesen Bedingungen das totale Differential in durch die Jacobi-Matrix

beschrieben.


Bei offen und einer total differenzierbaren Abbildung

wird die affin-lineare Approximation in einem Punkt in Koordinaten folgendermaßen geschrieben. Es sei das totale Differential, sodass die lineare Approximation für die Gestalt

besitzt. Wenn man dies in den Koordinaten schreiben möchte, so ist und daher ist die lineare Approximation für gleich




Dies folgt aus Satz 48.11 und daraus, dass die partiellen Ableitungen von Polynomfunktionen wieder Polynomfunktionen sind, die nach Satz 36.13 stetig sind.




Fußnoten
  1. Die Benennung der Dimensionen und der Indizes bei höherdimensionalen Abbildungen und insbesondere bei der Jacobimatrix ist ein gewisses Problem, was auch schon in der linearen Algebra auftritt. Für eine Abbildung

    ist es naheliegend, die erste Dimension links mit einem im Alphabet früheren Buchstaben als die zweite Dimension zu bezeichnen, also etwa oder oder . Diese Reihenfolge überträgt sich sinnvollerweise auf Objekte, die mit dem ersten bzw. dem zweiten Raum verbunden sind, man spricht dann von der Standardbasis , , links und der Standardbasis , , rechts, bezeichnet die Variablen links mit , , und rechts mit , , und die Komponentenfunktionen zu bezeichnet man mit , . Diese Bezeichnungsphilosophie beißt sich allerdings mit den Bezeichungen für Matrizen. Bei einer Matrix sagt man die Anzahl der Zeilen zuerst und dann die Anzahl der Spalten, man spricht von einer Zeilenanzahl x Spaltenanzahl-Matrix und gemäß dieser Reihenfolge werden auch die Einträge benannt. Der Eintrag ist in der dritten Zeile und der fünften Spalte der Matrix. Nun wird aber eine lineare Abbildung durch eine Matrix beschrieben, deren Spaltenanzahl wegen „Zeile mal Spalte“ mit der Dimension des ersten Raumes übereinstimmt. Hier liegen also verschiedene Reihenfolgen vor, und dies ist der Grund, warum eine gewählte Bezeichnung nie völlig überzeugend ist. Bei einer partiell differenzierbaren Abbildung sollten die Bezeichnungen für die Indizes der Komponentenfunktionen zu den Bezeichnungen der Jacobimatrix passen.


<< | Kurs:Mathematik für Anwender (Osnabrück 2020-2021)/Teil II | >>

PDF-Version dieser Vorlesung

Arbeitsblatt zur Vorlesung (PDF)