Wir wollen nun die zuvor eingeführten Begriffe in der konkreten Situation, dass eine Funktion zwischen endlichdimensionalen Räumen, also z.B. zwischen und , abbildet anschauen. Dazu sei offen und . Eine solche Funktion besteht aus verschiedenen Komponenten
mit Argumenten, welche verschiedene Komponenten haben:
Physikalische Anwendungen solcher Funktionen sind z.B. Kraftfelder im , welche einem gegebenem Raumpunkt eine Kraft mit den Komponenten zuordnen.
DEfiNITION 3.6.1. Die Funktion heißt im Punkt differenzierbar genau dann, wenn in Frechet-differenzierbar ist.
Unter der Differenzierbarkeit einer solchen Funtion verstehen wir also stets Frechet-Differenzierbarkeit. Ist also differenzierbar, so existiert mit
wobei . Bezeichnen wir mit
bzw.
die Vektoren der kanonischen Basen des bzw. , so lässt sich der stetige, lineare Operator als eine Matrix darstellen:
D.h. wir differenzieren nur in der -ten Koordinate, alle übrigen Koordinten werden festgehalten. Bei der partiellen Ableitung handelt sich sich also nur um die Richtungsableitung entlang der -ten Koordinatenachse. Diese existieren alle wegen der Voraussetzung der Frechet-differenzierbarkeit. Nocheinmal ausgeschrieben lautet dieser Grenzwert wie folgt:
Da selbst vektorwertig ist, werden auf der rechten Seite dabei die Differenzen zweier Vektoren gebildet und
ist ebenfalls ein Vektor.
Beachte: Betrachten wir die Projektion von
auf
die -te
Koordiantenachse, so erhalten wir
Wobei mit dem Grenzwert im vertauscht wurde.
SATZ 3.6.3. Ist im Punkt Frechet-differenzierbar, so existieren alle partiellen Ableitungen , , und die Ableitung lässt sich in den gewählten Basen durch die Jakobi-Matrix
darstellen.
Beweis
Es sei
Basen
seien
und
Dann ist
Die partiellen Ableitungen lassen sich häufig einfach berechnen. Wir haben aber gesehen,
dass aus der alleinigen Existenz der partiellen Ableitungen noch nicht folgt, dass die
Funktion
auch Frechet-differenzierbar ist. In diesem Fall lässt sich die Jakobi-Matrix zwar
ausrechnen, sie spielt dann aber nicht die Rolle der Frechet-Ableitung.
Stellen wir uns den Graphen einer Funktion als eine gewölbte
Oberfläche vor, so bedeutet Frechet-Differenzierbarkeit in einem Punkt
,
dass diese Oberfläche lokal in einer kleinen Umgebung von
wie
eine Ebene aussieht, bzw. sich durch eine Ebene (bis auf einen kontrollierbaren
Fehler) approximieren lässt. Kennt man aber nur die partiellen Ableitungen
in z.B. zwei Richtungen so lässt sich i.A. nicht auf das Verhalten von
in eine
dritte Richtung schließen. Solche Schlüsse erfordern weitere Regularitätsbedingungen
an :
SATZ 3.6.4. Angenommen, alle partiellen Ableitungen existieren in allen und sind im Punkt stetig. Dann ist in schwach differenzierbar und es ist .
Wir wissen, dass alle Richtungsableitungen entlang der Koordinatenachsen existieren und wir haben . Diese sind aber nur die Richtungsableitungen in spezielle vorgegebene Richtungen. Aus diesen Vorausetzungen zeigen wir, dass auch für beliebige Richtungen existiert und gleichzeitig Linearität in gilt, d.h.
für alle und erfüllt ist. Es genügt dabei nur skalarwertige Funktionen (d.h. ) zu betrachten, da wir den Beweis für höhere dann komponentenweise führen können.
Schritt 1: Angenommen es existieren für gewisse Richtungen , . Dann haben wir Homogenität bzgl. der Richtung, d.h. es gilt für alle . Für die Linearität der Richtungsableitung bzgl. bleibt also nur die Additivität zu zeigen.
Schritt 2: Angenommen es existieren und für alle , dann zeigen wir im Folgenden, dass
für alle
in denen
und
stetig sind, erfüllt ist.
Dazu setzen wir ,
, falls
existiert. Dann ist
wobei wir im 2. Schritt den Mittelwertsatz der Differentialrechnung verwendet haben. Hierfür ist es wiederum wichtg, dass (und damit ) eine skalarwertige Funktion ist. Damit ist
Dies ist der Mittelwertsatz für eine skalarwertige Funktion
mehrerer Variablen in eine vorgegebene Richtung.
ist dabei eine
Funktion von
und .
Angenommen es existieren
und für alle
in zwei gegebene
Richtungen und
. Desweiteren
seien und
stetig in
. Um nun die Additivität
zu zeigen setzen wir
für gewisse
und schreiben
Nun wenden wir den Mittelwertsatz aus Schritt 2 jeweils auf die beiden vorderen Summanden für und auf die beiden hinteren Summanden für an. Dies dürfen wir, da wir vorausgesetzt haben, dass die beiden Ableitungen für alle in die Richtungen und existieren. Damit erhalten wir
Nun ersetzen wir durch und durch mit einem und erhalten
mit und . Betrachten wir nun den Differenzenquotienten
so konvergieren für auch und und es folgt
Schritt 3: Sei eine beliebige Richtung. Dann nutzen wir die eben bewiesene Linearität und es folgt aus der Existenz der partiellen Ableitungen und deren Stetigkeit in , dass
Der Ausdruck auf der rechten Seite ist wieder linear in
und
ist daher, als lineare Abbildungen zwischen endlichdimensionalen Räumen,
stetig.
Aus der schachen Ableitung alleine können wir im Allgemeinen noch nichts über die Frechet-Ableitung aussagen. Man kann jedoch die im letzten Satz formulierten Voraussetzungen noch etwas verschärfen, sodass eine Aussage über die Frechet-Differenzierbarkeit möglich ist:
SATZ 3.6.5. Angenommen, alle partiellen Ableitungen existieren in allen und sind in einer -Umgebung von stetig. Dann ist in differenzierbar.
Da alle partiellen Ableitungen existieren und in einer Umgebung
von
stetig sind, folgt nach Satz 3.6.4, dass die schwache Ableitung
für
alle
existiert und
gilt. Alle Einträge in sind in stetig und es folgt, dass die Abbildung
ebenfalls stetig ist (Übung!). Also ist
nach
Satz 3.4.6 Frechet-differenzierbar.
Zusammenfassung:
Sei eine Abbildung
gegeben.
Spezialfall:
Sei .
Dann besteht die Jacobi-Matrix nur aus einer Zeile
Hierbei bezeichnet
den Gradienten von . Ist , so ist
(hier wurden nur die verschiedenen üblichen Schreibweisen aufgeführt). Mit Hilfe dieser neu eigeführten Symbole lässt sich die Definition der Frechet-Ableitung wie folgt ausdrücken:
Der Summand beschreibt dabei den linearen Anteil des Anstiegs von . Wann ist dieser Anstieg jedoch am größten? Im lässt sich das Skalarprodukt durch
ausdrücken. Offensichtlich wird dies maximal, falls
parallel
zu
ist, d.h. der größte lineare Anstieg verläuft in Richtung des Gradienten von
.
Mit anderen Worten zeigt also der Gradient von
in
diejenige Richtung mit größter Steigung nach oben.
Gleichung für die Tangentialebene
Anschaulich beschreibt die Frechet-Ableitung die Aproximation einer Funktion durch
eine affine Abbildung, entsprechend approximiert man eine Funktion durch eine
Ebene, wenn man in der Definition der Frechet-Ableitung den Fehlerterm weglässt.
Bezeichnet
also die Funktion für die Tangentialebene, so erfüllt diese die Bedingung
mit .
BEISPIEL 3.6.6. Gegeben ist mit . Gesucht sind
Lösung
Somit sind :
und :
dessen Lösung
ergibt.
In unserem Fall ergibt sich , .