Skript

Als pdf oder txt herunterladen
Als pdf oder txt herunterladen
Sie sind auf Seite 1von 142

Analysis 2 (Elektrotechnik)

Sommersemester 2019

4. April 2019

Prof. Dr. Boris Vexler


Fakultät für Mathematik
Lehrstuhl für Optimalsteuerung, M17
Technische Universität München
Inhaltsverzeichnis
1 Differentialrechnung in Rn : Skalarfelder 3
1.1 Stetigkeit von Skalarfeldern . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Partielle Ableitungen, Gradient, totale (Fréchet) Differenzierbarkeit . . . 7
1.3 Taylorentwicklung für Skalarfelder . . . . . . . . . . . . . . . . . . . . . 17

2 Differentialrechnung in Rn : Vektorfelder 20
2.1 Differenzierbarkeit von Vektorfeldern, Jacobi-Matrix . . . . . . . . . . . 20
2.2 Krummlinige Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Implizite Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Mittelwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3 Extremwertaufgaben 47
3.1 Extremwertaufgaben ohne Nebenbedingungen . . . . . . . . . . . . . . . 47
3.2 Extremwertaufgaben unter Nebenbedingungen . . . . . . . . . . . . . . 56

4 Kurvenintegrale 64
4.1 Kurvenintegral eines Skalarfeldes . . . . . . . . . . . . . . . . . . . . . . 64
4.2 Kurvenintegral eines Vektorfeldes . . . . . . . . . . . . . . . . . . . . . . 65
4.3 Gradientenfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5 Mehrdimensionale Integralrechnung 73
5.1 Parameterabhängige Integrale . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2 Bereichsintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3 Flächenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.4 Integralsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

6 Gewöhnliche Differentialgleichungen 105


6.1 Beispiele von Differentialgleichungen . . . . . . . . . . . . . . . . . . . . 105
6.2 Existenz von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.3 Trennung der Variablen und Variation der Konstanten . . . . . . . . . . 113
6.4 Funktionen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5 Systeme linearer Differentialgleichungen . . . . . . . . . . . . . . . . . . 126
6.6 Lineare Differentialgleichungen höherer Ordnung . . . . . . . . . . . . . 136
6.7 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

2
1 Differentialrechnung in Rn:
Skalarfelder
1.1 Stetigkeit von Skalarfeldern
Def. Ein Skalarfeld ist eine Funktion f : Ω → R, wobei Ω ⊂ Rn eine Teilmenge
von Rn ist.

→ Beispiele:
(a) Sei Ω = Rn . Die Funktion
q
f (x) = kxk = x21 + x22 + · · · + x2n

ist ein Skalarfeld.


(b) Wir betrachten die offene Kugel mit dem Mittelpunkt x0 ∈ Rn und
Radius r
Ω = Br (x0 ) = { x ∈ Rn | kx − x0 k < r }
und das Skalarfeld
f (x) = xT Ax
mit einer gegeben Matrix A ∈ Rn×n .
(c) Wir betrachten die abgeschlossene Kugel mit dem Mittelpunkt x0 ∈ Rn
und Radius r

Ω = Kr (x0 ) = { x ∈ Rn | kx − x0 k ≤ r }

und das Skalarfeld n


X
f (x) = xi .
i=1

Def. Sei Ω ⊂ Rn . Ein Punkt x ∈ Ω heißt innerer Punkt von Ω, falls es eine offene
Kugel Bε (x) (Umgebung) gibt, die ganz in Ω liegt, d. h. Bε (x) ⊂ Ω.

Def. Die Menge aller inneren Punkte von Ω heißt das Innere von Ω und wird mit
int(Ω) bezeichnet.

3
Def. Eine Menge Ω ⊂ Rn heißt offen, falls Ω = int(Ω) gilt.

Def. Sei Ω ⊂ Rn . Ein Punkt x ∈ Rn heißt Randpunkt von Ω, falls jede offene
Kugel Br (x) sowohl Punkte aus Ω als auch Punkte, die nicht in Ω liegen
enthält.

Def. Die Menge aller Randpunkte von Ω heißt der Rand von Ω und wird mit ∂Ω
bezeichnet.

Def. Der Abschluss einer Menge Ω wird definiert als

Ω̄ = Ω ∪ ∂Ω.

Def. Eine Menge Ω ⊂ Rn heißt abgeschlossen, falls alle Randpunkte in der Menge
Ω enthalten sind, d. h.

∂Ω ⊂ Ω ⇔ Ω = Ω̄.

Def. Die Menge Ω ⊂ Rn heißt beschränkt, wenn es eine Konstante M > 0 gibt,
so dass
kxk ≤ M für alle x ∈ Ω
gilt.

→ Beispiele:
(a) Eine offene Kugel Br (x0 ) ist offen (Beweis als Übungsaufgabe). Es gilt:

int(Br (x0 )) = Br (x0 ), ∂Br (x0 ) = { x ∈ Rn | kx − x0 k = r }

und
Br (x0 ) = Kr (x0 ).

(b) Eine abgeschlossene Kugel ist abgeschlossen. Es gilt:

int(Kr (x0 )) = Br (x0 ), ∂Kr (x0 ) = { x ∈ Rn | kx − x0 k = r }

und
Kr (x0 ) = Kr (x0 ).

(c) Die Menge Ω = Rn ist sowohl offen als auch abgeschlossen. Es gilt:

int(Rn ) = Rn , ∂Rn = ∅.

4
(d) Die Menge Ω = (0, 1] ⊂ R ist weder abgeschlossen noch offen. Es gilt:
int(Ω) = (0, 1) und ∂Ω = {0, 1}.

(e) Die Menge Ω = Q ⊂ R ist weder abgeschlossen noch offen. Es gilt:


int(Q) = ∅ und ∂Q = R.

→ Man kann folgende Regeln für den Umgang mit offenen und abgeschlossen
Mengen aufstellen (Übungsaufgabe):
– Sei A ⊂ Rn offen, dann ist Rn \ A abgeschlossen.
– Sei A ⊂ Rn abgeschlossen, dann ist Rn \ A offen.
– Seien A, B ⊂ Rn offen, dann sind auch A ∪ B und A ∩ B offen.
– Seien A, B ⊂ Rn abgeschlossen, dann sind auch A ∪ B und A ∩ B
abgeschlossen.
→ Wir betrachten Folgen {xk } ⊂ Rn in Rn analog zu den Folgen in R oder C:
x1 , x2 , x3 , . . . .
Ein Folgenglied xk ∈ Rn hat dann die Form
xk = (xk1 , xk2 , . . . , xkn )T ∈ Rn .

Def. Ein Vektor x ∈ Rn heißt Grenzwert der Folge {xk } ⊂ Rn , wenn


lim kx − xk k = 0
k→∞

erfüllt ist. Man schreibt dann


lim xk = x, oder xk → x, k → ∞.
k→∞

→ Man kann beweisen, dass die Konvergenz xk → x zu der komponentenweisen


Konvergenz äquivalent ist. Es gilt:
lim xk = x ⇔ lim xki = xi für alle i = 1, 2, . . . , n.
k→∞ k→∞

→ Beispiel: Die Folge {xk } ⊂ R2 mit


T
(−1)k 3

k
x = 1+ , 2
k k
konvergiert gegen den Vektor (1, 0)T , da
(−1)k 3
xk1 = 1 + → 1 und xk2 = 2 → 0
k k
für k → ∞ gilt.

5
Def. Sei f : Ω ⊂ Rn → R ein Skalarfeld und sei y ∈ Ω. Man sagt, dass f (x) gegen
ein a ∈ R für x → y konvergiert,
lim f (x) = a,
x→y

wenn für alle Folgen {xk } ⊂ Ω \ {y} mit xk → y


lim f (xk ) = a
k→∞

gilt.
→ Basierend auf dieser Definition des Funktionengrenzwerts können wir den
Begriff der Stetigkeit eines Skalarfeldes definieren.
Def. Sei f : Ω ⊂ Rn → R ein Skalarfeld und sei y ∈ Ω. Man sagt, dass f stetig an
der Stelle y ist, wenn
lim f (x) = f (y)
x→y

gilt.
→ Das bedeutet, dass für jede Folge {xk } ⊂ Ω mit xk → y die Folge der
Funktionswerte {f (xk )} ⊂ R gegen f (y) konvergieren muss.
→ Wie für die Funktionen einer Veränderlichen ist die Summe, die Differenz,
das Produkt und die Komposition zweier stetigen Funktionen wieder stetig.
Auch der Quotient zweier stetigen Funktion ist stetig, wenn der Nenner von
Null verschieden ist.
→ Beispiele:
(a) Die lineare Funktion f (x) = aT x mit einem gegebenen Vektor a ∈ Rn
ist stetig.
(b) Die Funktion f (x) = xT Ax mit einer gegebenen Matrix A ∈ Rn×n ist
ebenfalls stetig.
(c) Die Funktion f : R2 → R mit
(
2xy
x2 +y 2
, (x, y) 6= (0, 0)
f (x, y) =
0, (x, y) = (0, 0)
ist unstetig im Ursprung. Wir betrachten die Folge
 
k k k 1 1
z = (x , y ) = ,
k k
und erhalten
2 k12
f (z k ) = = 1 6→ 0.
2 k12

6
Def. Für ein Skalarfeld f : Rn → R kann man partielle Funktionen an der Stelle
x̄ ∈ Rn betrachten: Man hält alle Variablen bis auf eine fest und setzt
φ1 (x1 ) = f (x1 , x̄2 , x̄3 , . . . , x̄n ), φ2 (x2 ) = f (x̄1 , x2 , x̄3 , . . . , x̄n ), . . . .

→ Für das obige Beispiel erhält man


φ1 (x) = f (x, ȳ) und φ2 (y) = f (x̄, y).
Im Ursprung sind beide partiellen Funktionen stetig. Für ȳ = 0 gilt φ1 (x) = 0
und für x̄ = 0 hat man φ2 (y) = 0. Somit sind beide partielle Funktionen
stetig, die Funktion f ist aber unstetig im Ursprung.
→ Wir wissen, dass eine stetige Funktion f : [a, b] → R auf einem abgeschlos-
senen beschränkten Intervall ihr Minimum und Maximum annimmt.
→ Um diese Aussage auf stetige Skalarfelder zu verallgemeinern, führen wir den
Begriff einer kompakten Menge ein.
Def. Eine Menge Ω ⊂ Rn heißt kompakt, falls jede Folge {xk } ⊂ Ω eine konver-
gente Teilfolge {xkl } mit Grenzwert in Ω besitzt.

Satz 1.1 Eine Menge Ω ⊂ Rn ist genau dann kompakt, wenn sie beschränkt und
abgeschlossen ist.

Satz 1.2 Sei Ω ⊂ Rn eine kompakte Menge und sei f : Ω → R ein stetiges Skalar-
feld. Dann nimmt f auf Ω sein Minimum und Maximum an, d. h. es gibt Punkte
xm , xM ∈ Ω mit
f (xm ) = min f (x) und f (xM ) = max f (x).
x∈Ω x∈Ω

1.2 Partielle Ableitungen, Gradient, totale (Fréchet)


Differenzierbarkeit
→ Sei Ω ⊂ Rn eine offene Menge und f : Ω → R ein Skalarfeld. Ist die partielle
Funktion φi von f differenzierbar, so nennt man ihre Ableitung partielle
Ableitung nach xi .
Def. Sei Ω ⊂ Rn eine offene Menge und f : Ω → R ein Skalarfeld. Die partielle
Ableitung nach xi im Punkt x ∈ Ω wird als der folgende Grenzwert (falls
existent) definiert:
∂f f (x1 , . . . , xi−1 , xi + h, xi+1 , . . . , xn ) − f (x1 , . . . , xn )
(x) = lim .
∂xi h→0 h

7
→ Um die Definition übersichtlicher zu schreiben, verwendet man den Einheits-
vektor ei ∈ Rn :
∂f f (x + hei ) − f (x)
(x) = lim .
∂xi h→0 h
→ Andere Schreibweisen für partielle Ableitungen sind
∂f
(x) = ∂xi f (x) = ∂i f (x).
∂xi

→ Entsprechend schreibt man für eine Funktion in zwei Variablen f (x, y):
∂f ∂f
(x, y) = ∂x f (x, y) und (x, y) = ∂y f (x, y).
∂x ∂y

→ Bei der Berechnung der partiellen Ableitung nach xi , werden alle anderen
Variablen “festgehalten”, d. h. sie werden als Konstanten betrachtet.
→ Beispiele:
(a) Für die Funktion f (x, y) = x2 y 3 + x gilt
∂f ∂f
(x, y) = 2xy 3 + 1 und (x, y) = 3x2 y 2 .
∂x ∂y

(b) Für die lineare Funktion f : Rn → R, f (x) = aT x mit einem Vektor


a ∈ Rn gilt:
f (x) = a1 x1 + a2 x2 + · · · + an xn
und somit:
∂f
(x) = ai .
∂xi
(c) Für das Skalarfeld f : Rn → R, f (x) = xT Ax mit einer Matrix A ∈
Rn×n gilt:
f (x + hei ) = (x + hei )T A(x + hei ) = xT Ax + heTi Ax + hxT Aei + h2 eTi Aei .
Daraus folgt
∂f f (x + hei ) − f (x) 1
(x) = lim = lim (heTi Ax + hxT Aei + h2 eTi Aei )
∂xi h→0 h h→0 h
= ei Ax + x Aei = ei Ax + ei A x = eTi (A + AT )x.
T T T T T

Ist die Matrix A symmetrisch (AT = A), so gilt


∂f
(x) = 2eTi Ax.
∂xi

8
Def. Sei Ω ⊂ Rn eine offene Menge und f : Ω → R ein Skalarfeld und x ∈ Ω. Die
Funktion f heißt partiell differenzierbar an der Stelle x, wenn alle partiellen
Ableitungen an der Stelle x existieren.

→ Ist eine Funktion auf ganz Ω partiell differenzierbar, so definiert jede partielle
Ableitung eine Funktion (ein Skalarfeld):

∂f
: Ω → R.
∂xi

Def. Sei Ω ⊂ Rn eine offene Menge, f : Ω → R ein partiell differenzierbares Ska-


larfeld. Man sagt f ist stetig differenzierbar, falls alle partiellen Ableitungen
stetige Skalarfelder definieren. Die Menge aller stetig differenzierbaren Funk-
tionen bezeichnet man mit C 1 (Ω).

→ Fasst man alle partiellen Ableitungen einer Funktion zu einem Vektor zu-
sammen, so erhält man den Gradienten dieser Funktion.

Def. Sei Ω ⊂ Rn eine offene Menge und f : Ω → R sei partiell differenzierbar im


Punkt x ∈ Ω. Dann wird der Gradient an der Stelle x definiert als
 ∂f 
∂x1
(x)
 ∂f (x) 
∇f (x) =  ∂x2.  ∈ Rn .
 
 .. 
∂f
∂xn
(x)

→ Eine andere Bezeichnung für den Gradienten ist:

∇f (x) = grad f (x).

→ Beispiele:
(a) Für f (x, y) = x2 y 3 + x gilt:
 
2xy 3 + 1
∇f (x, y) = .
3x2 y 2

(b) Für die lineare Funktion f : Rn → R, f (x) = aT x mit einem Vektor


a ∈ Rn gilt:
∇f (x) = a.

9
(c) Für das Skalarfeld f : Rn → R, f (x) = xT Ax mit einer Matrix A ∈
Rn×n gilt:
∂f
(x) = eTi (A + AT )x.
∂xi
Somit ist die partielle Ableitung nach xi gleich der i-ten Komponente
des Vektors (A + AT )x. Daraus folgt

∇f (x) = (A + AT )x.

Für eine symmetrische Matrix (AT = A) folgt dann:

∇f (x) = 2Ax.

Def. Sei Ω ⊂ Rn eine offene Menge. Ein Skalarfeld f : Ω → R heißt total differen-
zierbar oder Fréchet-differenzierbar an der Stelle x ∈ Ω, falls es einen Vektor
b ∈ Rn gibt, so dass die Darstellung

f (x + d) = f (x) + bT d + o(kdk)

für d ∈ Rn und kdk → 0 gilt.

Satz 1.3 Ist das Skalarfeld f : Ω → R an der Stelle x ∈ Ω Fréchet-differenzierbar,


so ist f auch partiell differenzierbar und es gilt b = ∇f (x).

Beweis:
Man setzt d = hei und erhält:

f (x + hei ) = f (x) + hbi + o(h).

Daraus folgt
∂f
bi = (x).
∂xi
#

→ Aus dem Satz folgt, dass man ein Fréchet-differenzierbares Skalarfeld in einer
Umgebung von x durch die lineare Funktion

f (x + d) ≈ g(x; x + d) = f (x) + ∇f (x)T d

approximieren kann.

→ Für reelle Funktionen folgt Stetigkeit aus der Differenzierbarkeit. Ist ein
Sklarfeld partiell differenzierbar, so muss es nicht notwendigerweise stetig
sein. Es gilt aber folgender Satz:

10
Satz 1.4 Ist das Skalarfeld f : Ω → R an der Stelle x ∈ Ω Fréchet-differenzierbar,
so ist f an der Stelle x stetig.

→ Sind zwei Funktionen f, g : Ω → R an der Stelle x Fréchet-differenzierbar, so


sind die Summe, das Produkt, ein Vielfaches von f und auch der Quotient
f
g
falls g(x) 6= 0 auch Fréchet-differenzierbar.

→ Die Rechenregeln lassen sich aus den entsprechenden Rechenregeln für reelle
Funktionen ableiten. Es gilt:
– ∇(f + g)(x) = ∇f (x) + ∇g(x),
– ∇(λf )(x) = λ∇f (x),
– ∇(f g)(x) = g(x)∇f (x) + f (x)∇g(x),
 
– ∇ fg (x) = g(x)
1
2 (g(x)∇f (x) − f (x)∇g(x)) .

→ Somit sind alle Polynome, alle rationalen Funktion (wenn der Nenner un-
gleich Null) usw. Fréchet-differenzierbar.

Def. Sei Ω ⊂ Rn eine offene Menge und f : Ω → R sei ein Skalarfeld. Die Rich-
tungsableitung im Punkt x in Richtung d ∈ Rn wird definiert als

f (x + hd) − f (x)
∂d f (x) = lim .
h→0 h

→ Aus der Definition folgt, dass die partielle Ableitung nach xi gleich der Rich-
tungsableitung in Richtung ei ist.

Satz 1.5 Sei Ω ⊂ Rn eine offene Menge und f : Ω → R sei Fréchet-differenzierbar


im Punkt x ∈ Ω. Dann existiert für jede Richtung d ∈ Rn die Richtungsableitung
∂d f (x) und es gilt
∂d f (x) = ∇f (x)T d.

Beweis:
Sei d ∈ Rn eine gegebene Richtung. Es gilt:

f (x + hd) − f (x) = h∇f (x)T d + o(khdk) = h∇f (x)T d + kdko(h).

Daraus folgt:
f (x + hd) − f (x)
= ∇f (x)T d + o(1)
h
und somit
∂d f (x) = ∇f (x)T d.

11
#

→ Beispiele:
(a) Die lineare Funktion f (x) = aT x mit einem a ∈ Rn ist Fréchet-differenzierbar
auf ganz Rn und die Richtungsableitungen sind gegeben als

∂d f (x) = ∇f (x)T d = aT d.

(b) Das quadratische Skalarfeld f (x) = xT Ax mit einer Matrix A ∈ Rn×n


ist Fréchet-differenzierbar und die Richtungsableitungen sind gegeben
als
∂d f (x) = ∇f (x)T d = xT (AT + A)d.

(c) Wir betrachten die Funktion f : R2 → R mit


( 2
xy
2 2, (x, y) 6= (0, 0)
f (x, y) = x +y .
0, (x, y) = (0, 0)

Für (x, y) 6= (0, 0) ist die Funktion f Fréchet-differenzierbar. Wir un-


tersuchen das Verhalten von f im Ursprung. Eingeschränkt auf die x-
oder auf die y-Achse ist f identisch Null und somit ist sie partiell diffe-
renzierbar mit
∂f ∂f
(0, 0) = (0, 0) = 0 und ∇f (0) = 0.
∂x ∂y
Sei eine Richtung d = (d1 , d2 )T ∈ R2 gegeben und h ∈ R. Es gilt:
h3 d1 d22
f (0 + hd) − f (0) = f (hd) = = hf (d).
h2 (d21 + d22 )
Daraus folgt:
f (0 + hd) − f (0)
= f (d)
h
und somit
∂d f (0) = f (d).
Es existieren also alle Richtungsableitungen aber die Darstellung ∂d f (0) =
∇f (0)T d ist nicht erfüllt. Somit kann die Funktion f im Ursprung nicht
Fréchet-differenzierbar sein.
Dies kann auch direkt gezeigt werden. Angenommen die Funktion f
wäre Fréchet-differenzierbar im Ursprung. Dann würde gelten

f (0 + d) = f (0) + ∇f (0)T d + o(kdk),

12
d. h.
f (d)
f (d) = o(kdk) ⇒ lim = 0.
d→0 kdk

Um diese Aussage zu einem Widerspruch zu führen, genügt es, eine


Folge dk mit dk → 0 anzugeben, so dass der obige Grenzwert von Null
verschieden ist. Wir setzen
 T
1 1
dk = ,
k k

und erhalten √
1
f (dk ) k3 1 2
= √ = √ = 6= 0.
kdk k 2 2 2 2 4
k2 k

Satz 1.6 Sei Ω ⊂ Rn offen und sei f : Ω → R ein stetig differenzierbares Skalar-
feld (f ∈ C 1 (Ω)). Dann ist f auf ganz Ω auch Fréchet-differenzierbar.

→ Für Skalarfelder betrachten wir zwei Varianten der Kettenregel:

→ Sei f : Ω ⊂ Rn → R ein Fréchet-differenzierbares Skalarfeld und g : R → R


eine differenzierbare Funktion. Die Zusammensetzung:

h(x) = (g ◦ f )(x) = g(f (x))

definiert ein Fréchet-differenzierbares Skalarfeld h : Ω → R. Für die partiellen


Ableitungen erhält man direkt aus der Kettenregel für reelle Funktionen:

∂h(x) ∂(g(f (x))) ∂f (x)


= = g 0 (f (x)) .
∂xi ∂xi ∂xi
Somit gilt für den Gradienten:

∇h(x) = g 0 (f (x))∇f (x).

→ Beispiel: Oft betrachtet man sog. radialsymmetrische Skalarfelder f : Ω ⊂


Rn → R, d. h. Skalarfelder mit der Eigenschaft

kxk = kyk ⇒ f (x) = f (y).

Solche Skalarfelder werden meistens als

f (x) = g(r(x))

13
mit r(x) = kxk und g : R+ → R dargestellt. Es gilt:
v
u n
uX
r(x) = kxk = t x2i
i=1

und deshalb
∂r 2xi xi 1
(x) = pPn 2 = und ∇r(x) = x.
∂xi 2 i=1 xi
kxk kxk
Nach der Kettenregel erhält man dann:
∂f ∂r xi g 0 (kxk)
(x) = g 0 (r(x)) (x) = g 0 (kxk) und ∇f (x) = x.
∂xi ∂xi kxk kxk
Für das Skalarfeld f (x) = ln (kxk) definiert auf Rn \ {0} gilt
1 1 1
∇f (x) = x= x.
kxk kxk kxk2

→ Eine andere Variante der Kettenregel wird für die Betrachtung eines Skalar-
feldes entlang einer Kurve verwendet. Sei k : I = [a, b] → Rn eine differen-
zierbare Kurve, f : Ω ⊂ Rn → R ein Fréchet-differenzierbares Skalarfeld und
k(I) ⊂ Ω. Die Zusammensetzung f (k(t)) definiert eine reelle differenzierbare
Funktion
g : [a, b] → R, g(t) = f (k(t)).
Für die Ableitung g 0 (t) erhält man
n
0 0
X ∂f
T
g (t) = ∇f (k(t)) k (t) = (k(t)) ki0 (t).
i=1
∂x i

Dies kann wie folgt begründet werden. Es gilt:


f (k(t + h)) − f (k(t)) = ∇f (k(t))T (k(t + h) − k(t)) + o(kk(t + h) − k(t)k)
und deshalb
 
g(t + h) − g(t) T 1
k(t + h) − k(t)
= ∇f (k(t)) (k(t + h) − k(t)) + o
.
h h h

Für h → 0 konvergiert der erste Term auf der rechten Seite gegen ∇f (k(t))T k 0 (t),
für den zweiten Term gilt:
k(t + h) − k(t)
= k 0 (t) + o(1)
h
und somit konvergiert der zweite Term gegen Null.

14
→ Beispiel: Sei k : [0, 2π] → R2 die Kurve mit
k(t) = (cos t, sin t)T
und wir betrachten das Skalarfeld f : R2 → R mit f (x, y) = x2 + xy + y 2
entlang der Kurve k. Es gilt:
 
0 T 2x + y
k (t) = (− sin t, cos t) und ∇f (x, y) = .
x + 2y
Daraus folgt für die Ableitung der Funktion g(t) = f (k(t)):
g 0 (t) = ∇f (k(t))T k 0 (t)
= (2 cos t + sin t)(− sin t) + (cos t + 2 sin t) cos t
= cos2 t − sin2 t = 2 cos2 t − 1 = cos(2t).

Höhere partielle Ableitungen


→ Sei f : Ω ⊂ Rn → R ein differenzierbares Skalarfeld. Die partielle Ableitung
∂xi f : Ω → R definiert ein weiteres Skalarfeld. Die partiellen Ableitungen
dieses Skalarfeldes sind höhere partielle Ableitungen von f .
Def. Sei Ω ⊂ Rn eine offene Menge, f : Ω → R ein partiell differenzierbares
Skalarfeld. Die zweite partielle Ableitung ∂xj ∂xi f ist definiert (falls existent)
als
∂x f (x + hej ) − ∂xi f (x)
∂xj ∂xi f (x) = ∂xj (∂xi f (x)) = lim i .
h→0 h
→ Andere Schreibweisen sind:
∂2
∂xj ∂xi f (x) = f (x) = ∂j ∂i f (x).
∂xj ∂xi
Wird zwei mal nach xi abgeleitet, so schreibt man
∂2
∂xi ∂xi f (x) = f (x).
∂x2i

→ Entsprechend werden höhere partielle Ableitungen definiert.


→ Beispiel: Für die Funktion f (x, y) = x2 y 3 gilt:
∂x f (x, y) = 2xy 3 , ∂y f (x, y) = 3x2 y 2
und die höheren Ableitungen sind gegeben als
∂x ∂x f (x, y) = 2y 3 , ∂x ∂y f (x, y) = 6xy 2 ,
∂y ∂x f (x, y) = 6xy 2 , ∂y ∂y f (x, y) = 6x2 y.

15
Def. Sei Ω ⊂ Rn offen und es existieren alle zweiten partiellen Ableitung des
Skalarfeldes f : Ω → R auf ganz Ω. Sind diese Ableitungen stetig, so nennt
man das Skalarfeld f zweimal stetig differenzierbar. Die Menge aller zweimal
stetig differenzierbaren Funktionen bezeichnet man mit C 2 (Ω).

→ Analog werden m-mal stetig differenzierbare Funktionen und die Menge


C m (Ω) definiert.

→ Am obigen Beispiel haben wir gesehen, dass ∂x ∂y f (x, y) = ∂y ∂x f (x, y) für


die Funktion f (x, y) = x2 y 3 gilt.

Satz 1.7 (Satz von Schwarz) Sei f : Ω → R und f ∈ C 2 (Ω). Dann gilt:

∂i ∂j f (x) = ∂j ∂i f (x) für alle 1 ≤ i, j ≤ n und für alle x ∈ Ω.

→ Im Allgemeinen (also wenn f 6∈ C 2 (Ω)) kann das Ergebnis von der Reihen-
folge der Ableitungen abhängen.

→ Der obige Satz kann auf höhere Ableitungen der Stufe m verallgemeinert
werden. Ist f ∈ C m (Ω), so hängen alle partiellen Ableitungen bis zur Stufe
m nicht von der Reihenfolge ab.

→ Die ersten partiellen Ableitungen werden im Gradienten der Funktion f zu-


sammengefasst. Die zweiten partiellen Ableitungen können in der sog. Hesse-
Matrix zusammengefasst werden.

Def. Sei f : Ω ⊂ Rn → R ein zweimal partiell differenzierbares Skalarfeld, dann


ist die Hesse-Matrix Hf (x) = ∇2 f (x) definiert als
 
∂x1 ∂x1 f (x) . . . ∂xn ∂x1 f (x)
 ∂x ∂x f (x) . . . ∂x ∂x f (x) 
 1 2 n 2
Hf (x) = ∇2 f (x) =  .

.. . . ..
 . . . 
∂x1 ∂xn f (x) . . . ∂xn ∂xn f (x)

→ Nach Satz 1.7 gilt: Ist f ∈ C 2 (Ω), so ist die Hesse-Matrix symmetrisch für
alle x ∈ Ω.

→ Beispiele:

(a) Für die lineare Funktion f (x) = aT x mit einem a ∈ Rn gilt:

∇f (x) = a und Hf (x) = 0.

16
(b) Für die quadratische Funktion f (x) = xT Ax mit einer Matrix A ∈ Rn×n
erhält man

∇f (x) = (A + AT )x und Hf (x) = A + AT ,

bzw. Hf (x) = 2A, falls A symmetrisch ist.

(c) Für die Funktion f : Rn → R mit f (x) = kxk gilt:


xi 1
∂xi f (x) = und ∇f (x) = x, für x 6= 0.
kxk kxk

Man erhält xi
kxk − xi kxk 1 x2
∂xi ∂xi f (x) = = − i3
kxk2 kxk kxk
und für i 6= j:
x i xj
∂xi ∂xj f (x) = − .
kxk3
Insgesamt kann man daraus die folgende Darstellung der Hesse-Matrix ab-
leiten:
1 1
Hf (x) = In − xxT , für x 6= 0.
kxk kxk3
Dabei sind In ∈ Rn×n die Einheitsmatrix und xxT ∈ Rn×n die Matrix mit
den Einträgen
xxT ij = xi xj .


1.3 Taylorentwicklung für Skalarfelder


→ Sei Ω ⊂ Rn eine offene Menge, f : Ω → R ein Skalarfeld mit f ∈ C m (Ω).
Seien außerdem ein Punkt a ∈ Ω und ein Vektor h ∈ Rn gegeben, so dass
die Verbindungsstrecke zwischen a und a + h ganz in Ω liegt, d. h.

[a, a + h] = { a + th ∈ Rn | t ∈ [0, 1] } ⊂ Ω.

Um das Taylorpolynom an der Stelle x = a zu definieren, führen wir die


Funktion g : [0, 1] → R mit

g(t) = f (a + th)

ein. Es gilt:
g(0) = f (a) und g(1) = f (a + h).

17
Def. Das Taylorpolynom Tm (a; a + h) des Skalarfeldes f an der Stelle a wird
definiert als
1 1 (m)
Tm (a; a + h) = g(0) + g 0 (0) + g 00 (0) + · · · + g (0).
2 m!

→ Die Ableitungen von g können wie folgt bestimmt werden. Es gilt:


n
X
g(0) = f (a), g 0 (0) = ∇f (a)T h = ∂xi f (a)hi .
i=1

Für die zweite Ableitung erhält man:


n
1 1X
g (0) = lim (g 0 (t) − g 0 (0)) = lim
00
(∂xi f (a + th) − ∂xi f (a)) hi
t→0 t t→0 t
i=1
n
X 1
= hi lim (∂xi f (a + th) − ∂xi f (a))
t→0 t
i=1
Xn n
X
= hi ∇∂xi f (a)T h = ∂xj ∂xi f (a) hi hj .
i=1 i,j=1

Mit Hilfe der Hesse-Matrix Hf (a) erhält man dann folgende Darstellung von
g 00 (0):
g 00 (0) = hT Hf (a)h.
Für die dritte Ableitung von g erhält man analog:
n
X
000
g (0) = ∂xi ∂xj ∂xk f (a) hi hj hk .
i,j,k=1

Die höheren Ableitungen können entsprechend dargestellt werden.

→ Aus den Restglieddarstellungen für das Restglied der Taylorformel für reelle
Funktionen erhält man
Rm+1 (a; a + h) = f (a + h) − Tm (a; a + h) = g(1) − Tm (a; a + h)
Z 1
1
= (1 − t)m g (m+1) (t) dt,
m! 0

falls f ∈ C m+1 (Ω). Außerdem gibt es eine Zwischenstelle ξ ∈ (0, 1) mit:


1
Rm+1 (a; a + h) = g (m+1) (ξ) = O(khkm+1 ).
(m + 1)!

18
→ Setzt man nur f ∈ C m (Ω) voraus, so kann man zeigen:

Rm+1 (a; a + h) = o(khkm ).

→ Für m = 1 und m = 2 erhält man folgende Entwicklungen:

f (a + h) = f (a) + ∇f (a)T h + O(khk2 ), falls f ∈ C 2 (Ω)

und
1
f (a + h) = f (a) + ∇f (a)T h + hT Hf (a)h + O(khk3 ), falls f ∈ C 3 (Ω).
2

→ Beispiel: Für die Funktion f (x1 , x2 ) = x31 ex2 gilt:

∂x1 f (x1 , x2 ) = 3x21 ex2 , ∂x2 f (x1 , x2 ) = x31 ex2 ,

∂x1 ∂x1 f (x1 , x2 ) = 6x1 ex2 , ∂x1 ∂x2 f (x1 , x2 ) = 3x21 ex2 , ∂x2 ∂x2 f (x1 , x2 ) = x31 ex2 .
Im Punkt a = (1, 0)T hat man:
   
3 6 3
f (1, 0) = 1, ∇f (1, 0) = und Hf (1, 0) = .
1 3 1

Man erhält die Taylorentwicklung zweiter Ordnung:


 T  
3 1 T 6 3
f (a + h) = 1 + h+ h h + O(khk3 )
1 2 3 1
1
= 1 + 3h1 + h2 + 3h21 + 3h1 h2 + h22 + O(khk3 ).
2

19
2 Differentialrechnung in Rn:
Vektorfelder
2.1 Differenzierbarkeit von Vektorfeldern,
Jacobi-Matrix
Def. Eine Funktion f : Ω ⊂ Rn → Rm heißt Vektorfeld. Ein Vektorfeld f besteht
aus m Skalarfeldern, die man Komponentenfunktionen fi : Ω → R nennt.
Ein Punkt (Vektor) x ∈ Ω ⊂ Rn wird auf ein Punkt f (x) ∈ Rm durch
 
f1 (x)
 f2 (x) 
f (x) =  .. 
 
 . 
fm (x)

abgebildet.
→ Die Begriffe des Grenzwertes und der Stetigkeit können komponentenweise
definiert werden.
Def. Ein Vektorfeld f : Ω ⊂ Rn → Rm heißt stetig an der Stelle x0 ∈ Ω, falls alle
Komponentenfunktionen fi : Ω → R an der Stelle x0 stetig sind.
Def. Sei f : Ω ⊂ Rn → Rm ein Vektorfeld. Man sagt, f ist (partiell) differenzierbar
an der Stelle x0 ∈ Ω, falls alle Komponentenfunktionen fi : Ω → R an der
Stelle x0 partiell differenzierbar sind. In diesem Falle existieren alle partiellen
Ableitungen

∂j fi (x0 ) = ∂xj fi (x0 ), 1 ≤ i ≤ m 1 ≤ j ≤ n.

Def. Sei Ω ⊂ Rn eine offene Menge. Ein Vektorfeld f : Ω → Rm heißt stetig


differenzierbar auf Ω, wenn alle Komponentenfunktionen fi : Ω → R auf Ω
stetig differenzierbar sind. Man schreibt dann f ∈ C 1 (Ω).
→ Alle partiellen Ableitungen ∂j fi (x) können in einer Matrix zusammengefasst
werden.

20
Def. Sei f : Ω ⊂ Rn → Rm ein Vektorfeld, das an der Stelle x ∈ Ω partiell
differenzierbar ist. Die Jacobi-Matrix oder Funktionalmatrix Jf (x) ∈ Rm×n
wird definiert als
 
∂1 f1 (x) ∂2 f1 (x) . . . ∂n f1 (x)
 ∂1 f2 (x) ∂2 f2 (x) . . . ∂n f2 (x) 
Jf (x) =  .
 
.. .. ..
 . . . 
∂1 fm (x) ∂2 fm (x) . . . ∂n fm (x)

→ Man stellt fest, dass die Zeilen der Matrix Jf (x) von den transponierten
Gradienten der Komponentenfunktionen fi gebildet werden. Es gilt:
 
∇f1 (x)T
 ∇f2 (x)T 
Jf (x) =  .
 
..
 . 
T
∇fm (x)

→ Ein Skalarfeld ist ein Spezialfall eines Vektorfeldes mit m = 1. Die Jacobi-
Matrix eines Skalarfeldes g : Ω ⊂ Rn → R ist eine 1 × n-Matrix mit

Jg (x) = ∇g(x)T .

→ Beispiele:
(a) Wir betrachten das Vektorfeld f : R2 → R3 mit
 2 
x1 x2
f (x) =  sin x2  .
x21 + x22

Dieses Vektorfeld ist stetig differenzierbar und es gilt:


 
2x1 x2 x21
Jf (x) =  0 cos x2  .
2x1 2x2

(b) Sei A ∈ Rm×n eine Matrix. Die lineare Abbildung f : Rn → Rm mit

f (x) = Ax

definiert ein stetig differenzierbares Vektorfeld. Es gilt:

Jf (x) = A.

21
(c) Sei g : Ω ⊂ Rn → R ein Skalarfeld und sei g ∈ C 2 (Ω). Der Gradient ∇g
definiert dann ein differenzierbares Vektorfeld:

∇g : Ω → Rn .

Die Jacobimatrix dieses Vektorfelds ist dann die Hessematrix von g:

J∇g (x) = Hg (x).

→ Weitere Beispiele erhält man, wenn man Koordinatentransformationen be-


trachtet:
(a) Eine lineare Koordinatentransformation (Basistransformation) wird als
Vektorfeld
f : Rn → Rn , f (x) = Ax
mit einer invertierbaren Matrix A ∈ Rn×n aufgefasst. Die Jacobimatrix
ist gegeben als Jf = A.
(b) Transformation auf Polarkoordinaten wird als Vektorfeld
 
2 r cos φ
f : [0, +∞) × [0, 2π) → R mit f (r, φ) =
r sin φ

aufgefasst. Für die Jacobi-Matrix gilt:


 
cos φ −r sin φ
Jf (r, φ) = .
sin φ r cos φ

(c) Transformation auf Zylinderkoordinaten wird als Vektorfeld


 
r cos φ
f : [0, +∞) × [0, 2π) × R → R3 mit f (r, φ, z) =  r sin φ 
z

aufgefasst. Für die Jacobi-Matrix gilt:


 
cos φ −r sin φ 0
Jf (r, φ, z) =  sin φ r cos φ 0 .
0 0 1

(d) Transformation auf Kugelkoordinaten wird als Vektorfeld


 
r cos φ sin θ
f : [0, +∞) × [0, π) × [0, 2π) → R3 mit f (r, θ, φ) =  r sin φ sin θ 
r cos θ

22
aufgefasst. Für die Jacobi-Matrix gilt:
 
cos φ sin θ r cos φ cos θ −r sin φ sin θ
Jf (r, θ, φ) =  sin φ sin θ r sin φ cos θ r cos φ sin θ  .
cos θ −r sin θ 0

→ Durch Zurückführen auf die Regel für die Ableitungen skalarer Funktionen
erhält man die folgenden Rechenregeln für die Vektorfelder:
(a) Seien f, g : Ω ⊂ Rn → Rm zwei differenzierbare Vektorfelder, dann ist
die Linearkombination αf + βg mit α, β ∈ R auch differenzierbar und
es gilt:
Jαf +βg (x) = αJf (x) + βJg (x).

(b) Seien f, g : Ω ⊂ Rn → Rm zwei differenzierbare Vektorfelder, dann ist


das Skalarfeld

h : Ω → R mit h(x) = f (x)T g(x)

differenzierbar und es gilt:

Jh (x) = g(x)T Jf (x) + f (x)T Jg (x)

und
∇h(x) = Jh (x)T = Jf (x)T g(x) + Jg (x)T f (x).
(Übungsaufgabe).
→ Der Begriff der totalen bzw. der Fréchet-Ableitung wird ähnlich wie für Ska-
larfelder definiert.
Def. Sei Ω ⊂ Rn eine offene Menge. Ein Vektorfeld f : Ω → Rm heißt Fréchet-
differenzierbar (oder total differenzierbar) an der Stelle x ∈ Ω, falls es eine
lineare Abbildung T : Rn → Rm gibt, so dass folgende Darstellung erfüllt ist:

f (x + h) = f (x) + T (h) + o(khk)

für khk → 0.
→ Ist das Vektorfeld f : Ω ⊂ Rn → Rm an der Stelle x ∈ Ω Fréchet-differenzierbar,
so folgt für die lineare Abbildung T die Darstellung

T (h) = Jf (x)h

und es gilt somit

f (x + h) = f (x) + Jf (x)h + o(khk).

23
→ Das Vektorfeld f ist genau dann Fréchet-differenzierbar, wenn alle Kompo-
nentenfunktionen Fréchet-differenzierbar sind.

→ Für die Fréchet-Ableitung schreibt man oft Df (x) und meint die lineare
Abbildung Df (x) : Rn → Rm . Die Jacobi-Matrix Jf (x) ist die Abbildungs-
matrix dieser Abbildung bezüglich der Standardbasis, es gilt:

Df (x)(h) = Jf (x)h.

→ Beispiel: Wir betrachten wieder das Vektorfeld f : R2 → R3 mit


 2 
x1 x2
f (x) =  sin x2  .
x21 + x22

Dieses Vektorfeld ist stetig differenzierbar und die Jacobi-Matrix ist gegeben
als  
2x1 x2 x21
Jf (x) =  0 cos x2  .
2x1 2x2
Es gilt somit für die totale Ableitung Df (x) : R2 → R3 angewendet auf ein
h ∈ R2 :
   
2x1 x2 x21   2x1 x2 h1 + x21 h2
h
Df (x)(h) = Jf (x)h =  0 cos x2  1 =  (cos x2 )h2  .
h2
2x1 2x2 2x1 h1 + 2x2 h2

→ Wie für Skalarfelder gilt der folgende Satz:

Satz 2.1 Sei Ω ⊂ Rn offen und sei f : Ω → Rm ein stetig differenzierbares Vek-
torfeld (f ∈ C 1 (Ω)). Dann ist f auf ganz Ω auch Fréchet-differenzierbar.

→ Die Kettenregel für Vektorfelder wird üblicherweise für die Fréchet-Ableitung


bzw. für die Jacobi-Matrix formuliert. Andere Formulierungen können als
Folgerungen daraus abgeleitet werden (siehe unten).

Satz 2.2 Seien Ω ⊂ Rn , D ⊂ Rm offene Mengen und f : Ω → Rm , g : D → Rl


zwei Vektorfelder. Seien das Vektorfeld f an der Stelle x ∈ Ω und das Vektorfeld g
an der Stelle y = f (x) ∈ D Fréchet-differenzierbar. Dann ist auch die Komposition
h = g ◦ f an der Stelle x Fréchet-differenzierbar und es gilt:

Dh(x) = Dg(f (x)) ◦ Df (x) und Jh (x) = Jg (f (x))Jf (x).

24
→ Für die partiellen Ableitung folgt:
m
X
∂j hi (x) = ∂k gi (f (x))∂j fk (x).
k=1

→ Einige Spezialfälle dieser Kettenregel wurden bereits diskutiert. Im Falle n =


1, Ω = (a, b) und l = 1 ist f : (a, b) → Rm eine Kurve und g : Rm → R ein
Skalarfeld. Die Zusammensetzung h(t) = g(f (t)) ist eine reelle Funktion und
man erhält:
m
X
0
h (t) = ∂k g(f (t))fk0 (t) = ∇g(f (t))T f 0 (t).
k=1

→ Beispiel (Übergang zu Polarkoordinaten): Sei eine Fréchet-differenzierbare


Funktion u : R2 → R gegeben. Durch Transformation auf Polarkoordinaten
erhält man eine Funktion

ũ : [0, +∞) × [0, 2π) → R, ũ(r, φ) = u(r cos φ, r sin φ).

Diese Funktion kann als Komposition

ũ = u ◦ f, f (r, φ) = (r cos φ, r sin φ)T

betrachtet werden. Der Zusammenhang zwischen den Jacobimatrizen


 
Jũ = ∂r ũ ∂φ ũ und Ju = ∂x u ∂y u

ist gegeben durch


Jũ = Ju Jf
oder ausgeschrieben:
 
  cos φ −r sin φ
∂r ũ ∂φ ũ = ∂x u ∂y u .
sin φ r cos φ

Daraus folgt für die Ableitungen ∂r ũ und ∂φ ũ:

∂r ũ = ∂x u cos φ + ∂y u sin φ

und
∂φ ũ = ∂x u(−r sin φ) + ∂y u r cos φ.

25
– Betrachtet man z. B. die Funktion u(x, y) = x2 + y 3 so erhält man:

∂x u = 2x = 2r cos φ, ∂y u = 3y 2 = 3r2 sin2 φ

und somit

∂r ũ = 2r cos2 φ+3r2 sin3 φ und ∂φ ũ = −2r2 cos φ sin φ+3r3 sin2 φ cos φ.

→ Manchmal unterscheidet man nicht zwischen ũ und u und schreibt

u(r, φ) = u(r cos φ, r sin φ).

Die Kettenregel wird dann oft formal wie folgt aufgeschrieben:


∂u ∂u ∂x ∂u ∂y ∂u ∂u
= + = cos φ + sin φ
∂r ∂x ∂r ∂y ∂r ∂x ∂y
und
∂u ∂u ∂x ∂u ∂y ∂u ∂u
= + = − r sin φ + r cos φ.
∂φ ∂x ∂φ ∂y ∂φ ∂x ∂y

Laplace-Operator, Divergenz und Rotation


Def. Für ein zweimal stetig differenzierbares Skalarfeld f : Ω ⊂ Rn → R definiert
man den Laplace-Operator
n
X
∆f (x) = ∂i ∂i f (x).
i=1

Def. Für ein Vektorfeld F : Ω ⊂ Rn → Rn mit


 
f1 (x)
 f2 (x) 
F (x) =  .. 
 
 . 
fn (x)

definiert man die Divergenz


n
X
div F (x) = ∂i fi (x).
i=1

26
→ Formal kann die Divergenz als Skalarprodukt
   
∂1 f1
 ∂2   f2 
div F = ∇ · F =  ..  ·  .. 
   
. .
∂n fn
geschrieben werden.
Def. Für ein Vektorfeld F : Ω ⊂ R3 → R3 mit
 
f1 (x)
F (x) = f2 (x)
f3 (x)
definiert man die Rotation
 
∂2 f3 (x) − ∂3 f2 (x)
rot F (x) = ∂3 f1 (x) − ∂1 f3 (x) .
∂1 f2 (x) − ∂2 f1 (x)

→ Formal kann die Rotation als Vektorprodukt


   
∂1 f1
rot F = ∇ × F = ∂2  × f2 
∂3 f3
geschrieben werden.
→ Beispiele:
(a) Für die Funktion f (x, y) = sin(πx) sin(πy) gilt:
∆f (x, y) = ∂x ∂x f (x, y) + ∂y ∂y f (x, y) = −2π 2 sin(πx) sin(πy).

(b) Für das Vektorfeld F : R3 → R3 mit


F (x, y, z) = (xy, y 2 , xz)T
erhält man
div F (x, y, z) = ∂x (xy) + ∂y (y 2 ) + ∂z (xz) = y + 2y + x = 3y + x.
Für die Rotation gilt:
   
∂y (xz) − ∂z (y 2 ) 0
rot F (x, y, z) = ∂z (xy) − ∂x (xz) = −z  .
  
∂x (y 2 ) − ∂y (xy) −x

27
→ Man rechnet leicht die folgende Identität nach: Sei f : Ω ⊂ Rn → R ein
zweimal stetig differenzierbares Skalarfeld, dann gilt

div(∇f ) = ∆f.

→ Für ein zweimal stetig differenzierbares Skalarfeld f : Ω ⊂ R3 → R gilt

rot(∇f ) = 0.

→ Für ein zweimal stetig differenzierbares Vektorfeld F : Ω ⊂ R3 → R3 gilt

div(rot F ) = 0.

2.2 Krummlinige Koordinaten


→ In vielen Situationen versucht man gewisse Eigenschaften eines Problems
(z.B. radiale Symmetrie) durch angepasste Koordinaten auszudrücken. Wenn
das gelingt, werden die Formeln oft einfacher und kürzer. Dabei wird aber
das Bezugssystem (Basis) ortsabhängig.

→ Eine Koordinatentransformation ist eine (stetig differenzierbare) Abbildung


(Vektorfeld) F : Ω ⊂ Rn → Rn .

→ Man schreibt x = F (u), u ∈ Ω. Der Vektor x ist der Koordinatenvektor in


kartesischen Koordinaten und der Vektor u in den neuen Koordinaten.

→ Im kartesischen Koordinatensystem kann man eine Koordinatenlinie (d. h.


eine Linie, die parallel zu einer der Koordinatenachsen verläuft) durch den
Punkt x0 ∈ Rn wie folgt beschreiben:

gi = { x ∈ Rn | xj = (x0 )j für alle j 6= i und xi ∈ R }

oder äquivalent

gi = { x ∈ Rn | x = x0 + tei , t ∈ R } ,

siehe Abbildung 2.1.

→ Für die neuen Koordinaten kann man entsprechende Koordinatenlinien de-


finieren. Da diese Linien i. A. keine Geraden mehr sind, spricht man von
krummlinigen Koordinaten.

28
x2

g2

e2
g1 x0
e1

x1

Abbildung 2.1: Koordinatenlinien in kartesichen Koordinaten

Def. Sei x0 ∈ Rn und sei u0 ∈ Ω ⊂ Rn der Koordinatenvektor des selben Punktes


in den neuen Koordinaten, d. h. x0 = F (u0 ). Man definiert die Koordinaten-
linie bzgl. der neuen (krummlinigen) Koordinaten wie folgt:

gi = { x = F (u) ∈ Rn | u ∈ Ω, uj = (u0 )j für alle j 6= i und ui ∈ R }

oder äquivalent

gi = { x = F (u) ∈ Rn | u ∈ Ω, u = u0 + tei , t ∈ R } .

→ Beispiel: Polarkoordinaten:
 
2 r cos φ
F : Ω = [0, +∞) × [0, 2π) → R mit x = F (u) = F (r, φ) = .
r sin φ

Hier ist u = (r, φ). Die Koordinatenlinien durch einen Punkt x0 = F (r0 , φ0 ) ∈
R2 mit r0 > 0 sind die Halbgerade durch den Ursprung und x0 sowie die
Kreislinie durch x0 :
   

2 (r0 + t) cos φ0
g1 = x ∈ R x = F (r0 + t, φ0 ) = , t∈R
(r0 + t) sin φ0

29
und
   
2 r0 cos(φ0 + t)
g2 = x ∈ R x = F (r0 , φ0 + t) =
, t∈R ,
r0 sin(φ0 + t)
siehe Abbildung 2.2.

x2

g2


x0 er

g1

x1

Abbildung 2.2: Koordinatenlinien in Polarkoordinaten

→ Schränkt man die freie Variable t auf ein Intervall (z.B. t ∈ [−ε, ε], ε > 0) ein,
so wird durch die Koordinatenlinie eine Kurve durch den Punkt x0 definiert:
x = ki (t) = F (u0 + tei ), t ∈ [−ε, ε].

→ Um eine Basis im Punkt x0 = F (u0 ) bzgl. krummliniger Koordinaten zu de-


finieren, betrachtet man Tangentialvektoren zu den Koordinatenlinien bzw.
zu den Kurven ki . Bekanntlich ist ki0 (0) ∈ Rn ein Tangentialvektor zu der
Kurve ki an der Stelle x0 = F (u0 + 0 · ei ). Nach der Kettenregel gilt:
ki0 (t) = JF (u0 + tei )ei
und somit
ki0 (0) = JF (u0 )ei .
Somit ist der i-te Spaltenvektor der Jacobi-Matrix JF (u0 ) ein Tangentialvek-
tor zu der i-ten Koordinatenlinie an der Stelle x0 = F (u0 ).

30
→ Damit diese Koordinatenvektoren eine Basis bilden, müssen sie linear un-
abhängig sein. Dies ist genau dann der Fall, wenn die Matrix JF (u0 ) regulär
ist, d. h. det(JF (u0 )) 6= 0.

Def. Ein Punkt x0 = F (u0 ) heißt regulär bzgl. der Koordinatentransformation F ,


wenn det(JF (u0 )) 6= 0 gilt.

→ In einer Umgebung eines regulären Punktes ist die Koordinatentransforma-


tion bijektiv (eineindeutig), siehe Abschnitt 2.3.

→ Sei also x0 = F (u0 ) ein regulärer Punkt. Dann bilden die Spalten der Jacobi-
Matrix JF (u0 ), 
JF (u0 ) = c1 c2 . . . cn ,
eine Basis (lokale Basis im Punkt x0 = F (u0 )). Die Längen dieser Vektoren
heißen Maßfaktoren hi = kci k.

→ Normiert man diese Basis, so erhält man eine normierte lokale Basis im
Punkt x0 = F (u0 ).
1 1 1
eu1 = c1 , eu2 = c2 , . . . , eun = cn .
h1 h2 h1

→ Sind die Spalten der Jacobi-Matrix JF (u0 ) orthogonal zueinander, so bil-


den die normierten Vektoren eine Orthonormalbasis. In diesem Fall ist die
Transformationsmatrix

B = eu1 eu2 . . . eun

eine orthogonale Matrix, d. h. B −1 = B T , und man spricht von orthogonalen


Koordinaten.

→ In einem kartesischen Koordinatensystem hängt die Basis nicht vom aktuel-


len Punkt ab. In einem krummlinigen Koordinatensystem sind die Basisvek-
toren ci = ci (u) bzw. die normierten Basisvektoren eui = eui (u) ortsabhängig.

→ Beispiele:
(a) Polarkoordinaten: Für die Transformation
 
r cos φ
x = F (u) = F (r, φ) =
r sin φ

31
gilt  
cos φ −r sin φ
JF (u) = JF (r, φ) = .
sin φ r cos φ
Diese Matrix ist für r 6= 0 regulär (det(JF (r, φ)) = r). Die Spalten dieser
Matrix    
cos φ −r sin φ
c1 = , c2 =
sin φ r cos φ
sind orthogonal zu einander. Die Maßfaktoren erhält man durch
q
h1 = kc1 k = sin2 φ + cos2 φ = 1 und h2 = kc2 k = r.

Die normierte lokale Basis ist also


   
cos φ − sin φ
er = , eφ = .
sin φ cos φ

(b) Zylinderkoordinaten: Für die Transformation


 
r cos φ
x = F (u) = F (r, φ, z) =  r sin φ 
z
gilt  
cos φ −r sin φ 0
JF (u) = JF (r, φ, z) =  sin φ r cos φ 0 .
0 0 1
Diese Matrix ist für r 6= 0 regulär (det(JF (r, φ)) = r). Die Spalten die-
ser Matrix sind orthogonal. Die Zylinderkoordinaten sind somit orthogonale
Koordinaten. Für die Maßfaktoren erhält man

h1 = 1, h2 = r, h3 = 1

und somit ist die lokale Basis gegeben als


     
cos φ − sin φ 0
er =  sin φ  , eφ =  cos φ  , ez = 0 .
0 0 1

(c) Kugelkoordinaten: Für die Transformation


 
r cos φ sin θ
x = F (u) = F (r, θ, φ) =  r sin φ sin θ 
r cos θ

32
gilt
 
cos φ sin θ r cos φ cos θ −r sin φ sin θ
JF (u) = JF (r, θ, φ) =  sin φ sin θ r sin φ cos θ r cos φ sin θ  .
cos θ −r sin θ 0

Für diese Matrix gilt det(JF (u)) = r2 sin θ. Somit ist diese Matrix für r 6= 0
und 0 < θ < π regulär. Auch hier kann man direkt nachrechnen, dass die
Spalten von JF (u) orthogonal sind. Somit handelt es sich bei Kugelkoordi-
naten auch um orthogonale Koordinaten. Für die Maßfaktoren erhält man

h1 = 1, h2 = r, h3 = r sin θ

und die Basisvektoren ergeben sich als


     
cos φ sin θ cos φ cos θ − sin φ
er =  sin φ sin θ  , eθ =  sin φ cos θ  , eφ =  cos φ  .
cos θ − sin θ 0

Gradient eines Skalarfeldes in krummlinigen Koordinaten


→ Wir betrachten ein Skalarfeld g : Rn → R und eine Koordinatentransfor-
mation F : Ω ⊂ Rn → Rn . Man kann dieses Skalarfeld bzgl. der neuen
Koordinaten betrachten. Dies führt auf die Verkettung:

g̃ = g ◦ F, g̃(u) = g(F (u)).

Nach der Kettenregel gilt:

Jg̃ (u) = Jg (F (u))JF (u)

oder äquivalent

∇g̃(u)T = ∇g(x)T JF (u), mit x = F (u)

bzw.
∇g̃(u) = JF (u)T ∇g(x), mit x = F (u).
Daraus ergibt sich
−1
∇g(x) = JF (u)T ∇g̃(u).
Diese Formel vereinfacht sich im Falle der orthogonalen Koordinaten. Es gilt
dann:
JF (u) = BH

33
mit einer orthogonalen Matrix B (B T = B −1 ) bestehend aus den normierten
lokalen Basisvektoren

B = eu1 eu2 . . . eun
und der Diagonalmatrix H bestehend aus den Maßfaktoren:
 
h1 0 . . . 0
. .
 0 h2 . . .. 

H=. . .
 .. .. ... 0 
0 . . . 0 hn
Daraus folgt:
−1 −1 −1
JF (u)T = (BH)T = H T BT = BH −1
und somit
∇g(x) = BH −1 ∇g̃(u).
Schreibt man das explizit aus, so erhält man die Darstellung des Gradienten
(bzgl. x) in der neuen Basis:
1 1 1
∇g(x) = ∂u1 g̃(u) · eu1 + ∂u2 g̃(u) · eu2 + · · · + ∂un g̃(u) · eun .
h1 h2 hn
→ Man erhält folgende Darstellungen in Polar-, Zylinder- und Kugelkoordina-
ten:
→ Polarkoordinaten:
1
∇g(x) = ∂r g̃(r, φ) · er + ∂φ g̃(r, φ) · eφ ,
r
→ Zylinderkoordinaten:
1
∇g(x) = ∂r g̃(r, φ, z) · er + ∂φ g̃(r, φ, z) · eφ + ∂z g̃(r, φ, z) · ez ,
r
→ Kugelkoordinaten:
1 1
∇g(x) = ∂r g̃(r, θ, φ) · er + ∂θ g̃(r, θ, φ) · eθ + ∂φ g̃(r, θ, φ) · eφ .
r r sin θ
→ Beispiel: Wir betrachten das Skalarfeld g(x) = ln(x21 + x22 + x23 ). Bzgl. der
Kugelkoordinaten erhält man
g(x) = g̃(r, θ, φ) = ln(r2 )
und somit
2
∇g(x) = ∂r g̃(r, θ, φ) · er = · er .
r

34
Vektorfelder in krummlinigen Koordinaten
→ Sei ein Vektorfeld G : Rn → Rn gegeben. Bezüglich der kartesischen Stan-
dardbasis gilt die Darstellung:
 
g1 (x)
 g2 (x) 
G(x) =  ..  = g1 (x) · e1 + g2 (x) · e2 + · · · + gn (x) · en .
 
 . 
gn (x)

Wir betrachten jetzt eine Koordinatentransformation F : Ω ⊂ Rn → Rn und


erhalten zuerst das Vektorfeld G̃ durch folgende Verkettung

G̃ = G ◦ F, G̃(u) = G(F (u)).

Dieses Vektorfeld hat die folgende Darstellung bzgl. der Standardbasis:


 
g̃1 (u)
 g̃2 (u) 
G̃(u) =  ..  = g̃1 (u) · e1 + g̃2 (u) · e2 + · · · + g̃n (u) · en .
 
 . 
g̃n (u)

mit
g̃i (u) = gi (F (u)).
Im nächsten Schritt wollen wir dieses Vektorfeld bzgl. der lokalen Basis
eu1 , eu2 , . . . , eun darstellen, d. h. die Koeffizentenfunktionen ĝi (u) von
 
ĝ1 (u)
 ĝ2 (u) 
Ĝ(u) =  .. 
 
 . 
ĝn (u)

bestimmen, so dass

G(x) = g1 (x) · e1 + g2 (x) · e2 + · · · + gn (x) · en


= g̃1 (u) · e1 + g̃2 (u) · e2 + · · · + g̃n (u) · en
= ĝ1 (u) · eu1 + ĝ2 (u) · eu2 + · · · + ĝn (u) · eun

mit x = F (u) gilt. Die letzte Gleichheit kann äquivalen in der Matrixschreib-
weise formuliert werden
G̃(u) = B Ĝ(u)

35
mit 
B = eu1 eu2 . . . eun .
Daraus folgt
Ĝ(u) = B −1 G̃(u) = B −1 G(x)
mit x = F (u). Ist F eine orthogonale Transformation, so ist die Matrix B
orthogonal und man erhält

Ĝ(u) = B T G̃(u) = B T G(x).

→ Beispiel: Wir betrachten das Vektorfeld

G : { x ∈ R3 | x1 6= 0 or x2 6= 0 } → R3

mit  
−x2
1  x1  .
G(x) = 2
x1 + x22
0
Wir stellen dieses Vektorfeld bzgl. der Zylinderkoordinaten dar. Es gilt
 
−r sin φ
1
G(x) = G̃(r, φ, z) = 2  r cos φ 
r
0

und  
 cos φ − sin φ 0
B = er eφ ez =  sin φ cos φ 0 .
0 0 1
Somit folgt
     
cos φ sin φ 0 −r sin φ 0
T 1 
Ĝ(r, φ, z) = B G̃(r, φ, z) = − sin φ cos φ 0
  r cos φ = 1r  .
 
r2
0 0 1 0 0

2.3 Implizite Funktionen


→ In vielen Situationen ist eine Funktion g : I = (a, b) → R explizit durch die
Vorschrift y = g(x) wie z. B. y = g(x) = x2 + x gegeben.

→ In vielen weiteren Situationen ist die Funktion y = g(x) als Lösung einer
Gleichung f (x, y) = 0 implizit gegeben.

→ Beispiele:

36
(a) Wir betrachten das Skalarfeld f : R2 → R mit f (x, y) = 2x + 3y + 3.
Durch die Gleichung f (x, y) = 0 ist eindeutig die Funktion y = g(x)
mit der Eigenschaft
f (x, g(x)) = 0
implizit definiert. Diese Funktion erlaubt auch eine explizite Darstel-
lung, da die Gleichung f (x, y) = 0 nach y explizit aufgelöst werden
kann. Es gilt:
2
y = g(x) = − x − 1.
3
(b) Wir betrachten das Skalarfeld f : R2 → R mit

f (x, y) = ey + y 3 − x2 − x3 − 1.

Die Funktion h(y) = ey + y 3 ist streng monoton steigend und hat als
Wertebereich R. Das heißt, für jede reelle Zahl a ∈ R gibt es genau ein
y mit h(y) = a. Somit gibt es auch für jedes x ∈ R genau ein y mit

ey + y 3 = x2 + x3 + 1.

Dadurch ist die Funktion y = g(x) eindeutig definiert. Sie erfüllt die
Gleichung
f (x, g(x)) = 0 für alle x ∈ R.
Für diese Funktion findet man aber keine explizite Darstellung.
(c) Betrachtet man die Gleichung für die Kreislinie:

f (x, y) = x2 + y 2 − r2 = 0, r > 0,

so sind dadurch zwei Funktionen definiert:



g1 : [−r; r] → [0, r], y = g1 (x) = r 2 − x2

und √
g1 : [−r; r] → [−r, 0], y = g2 (x) = − r2 − x2 .

→ Ist die Funktion g(x) implizit durch die Gleichung

f (x, g(x)) = 0

gegeben, so erhält man für die Ableitungen (falls existent) nach der Ketten-
regel:
 
1
= ∂x f (x, g(x)) + ∂y f (x, g(x))g 0 (x).

0 = ∂x f (x, g(x)) ∂y f (x, g(x))
g 0 (x)

37
Falls ∂y f (x, g(x)) 6= 0 erhält man

∂x f (x, g(x))
g 0 (x) = − .
∂y f (x, g(x))

Satz 2.3 (Satz über implizite Funktionen) Sei D ⊂ R2 offen und f : D → R


sei stetig differenzierbar. Sei der Punkt (x0 , y0 ) ∈ D derart gegeben, dass

f (x0 , y0 ) = 0 und ∂y f (x0 , y0 ) 6= 0.

Dann gibt es zwei offene Intervalle I ⊂ R mit Mittelpunkt x0 und K ⊂ R mit


Mittelpunkt y0 , so dass gilt

(a) R = I × K ⊂ D und ∂y f (x, y) 6= 0 für alle (x, y) ∈ R,

(b) Durch f (x, y) = 0 ist auf I eindeutig eine differenzierbare Funktion g : I → K


implizit definiert mit y0 = g(x0 ) und

f (x, g(x)) = 0 für alle x ∈ I.

Die Ableitung von g ist gegeben als


∂x f (x, g(x))
g 0 (x) = − für alle x ∈ I.
∂y f (x, g(x))

→ Ist f ∈ C 2 (D) und sind die Voraussetzungen des Satzes 2.3 erfüllt, so ist
auch die Funktion g zweimal stetig differenzierbar. Die zweite Ableitung
von g erhält man, wenn man die Gleichung f (x, g(x)) = 0 zweimal nach x
ableitet. Einmal nach x abgeleitet entsteht die Gleichung

∂x f (x, g(x)) · 1 + ∂y f (x, g(x))g 0 (x) = 0.

Leitet man diese Gleichung nach x ab, so erhält man

∂x ∂x f (x, g(x)) · 1 + ∂y ∂x f (x, g(x))g 0 (x)


 
+ ∂x ∂y f (x, g(x)) · 1 + ∂y ∂y f (x, g(x))g 0 (x) g 0 (x) + ∂y f (x, g(x))g 00 (x) = 0.

Es ergibt sich folgenden Darstellung für g 00 (x):

∂x ∂x f (x, g(x)) + 2∂y ∂x f (x, g(x))g 0 (x) + ∂y ∂y f (x, g(x))(g 0 (x))2


g 00 (x) = − .
∂y f (x, g(x))

→ Beispiele:

38
(a) Wir betrachten wieder die Funktion

f (x, y) = ey + y 3 − x2 − x3 − 1.

Für (x0 , y0 ) = (0, 0) gilt:

f (0, 0) = 0, ∂y f (x, y) = ey + 3y 2 , ∂y f (0, 0) = 1 6= 0.

Somit liefert der obige Satz die Existenz einer implizit definierten Funk-
tion g : I → K mit I = (−ε, ε), K = (−δ, δ), ε, δ > 0 mit g(0) = 0 und

f (x, g(x)) = 0 für alle x ∈ I.

Obwohl die Funktion g nicht explizit angegeben werden kann, lässt sich
ihre Ableitung bestimmen als:
∂x f (x, g(x))
g 0 (x) = − .
∂y f (x, g(x))

Es gilt:
∂x f (x, y) = −2x − 3x2
und somit
−2x − 3x2 2x + 3x2
g 0 (x) = − = .
eg(x) + 3g(x)2 −g(x)3 + 3g(x)2 + x2 + x3 + 1

(b) Wir betrachten die Funktion f : R2 → R mit f (x, y) = x2 + y 2 − 1. Die


Gleichung f (x, y) = 0 beschreibt die Kreislinie des Einheitskreises. Es
gilt:
∂y f (x, y) = 2y
Somit gibt es in Umgebung jedes Punktes P (x0 , y0 ) auf der Kreislinie
(d. h. mit f (x0 , y0 ) = 0) und y0 6= 0 eine implizit definierte Funktion
y = g(x) mit f (x, g(x)) = 0. Diese Funktionen können auch explizit
angegeben werden. Für y0 > 0 erhält man

y = g1 (x) = 1 − x2

und für y0 < 0: √


y = g2 (x) = − 1 − x2 .
In einer Umgebung von y0 = 0 kann man keine entsprechende Funktion
eindeutig definieren, da zu jedem Wert von x zwei verschiedene Werte
von y korrespondieren.

39
→ Wir haben das Konzept der impliziten Funktionen für eine Gleichung mit
zwei Variablen betrachtet. Für ein System aus m Gleichungen in n Varia-
blen und m < n ist es unter Umständen möglich, bis zu m Variablen zu
“eliminieren”.

→ Sei F : Rk+m → Rm ein stetig differenzierbares Vektorfeld mit


 
f1 (z)
 f2 (z) 
F (z) =  ..  , fi : Rk+m → R.
 
 . 
fm (z)

Wir betrachten das Gleichungssystem

F (z) = 0, z ∈ Rk+m .

Man kann jeden Vektor z ∈ Rk+m als ein Paar z = (x, y) mit x ∈ Rk und
y ∈ Rm schreiben. In Analogie zu dem eindimensionalen Fall sucht man ein
Vektorfeld G : Rk → Rm mit

F (x, G(x)) = 0.

Die Bedingung für die Existenz einer solchen implizit definierten Funktion in
einer Umgebung der Stelle z0 = (x0 , y0 ) mit F (z0 ) = 0 ist die folgende: Die
Teilmatrix JF,y (z0 ) ∈ Rm×m der Jacobi-Matrix JF (z0 ) ∈ Rm×(m+k) bestehend
aus
∂j fi (z0 ) 1 ≤ i ≤ m, k + 1 ≤ j ≤ k + m
soll invertierbar sein.

→ Beispiele:
(a) Sei
1
f : R3 → R,f (x, y, z) = sin(x + y − z 2 ) − √ .
2
Wir betrachten die Gleichung

f (x, y, z) = 0.

Für (x0 , y0 , z0 ) = ( π4 , 0, 0) gilt f (x0 , y0 , z0 ) = 0. Ferner ist



Jf (x, y, z) = cos(x + y − z 2 ) cos(x + y − z 2 ) cos(x + y − z 2 )(−2z)

und daher  
Jf (x0 , y0 , z0 ) = √1 √1 0 .
2 2

40
Man kann die Gleichung f (x, y, z) = 0 in einer Umgebung des Punktes
( π4 , 0, 0) nach x oder nach y auflösen.
Auflösen nach x: Es gibt Bε ((0, 0)) ⊂ R2 , ein Intervall K = ( π4 −δ, π4 +δ)
und
g : Bε ((0, 0)) ⊂ R2 → K
mit
f (g(y, z), y, z) = 0 für alle (y, z) ∈ Bε ((0, 0)).
Wie bestimmt man die Ableitung von g(y, z) ? Die Gleichung

f (g(y, z), y, z) = 0

nach y abgeleitet ergibt:

∂x f (g(y, z), y, z)·∂y g(y, z)+∂y f (g(y, z), y, z)·1+∂z f (g(y, z), y, z)·0 = 0

∂y f (g(y, z), y, z)
⇒ ∂y g(y, z) = − = −1.
∂x f (g(y, z)), y, z)
Analog erhält man:

∂z f (g(y, z), y, z)
∂z g(y, z) = − = 2z.
∂x f (g(y, z), y, z)

→ In diesem Beispiel kann man die Funktion g auch explizit angeben:


π
x = g(y, z) = −y + z 2 + .
4

(b) Wir betrachten das Vektorfeld F : R3 → R2 mit


 
x2 + y 2 − z 2 − 8
F (x, y, z) =
sin πx + sin πy + sin πz

und das entsprechende Gleichungssystem


 
0
F (x, y, z) = .
0

Für (x0 , y0 , z0 ) = (2, 2, 0) gilt F (x0 , y0 , z0 ) = 0.


Es gilt:  
2x 2y −2z
JF (x, y, z) =
π cos πx π cos πy π cos πz

41
und  
4 4 0
JF (x0 , y0 , z0 ) =
π π π

4 0
Die Teilmatrix JF,(y,z) = ist invertierbar. Es gibt eine implizite
π π
Funktion g : I → V ⊂ R2 , V = Bδ ((2, 0)), I = (2 − ε, 2 + ε) mit

F (x, g(x)) = 0

oder   
g1 (x)
F (x, g1 (x), g2 (x)) = 0, g(x) =
g2 (x)
für alle x ∈ I.
Wie bestimmt man die Ableitungen von g(x) ? Es gilt

F (x, g1 (x), g2 (x)) = 0.

Mit  
x
F : R3 → R2 , G : R → R3 , G(x) = g1 (x)
g2 (x)
folgt
F (G(x)) = 0 für alle x ∈ I.
Wir leiten diese Gleichung nach x ab und erhalten mit der Kettenregel

JF (G(x)) · JG (x) = 0

 
  1
2x 2y −2z
⇒ · g10 (x) = 0
π cos πx π cos πy π cos πz
g20 (x)
mit y = g1 (x) und z = g2 (x). Dieses Gleichungssystem ist äquivalent zu

  0   
2y −2z g1 (x) 2x
=−
π cos πy π cos πz g20 (x) π cos πx
 0   −1  
g1 (x) 2g1 (x) −2g2 (x) 2x
⇒ =− .
g20 (x) π cos πg1 (x) π cos πg2 (x) π cos πx

42
→ Eine wichtige Folgerung aus dem Satz über implizite Funktionen ist der Satz
von der Umkehrabbildung. Ist ein Vektorfeld F : Ω ⊂ Rn → Rn umkehrbar,
dann gilt:
F −1 (F (x)) = x für alle x ∈ Ω.
Sind F und F −1 stetig differenzierbar, so folgt aus der Kettenregel:
JF −1 (F (x))JF (x) = I

Satz 2.4 Sei Ω ⊂ Rn offen und sei F : Ω → Rn ein stetig differenzierbares Vek-
torfeld. Sei x0 ∈ Ω, y0 = F (x0 ) und sei die Jacobi-Matrix JF (x0 ) invertierbar.
Dann gibt es eine Umgebung U ⊂ Ω von x0 und eine Umgebung V ⊂ F (Ω) von
y0 , so dass F die Menge U auf die Menge V bijektiv abbildet. Die Umkehrfunktion
F −1 : V → U ist stetig differenzierbar und es gilt:
JF −1 (F (x)) = (JF (x))−1 für alle x ∈ U.
→ Beispiel: Für die Transformation auf Polarkoordinaten gilt
 
2 r cos φ
F : [0, +∞) × [0, 2π) → R mit F (r, φ) =
r sin φ
und  
cos φ −r sin φ
JF (r, φ) = .
sin φ r cos φ
Man erhält
det JF (r, φ) = r cos2 φ + r sin2 φ = r.
Die Matrix JF (r, φ) ist für alle (r, φ) mit r 6= 0 invertierbar und somit gibt
es in der Umgebung jedes solchen Punktes eine Umkehrabbildung F −1 .

2.4 Mittelwertsatz
→ Für skalare Funktionen haben wir den Mittelwertsatz in folgender Form be-
wiesen: Sei f : I → R stetig differenzierbar und seien x, y ∈ I, x < y. Dann
gibt es eine Zwischenstelle ξ ∈ (x, y) mit
f (y) − f (x) = f 0 (ξ)(y − x).
Eine wichtige Folgerung daraus ist die Abschätzung:
|f (y) − f (x)| ≤ C|x − y|
mit
C = max |f 0 (t)|.
t∈[x,y]

43
→ Der Mittelwertsatz kann direkt auf Skalarfelder f : Ω → R übertragen wer-
den. Dafür muss die ganze Verbindungsstrecke [x, y] gegeben als

[x, y] = { z ∈ Rn | z = ty + (1 − t)x, t ∈ [0, 1] } ,

in Ω liegen.

Def. Eine Menge Ω ⊂ Rn heißt konvex, wenn für alle x, y ∈ Ω gilt: [x, y] ⊂ Ω.

Satz 2.5 (Mittelwertsatz für Skalarfelder) Sei Ω ⊂ Rn eine offene Menge,


f : Ω → R ein stetig differenzierbares Skalarfeld und x, y ∈ Ω. Es gelte zusätzlich
[x, y] ⊂ Ω. Dann gibt es eine Zwischenstelle ξ ∈ [x, y], so dass

f (y) − f (x) = ∇f (ξ)T (y − x)

gilt. Außerdem hat man die folgende Abschätzung

|f (y) − f (x)| ≤ Cky − xk

mit
C = max k∇f (z)k.
z∈[x,y]

Beweis:
Wir definieren eine skalare Funktion g : [0, 1] → R durch

g(t) = f (ty + (1 − t)x).

Es gilt: g(0) = f (x) und g(1) = f (y). Nach dem Mittelwertsatz für skalare Funk-
tionen gibt es ein s ∈ (0, 1) mit

f (y) − f (x) = g(1) − g(0) = g 0 (s)(1 − 0) = g 0 (s).

Für die Ableitung von g erhält man nach der Kettenregel:

g 0 (t) = ∇f (ty + (1 − t)x)T (y − x)

und somit

g 0 (s) = ∇f (ξ)T (y − x) mit ξ = sy + (1 − s)x ∈ [x, y].

Die zweite Behauptung folgt mit der Cauchy-Schwarz-Ungleichung



|f (y) − f (x)| = ∇f (ξ)T (y − x) ≤ k∇f (ξ)k ky − xk ≤ C ky − xk.

44
→ Beispiel: Sei Ω = B1 (0) ⊂ R3 die Einheitskugel und sei f : Ω → R gegeben
als
f (x) = x21 − 3x22 + x3 .
Es gilt:  
2x1
∇f (x) = −6x2 
1
und somit
q √
k∇f (x)k = 4x21 + 36x22 + 1 ≤ 41 für alle x ∈ Ω,

da |xi | ≤ 1 für x ∈ Ω. Daraus folgt



|f (y) − f (x)| ≤ 41 ky − xk für alle x, y ∈ Ω.

→ Der Mittelwertsatz kann nicht direkt auf Vektorfelder verallgemeinert wer-


den. Sei F : Ω → Rm ein Vektorfeld und seien x, y ∈ Ω mit [x, y] ⊂ Ω. Das
Vektorfeld F besteht aus m Skalarfeldern fi : Ω → R mit
T
F (x) = f1 (x) f2 (x) . . . fm (x) .

Nach dem Mittelwertsatz für Skalarfelder gibt es zwar Zwischenstellen

ξ1 , ξ2 , . . . , ξm ∈ [x, y]

mit
fi (y) − fi (x) = ∇fi (ξi )T (y − x),
die aber im Allgemeinen verschieden sind. Und es gibt im Allgemeinen keine
Zwischenstelle ξ ∈ [x, y] mit F (y) − F (x) = JF (ξ)(y − x).

→ Beispiel: Wir betrachten die Funktion F : [0, 1] → R2 mit


!
cos π2 t
F (t) =  .
sin π2 t

Dies ist eine Kurve (und somit auch ein Vektorfeld), die den Viertelkreis in
R2 beschreibt. Es gilt
     
0 1 −1
F (1) − F (0) = − =
1 0 1

45
und !
π
π − sin 2
t
JF (t) = F 0 (t) = π
 .
2 cos 2
t
Wir wollen an dem Beispiel sehen, dass es keine Stelle ξ ∈ (0, 1) gibt mit
F (1) − F (0) = F 0 (ξ).
Dies folgt, da
√ π
kF (1) − F (0)k = 2 und kF 0 (t)k = für alle t ∈ [0, 1].
2
→ Es gilt aber die “Ungleichungsvariante” des Mittelwertsatzes:
Satz 2.6 Sei Ω ⊂ Rn eine offene Menge und F : Ω → Rm ein stetig differenzier-
bares Vektorfeld. Seien x, y ∈ Ω und [x, y] ⊂ Ω. Dann gilt:
kF (y) − F (x)k ≤ C ky − xk,
wobei die Konstante C ist gegeben als
C = max |||JF (z)|||
z∈[x,y]

mit der Jacobi-Matrix JF (z) und der Matrizennorm


kAvk
|||A||| = sup .
v∈Rn , v6=0 kvk

Beweis:
Sei w ∈ Rm beliebig. Wir betrachten ein Skalarfeld g : Ω → R mit
g(x) = wT F (x).
Es gilt:
∇g(x) = JF (x)T w.
Nach dem Mittelwertsatz für Skalarfelder gibt es ein ξ ∈ [x, y] mit:
wT (F (y) − F (x)) = g(y) − g(x) = ∇g(ξ)T (y − x) = wT JF (ξ)(y − x).
Wir setzen w = F (y) − F (x) und erhalten:
kF (y) − F (x)k2 = (F (y) − F (x))T (F (y) − F (x))
= (F (y) − F (x))T JF (ξ)(y − x) ≤ kF (y) − F (x)kkJF (ξ)(y − x)k.
Daraus folgt:
kF (y) − F (x)k ≤ kJF (ξ)(y − x)k ≤ |||JF (ξ)||| ky − xk ≤ C ky − xk.
#

46
3 Extremwertaufgaben
3.1 Extremwertaufgaben ohne Nebenbedingungen
→ Sei ein Skalarfeld f : Ω ⊂ Rn → R gegeben. In vielen Situationen sucht man
nach Minima und Maxima der Funktion f auf Ω. Im Allgemeinen ist es sehr
schwierig, globale Extrema zu finden. Wir werden uns deswegen mit lokalen
Minima und Maxima beschäftigen.

Def. Sei Ω ⊂ Rn , f : Ω → R ein Skalarfeld. Ein Punkt x̂ ∈ Ω heißt lokales


Minimum von f , wenn es eine (offene) Umgebung Bε (x̂) gibt, so dass

f (x̂) ≤ f (x) für alle x ∈ Bε (x̂) ∩ Ω

gilt.

Def. Sei x̂ ein lokales Minimum von f : Ω → R und es gelte zusätzlich

f (x̂) < f (x) für alle x ∈ Bε (x̂) ∩ Ω, x 6= x̂

in einer Umgebung Bε (x̂), so spricht man von einem strikten lokalen Mini-
mum.

→ Die Begriffe eines lokalen und eines strikten lokalen Maximums werden ent-
sprechend definiert.

→ Im folgenden Satz formulieren wir eine notwendige Bedingung für ein lokales
Extremum.

Satz 3.1 (Notwendige Optimalitätsbedingung erster Ordnung) Sei f : Ω ⊂


Rn → R partiell differenzierbar und sei x̂ ∈ int(Ω) ein lokales Extremum. Dann
gilt:
∇f (x̂) = 0.

Beweis:
Für den Einheitsvektor ei ∈ Rn definieren wir die Funktion

gi (t) = f (x̂ + tei ).

47
Da x̂ ein innerer Punkt von Ω ist, gibt es ein δ > 0, so dass Bδ (x̂) ⊂ Ω. Somit
ist die Funktion gi auf dem offenen Intervall (−δ, δ) definiert und differenzierbar.
Nach Definition der partiellen Ableitung von f gilt:
∂f
gi0 (t) = (x̂ + tei ).
∂xi
Da das Skalarfeld an der Stelle x̂ ein lokales Extremum besitzt, hat die Funktion
gi (t) ein lokales Extremum an der Stelle t = 0. Daraus folgt:

gi0 (0) = 0

und somit
∂f
(x̂) = 0.
∂xi
Insgesamt erhält man ∇f (x̂) = 0.

→ Die Aussage des obigen Satzes ist eine notwendige Optimalitätsbedingung


für innere Punkte x̂ ∈ int(Ω). Liegt ein lokales Minimum am Rand von Ω,
so verschwindet der Gradient ∇f (x̂) im Allgemeinen nicht.

→ Beispiel: Wir betrachten die Funktion f : R2 → R, f (x, y) = x2 + 3y 4 . Es


gilt:  
2x
∇f (x, y) = .
12y 3
Die einzige Stelle, die als ein Extremum in Frage kommt ist somit der Ur-
sprung, da
∇f (x, y) = 0 ⇒ x = y = 0.
Für dieses Beispiel kann man direkt sehen, dass wir damit ein globales Mi-
nimum gefunden haben, da

f (x, y) ≥ 0 = f (0, 0) für alle (x, y)T ∈ R2 .

Def. Ein Punkt x̂ ∈ int(Ω) mit ∇f (x̂) = 0 heißt ein stationärer Punkt von f .

→ Ein stationärer Punkt kann es ein Minimum, ein Maximum oder keines der
beiden sein.

Def. Ein stationärer Punkt, der weder ein Maximum noch ein Minimum ist, heißt
Sattelpunkt.

48
→ Weitere Informationen über mögliche Extremalstellen erhält man mit Hilfe
der Hessematrix Hf (x).
→ Ist das Skalarfeld f : Ω ⊂ Rn → R zweimal stetig differenzierbar, d. h. f ∈
C 2 (Ω), so ist die Matrix Hf (x) ∈ Rn×n symmetrisch. Deshalb ist die Matrix
Hf (x) diagonalisierbar und besitzt n reelle Eigenwerte λ1 , λ2 , . . . , λn .
→ Wir haben schon die Definitheitseigenschaften einer Matrix kennengelernt.
Für eine symmetrische Matrix A ∈ Rn×n mit reellen Eigenwerten λ1 , λ2 , . . . , λn
gilt:
– A heißt positiv semidefinit, wenn
xT Ax ≥ 0 für alle x ∈ Rn
erfüllt ist. Dies ist äquivalent zu der Aussage:
λi ≥ 0 für alle 1 ≤ i ≤ n.

– A heißt positiv definit, wenn


xT Ax > 0 für alle x ∈ Rn , x 6= 0
erfüllt ist. Dies ist äquivalent zu der Aussage:
λi > 0 für alle 1 ≤ i ≤ n.

– Entsprechend werden die Begriffe “negativ semidefinit” und “negativ


definit” eingeführt.
– A heißt indefinit, wenn sie weder positiv semidefinit noch negativ semi-
definit ist. In diesem Falle besitzt A sowohl positive als auch negative
Eigenwerte.
→ Ist die symmetrische Matrix A ∈ Rn×n positiv definit, so gilt
xT Ax ≥ λ1 kxk2 ,
wobei λ1 der kleinste Eigenwert von A ist. Dies kann wie folgt begründet
werden: Seien die Eigenwerte geordnet:
λn ≥ λn−1 ≥ · · · ≥ λ2 ≥ λ1 > 0
und sei {w1 , w2 , . . . , wn } die zugehörige Orthonormalbasis aus Eigenvektoren.
(Eine solche Basis existiert, da die Matrix A symmetrisch ist.) Sei x ∈ Rn
beliebig mit
Xn
x= xi wi = x1 w1 + x2 w2 + · · · + xn wn .
i=1

49
Man erhält:
n
X n
X n
X
T T T
x Ax = x A xi wi = xi x Awi = xi λ i xT w i
i=1 i=1 i=1
n
X n
X
= λi x2i ≥ λ1 x2i = λ1 kxk2 .
i=1 i=1

Satz 3.2 (Notwendige Optimalitätsbedingung zweiter Ordnung) Sei f : Ω ⊂


Rn → R ein zweimal stetig differenzierbares Skalarfeld und sei x̂ ∈ int(Ω) ein lo-
kales Minimum. Dann gilt:
∇f (x̂) = 0
und die Hessematrix Hf (x̂) an der Stelle x̂ ist positiv semidefinit.

Beweis:
Sei v ∈ Rn beliebig. Wir betrachten die Funktion

g(t) = f (x̂ + tv).

Wie im Beweis des Satzes 3.1 ist diese Funktion auf einem Intervall (−δ, δ) mit
δ > 0 definiert, zweimal stetig differenzierbar und besitzt an der Stelle t = 0 ein
Minimum. Daraus folgt

g 0 (0) = 0 und g 00 (0) ≥ 0.

Es gilt
g 0 (t) = ∇f (x̂ + tv)T v und g 00 (t) = v T Hf (x̂ + tv)v
und somit folgt

∇f (x̂)T v = 0 und v T Hf (x̂)v ≥ 0 für alle v ∈ Rn .

Daraus folgt die Behauptung.

→ Die entsprechende notwendige Bedingung zweiter Ordnung für ein Maximum


lautet:
∇f (x̂) = 0
und die Hessematrix Hf (x̂) an der Stelle x̂ ist negativ semidefinit.

→ Um zu überprüfen, ob eine gegebene Stelle x̂ ein Extremum ist, benötigt


man hinreichende Optimalitätsbedingungen.

50
Satz 3.3 (Hinreichende Optimalitätsbedingung zweiter Ordnung) Sei f : Ω ⊂
Rn → R ein zweimal stetig differenzierbares Skalarfeld und sei x̂ ∈ Ω ein innerer
Punkt von Ω. Es gelte
∇f (x̂) = 0
und die Hessematrix Hf (x̂) an der Stelle x̂ sei positiv definit. Dann ist x̂ ein
striktes lokales Minimum von f .
Beweis:
Wir betrachten das Taylorpolynom 2. Grades von f an der Stelle x̂. Es gilt:
1
f (x̂ + d) = f (x̂) + ∇f (x̂)T d + dT Hf (x̂)d + R3 (x̂; d), mit R3 (x̂; d) = o(kdk2 ).
2
Wegen ∇f (x̂) = 0 erhält man:
1
f (x̂ + d) − f (x̂) = dT Hf (x̂)d + R3 (x̂; d).
2
Die Matrix Hf (x̂) ist symmetrisch und positiv definit und besitzt deswegen n
positive Eigenwerte
λn ≥ λn−1 ≥ · · · ≥ λ2 ≥ λ1 > 0.
Wir haben gezeigt,
dT Hf (x̂)d ≥ λ1 kdk2 .
Andererseits folgt aus R3 (x̂; d) = o(kdk2 ), dass
|R3 (x̂; d)|
lim = 0.
kdk→0 kdk2
Deswegen gibt es ein δ > 0, so dass
|R3 (x̂; d)| 1
≤ λ1
kdk2 4
für alle d ∈ Rn mit kdk < δ und somit
1
R3 (x̂; d) ≥ − λ1 kdk2
4
für alle d ∈ Rn mit kdk < δ. Insgesamt folgt:
1
f (x̂ + d) − f (x̂) = dT Hf (x̂)d + R3 (x̂; d)
2
1 1 1
≥ λ1 kdk2 − λ1 kdk2 = λ1 kdk2 .
2 4 4
Somit gilt f (x̂ + d) > f (x̂) für alle d 6= 0 mit kdk < δ und x̂ ist ein striktes lokales
Minimum.

51
#

→ Entsprechend kann man eine hinreichende Bedingung für ein Maximum for-
mulieren. Ist ∇f (x̂) = 0 und ist Hf (x̂) negativ definit, so ist x̂ ein striktes
lokales Maximum.

→ Insgesamt hat man das folgende Schema zur Bestimmung lokaler Extrema
eines Skalarfeldes f im Inneren von Ω:

1. Man sucht alle stationären Punkte, d. h. Punkte x̂ ∈ int(Ω) mit ∇f (x̂) = 0.

2. Man bestimmt die Hessematrix Hf (x̂).


– Ist Hf (x̂) positiv definit (alle Eigenwerte positiv), so liegt ein Minimum
vor.
– Ist Hf (x̂) negativ definit (alle Eigenwerte negativ), so liegt ein Maxi-
mum vor.
– Ist Hf (x̂) indefinit (d. h., es gibt sowohl positive als auch negative Ei-
genwerte), so ist x̂ weder ein Minimum noch ein Maximum. Man spricht
dann von einem Sattelpunkt.
– Ist Hf (x̂) positiv semidefinit (d. h. alle λi ≥ 0) und es gibt sowohl Null-
Eigenwerte als auch mindestens einen Eigenwert λj > 0, so kann man
ausschliessen, dass x̂ ein Maximum ist. Es kann sich um ein Minimum
oder um einen Sattelpunkt handeln. Dies kann man anhand von Eigen-
werten nicht entscheiden.
– Ist Hf (x̂) negativ semidefinit (d. h. alle λi ≤ 0) und es gibt sowohl
Null-Eigenwerte als auch mindestens einen Eigenwert λj < 0, so kann
man ausschliessen, dass x̂ ein Minimum ist. Es kann sich um ein Maxi-
mum oder um einen Sattelpunkt handeln. Dies kann man anhand von
Eigenwerten nicht entscheiden.

→ Beispiele:
(a) Für die Funktion f (x, y) = x2 + 3y 2 gilt:
   
2x 2 0
∇f (x, y) = und Hf (x, y) = .
6y 0 6

Die Gleichung ∇f (x, y) = 0 hat die eindeutige Lösung x = y = 0.


Die Hessematrix an dieser Stelle (die in diesem Beispiel von (x, y) un-
abhängig ist) ist positiv definit. Somit liegt hier ein Minimum vor.

52
(b) Für die Funktion f (x, y) = (x − 1)2 − y 4 − 4y gilt:
   
2x − 2 2 0
∇f (x, y) = und Hf (x, y) = .
−4y 3 − 4 0 −12y 2

Die Gleichung ∇f (x, y) = 0 ergibt x = 1, y = −1. Die Hessematrix


 
2 0
Hf (1, −1) =
0 −12

ist indefinit (ein positiver und ein negativer Eigenwert) und somit ist die
Stelle (1, −1) weder ein lokales Minimum noch ein lokales Maximum.
Man spricht von einem Sattelpunkt.
(c) Für jede der Funktionen

f1 (x, y) = x2 + y 4 , f2 (x, y) = x2 und f3 (x, y) = x2 + y 3

gilt:
   
0 2 0
∇fi (0, 0) = und Hfi (0, 0) = , i = 1, 2, 3.
0 0 0

Die Eigenwerte der Hessematrix sind λ1 = 0, λ2 = 2. Die Matrix ist also


positiv semidefinit. Nach den obigen Kriterien können wir für alle drei
Funktionen ausschließen, dass der Punkt (0, 0) ein lokales Maximum ist.
Man kann direkt zeigen, dass
∗ für f1 die Stelle (0, 0) ein (striktes) globales Minimum ist,
∗ für f2 die Stelle (0, 0) ein lokales Minimum aber kein striktes lokales
Minimum ist,
∗ für f3 die Stelle (0, 0) kein lokales Minimum ist.

→ In vielen Situationen ist es nicht möglich, lokale Maxima und Minima explizit
zu berechnen. Dies kann z. B. daran liegen, dass das nichtlineare Gleichungs-
system ∇f (x) = 0 mit n Unbekannten und n (nichtlinearen) Gleichungen
oft keine explizite Lösungsdarstellung erlaubt.

→ Man kann das Gleichungsystem ∇f (x) = 0 mit einer mehrdimensionalen


Variante des Newton-Verfahrens näherungsweise lösen.

→ Eine mögliche Motivation des Newton-Verfahrens erhält man, wenn man das
Skalarfeld f (x + d) mit dem quadratischen Taylorpolynom approximiert.

53
→ Sei f : Ω ⊂ Rn → R ein Skalarfeld mit f ∈ C 2 (Ω). Sei x0 ∈ Ω der Start-
wert für die approximative Minimierung von f . Wir approximieren f in der
Umgebung von x0 durch
1
f (x0 + d) ≈ f (x0 ) + ∇f (x0 )T d + dT Hf (x0 )d =: g(d)
2
Es gilt:

∇g(d) = ∇f (x0 ) + Hf (x0 )d und Hg (d) = Hf (x0 ).

Ist die Matrix Hf (x0 ) invertierbar, so ist die einzige Lösung der Gleichung
∇g(d) = 0
d = −Hf (x0 )−1 ∇f (x0 ).
Ist Hf (x0 ) positiv definit, so hat man ein lokales Minimum von g gefunden
und man setzt x1 = x0 + d. Wiederholt man dieses Vorgehen, so erzeugt man
eine Folge {xn }, die unter bestimmten Voraussetzungen gegen ein lokales
Minimum von f konvergiert.

Lineare Ausgleichsrechnung
→ Beispiel: Wir betrachten eine Funktion

b = f (t) = x0 + x1 t

mit unbekannten Koeffizienten x0 und x1 . Es seien m Paare (ti , bi ) z. B. aus


Messungen gegeben. Man sucht also die Koeffizienten x0 und x1 , die die m
Gleichungen
x0 + x1 t1 = b1
x0 + x1 t2 = b2
..
.
x0 + x1 tm = bm
erfüllen. Im Allgemeinen hat dieses Gleichungssystem mit m Gleichungen
und 2 Unbekannten keine Lösung, was z. B. an Messfehlern liegt.

→ Man sucht dann den Koeffizientenvektor x = (x0 , x1 )T ∈ R2 für den die sog.
Residuen ri (x) = bi −x0 −x1 ti möglichst klein sind. Man formuliert dies über
den Ansatz der kleinsten Quadrate:
m
X
Minimiere (bi − x0 − x1 ti )2 .
i=1

54
Fasst man die Residuen ri (x) zu einem Vektor r(x) ∈ Rm zusammen, so
muss man folgendes Problem lösen:

Minimiere kr(x)k2 , r(x) = b − Ax,

wobei A ∈ Rm×2 die Struktur


 
1 t1
1 t2 
A =  .. .. 
 
. . 
1 tm

besitzt.

→ In vielen Situationen erhält man lineare Gleichungssysteme vom Typ Ax = b,


mit A ∈ Rm×n und m > n, die keine Lösung besitzen. Dann sucht man ein
x, welches die Aufgabe

Minimiere kr(x)k2 , r(x) = b − Ax

löst.

→ Es gilt für g(x) = kr(x)k2 :

g(x) = kb − Axk2 = (b − Ax)T (b − Ax)


= bT b − xT AT b − bT Ax + xT AT Ax
= bT b − 2(AT b)T x + xT AT Ax.

Man erhält:
∇g(x) = −2AT b + 2AT Ax.
Dabei haben wir ausgenutzt, dass die Matrix AT A symmetrisch ist.

→ Ist x̂ ein Minimum von g(x), so muss x̂ die sog. Normalgleichung

AT Ax̂ = AT b

lösen.

Satz 3.4 Sei A ∈ Rm×n , m ≥ n gegeben. Es gelte außerdem Rang(A) = n (d. h.


die Spalten von A sollen linear unabhängig sein). Dann ist die Matrix AT A ∈ Rn×n
positiv definit.

55
Beweis:
Sei x ∈ Rn , x 6= 0 beliebig. Dann folgt aus Rang(A) = n, dass Ax 6= 0. Man erhält:

xT AT Ax = (Ax)T Ax = kAxk2 > 0,

was die Behauptung impliziert.


#

→ Im Falle Rang(A) = n ist also die Normalgleichung eindeutig lösbar und die
Lösung x̂ ist ein lokales Minimum von g. Man kann zeigen, dass x̂ auch das
globale Minimum von g ist.
→ Beispiel: Man finde die Gleichung einer Geraden g(t) = x0 +x1 t, die im Sinne
der kleinsten-Quadrate-Lösung den folgenden Zusammenhang möglichst gut
approximiert:

ti -2 -1 0 1 2
bi 0,5 0,8 2 3,2 3,5

Man erhält:
   
1 −2 0,5
1 −1   0,8  
  T 5 0   T 10
A= 1 0  , A A= , 2
b= und A b = .
 
1 1  0 10 3,2 8,4
1 2 3,5
Es ergibt sich x0 = 2 und x1 = 0.84 und die gesuchte Ausgleichsgerade ist

g(t) = 2 + 0,84t.

3.2 Extremwertaufgaben unter Nebenbedingungen


→ Wir betrachten Optimierungsaufgaben unter Nebenbedingung vom Typ

Minimiere f (x)

unter der Nebenbedingung, dass g(x) = 0. Dabei sind f, g : Ω ⊂ Rn → R


gegebene Skalarfelder.
Def. Die Menge
Ωad = { x ∈ Ω | g(x) = 0 }
wird zulässige Menge genannt.

56
→ Die Optimierungsaufgabe wird dann wie folgt formuliert:
Minimiere f (x), x ∈ Ωad .

Def. Ein Punkt x̂ ∈ Ωad heißt lokale Lösung dieser Optimierungsaufgabe, wenn
es eine Umgebung Bε (x̂) gibt, so dass
f (x̂) ≤ f (x) für alle x ∈ Bε (x̂) ∩ Ωad
gilt.
→ Entsprechend kann man auch Maximierungsaufgaben mit Nebenbedingun-
gen betrachten.
→ Ist x̂ eine lokale Lösung dieser Optimierungsaufgabe, so ist die Bedingung
∇f (x̂) = 0 im Allgemeinen nicht erfüllt!
→ Beispiel: Wir betrachten die Aufgabe:
Minimiere f (x) = x21 + x22
unter der Nebenbedingung g(x) = x2 −x21 +3 = 0. Diese Aufgabe kann durch
explizites Auflösen der Nebenbedingung gelöst werden. Es gilt:
x2 = x21 − 3 für alle x ∈ Ωad .
Wir setzen das in f ein und erhalten:
fˆ(x1 ) = f (x1 , x21 − 3) = x21 + (x21 − 3)2 .
Es gilt:
fˆ0 (x1 ) = 2x1 + 4(x21 − 3)x1 = 4x31 − 10x1
und
fˆ00 (x1 ) = 12x21 − 10.
Aus der Gleichung fˆ0 (x1 ) = 0 erhalten wir:
√ √
(1) (2) 10 (3) 10
x1 = 0, x1 = − , x1 = .
2 2
Wegen
√ ! √ !
10 10
fˆ00 (0) = −10 < 0, fˆ00 − = fˆ00 = 20 > 0
2 2
finden wir zwei lokale Minima
√ ! √ !
10 1 10 1
P1 − ,− und P2 ,− .
2 2 2 2

57
→ In vielen Situationen kann man die Nebenbedingung g(x) = 0 nicht explizit
nach einer Variable auflösen.

→ Ein allgemeines Schema zu Lösung von Optimierungsaufgaben mit Neben-


bedingungen ist der Ansatz über Lagrange-Multiplikatoren.

Satz 3.5 (Notwendige Optimalitätsbedingung erster Ordnung) Seien f, g : Ω ⊂


Rn → R zwei Fréchet-differenzierbare Skalarfelder und x̂ ∈ int(Ω) sei ein lokales
Minimum der Optimierungsaufgabe

Minimiere f (x) unter der Nebenbedingung g(x) = 0.

Gilt zusätzlich ∇g(x̂) 6= 0, dann gibt es einen Lagrange-Multiplikator λ̂ ∈ R mit

∇f (x̂) + λ̂∇g(x̂) = 0.

Beweis:
Wir führen den Beweis der Einfachheit halber für n = 2. Wir betrachten also
Skalarfelder f (x, y) und g(x, y). Sei (x̂, ŷ) ein lokales Minimum mit ∇g(x̂, ŷ) 6= 0.
D. h. mindestens eine der partiellen Ableitungen ∂x g(x̂, ŷ) oder ∂y g(x̂, ŷ) ist von
Null verschieden. Wir nehmen an, dass z. B.

∂y g(x̂, ŷ) 6= 0

gilt. Dann gibt es nach dem Satz über implizite Funktionen eine Umgebung U von
x̂, eine Umgebung V von ŷ und eine Funktion h : U → V mit

g(x, h(x)) = 0 für alle x ∈ U

mit der Ableitung gegeben durch


∂x g(x, h(x))
h0 (x) = − .
∂y g(x, h(x))

Wir betrachten dann die Funktion fˆ: U → R mit

fˆ(x) = f (x, h(x))

und x̂ muss ein lokales Minimum von fˆ sein. Es folgt

fˆ0 (x̂) = 0.

Für die Ableitung fˆ0 (x) gilt


∂x g(x, h(x))
fˆ0 (x) = ∂x f (x, h(x))+∂y f (x, h(x))h0 (x) = ∂x f (x, h(x))−∂y f (x, h(x)) .
∂y g(x, h(x)

58
Wir setzen
∂y f (x̂, ŷ)
λ̂ = −
∂y g(x̂, ŷ)
und erhalten
∂x f (x̂, ŷ) + λ̂∂x g(x̂, ŷ) = 0
sowie nach der Definition von λ̂

∂y f (x̂, ŷ) + λ̂∂y g(x̂, ŷ) = 0.

Daraus folgt
∇f (x̂, ŷ) + λ̂∇g(x̂, ŷ) = 0.

→ Dieser Satz liefert eine notwendige Bedingung für eine Extremalstelle eines
Optimierungsproblem mit Nebenbedingungen.

→ Diese Bedingung kann mit Hilfe der sog. Lagrange-Funktion formuliert wer-
den. Wir betrachten L : Ω × R → R mit

L(x, λ) = f (x) + λg(x).

Ist x̂ ∈ int(Ω) ein lokales Minimum (oder Maximum) und gilt ∇g(x̂) 6= 0,
dann gibt es λ̂ ∈ R, so dass das Paar (x̂, λ̂) ein stationärer Punkt von L ist,
d.h.
∇L(x̂, λ̂) = 0.
Wir bezeichnen mit ∇x L(x, λ) ∈ Rn den Vektor mit den partiellen Ableitun-
gen nach xi , i = 1, 2 . . . , n. Man hat
   
∇x L(x, λ) ∇f (x) + λ∇g(x)
∇L(x, λ) = = .
∂λ L(x, λ) g(x)

Die Bedingung ∇L(x̂, λ̂) = 0 ist somit äquivalent zu dem System


(
∇f (x̂) + λ̂∇g(x̂) = 0
g(x̂) = 0.

→ Beispiel: Wir betrachten folgende Optimierungsaufgabe:

Maximiere f (x, y) = x3 y 3 unter der Nebenbedingung g(x, y) = x2 +2y 2 −1 = 0.

59
Zuerst untersuchen wir, wann die Bedingung ∇g(x, y) 6= 0 erfült ist. Es gilt
 
2x
∇g(x, y) = .
4y

Somit is ∇g(x, y) = 0 genau dann, wenn x = y = 0. Dieser Punlt ist aber kein
zulässiger Punlt, denn g(0, 0) = −1 6= 0. Somit ist die Bedingung ∇g(x, y) 6=
0 für alle potenziellen Kandidaten für Extremalstellen erfüllt.
Wir betrachten die Lagrange-Funktion

L(x, y, λ) = x3 y 3 + λ(x2 + 2y 2 − 1).

Es gilt  
3x2 y 3 + 2λx
∇L(x, y, λ) =  3x3 y 2 + 4λy 
x2 + 2y 2 − 1
und wir erhalten das Gleichungssystem
 2 3
 3x y + 2λx = 0,

3x3 y 2 + 4λy = 0,
 2
x + 2y 2 − 1 = 0.

Wir multiplizieren die erste Gleichung mit x, die zweite mit y und betrachten
die Differenz dieser Gleichungen:

2λ(x2 − 2y 2 ) = 0.

Daraus folgt λ = 0 oder x = ± 2y. Im Falle λ = 0 muss entweder x oder y
gleich Null sein und wir erhalten die stationären Punkte
 
1
P1/2 0, ± √ , P3/4 (±1, 0) .
2

Im Falle λ 6= 0 gilt x = ± 2y und somit

4y 2 − 1 = 0.

Wir erhalten weitere 4 stationäre Punkte


√ ! √ !
2 1 2 1
P5/6 ± , und P7/8 ± ,− .
2 2 2 2

Es gilt
f (Pi ) = 0 für i = 1, 2, 3, 4

60
und
√ √
2 2
f (Pi ) = für i = 5, 8 und f (Pi ) = − für i = 6, 7.
32 32

2
Somit ist der maximale Wert 32
, der in den Punkten P5 und P8 angenommen
wird.
→ Wie bei Extremwertaufgaben ohne Nebenbedingung, gibt es hinreichende
Optimalitätsbedingungen, die auf zweiten Ableitungen der Lagrange-Funktion
basieren. Auf diese hinreichende Optimalitätsbedingungen zweiter Ordnung
wird hier nicht eingegangen.
→ In vielen Situationen hat man mehr als eine Nebenbedingung.
→ Im Allgemeinen können m Nebenbedingungen mit Hilfe eines Vektorfeldes
formuliert werden.
→ Sei f : Ω ⊂ Rn → R ein Skalarfeld und g : Ω → Rm , m < n, ein Vektorfeld.
Wir betrachten folgende Optimierungsaufgabe:
Minimiere f (x) unter der Nebenbedingung g(x) = 0.
Die Nebenbedingung g(x) = 0 besteht aus m Bedingungen:
g1 (x) = 0, g2 (x) = 0, . . . , gm (x) = 0.

→ Die notwendigen Optimalitätsbedingungen können analog zum Fall einer


Nebenbedingung formuliert werden. Dafür betrachtet man die Lagrange-
Funktion L : Ω × Rm → R für x ∈ Ω und λ ∈ Rm mit
L(x, λ) = f (x) + λT g(x) = f (x) + λ1 g1 (x) + λ2 g2 (x) + · · · + λm gm (x)

→ Ist x̂ ∈ int(Ω) ein lokales Minimum (oder Maximum) und gilt Rang(Jg (x̂)) =
m, dann gibt es λ̂ ∈ Rm , so dass das Paar (x̂, λ̂) ein stationärer Punkt von
L ist, d.h.
∇L(x̂, λ̂) = 0.
Diese Bedingung ist dann äquivalent zu einem System aus n + m (i. A.
nichtlinearen) Gleichungen mit n + m Unbekannten

∇x L(x̂, λ̂) = 0



 
 ∇f (x̂) + λ̂1 ∇g1 (x̂) + · · · + λ̂m ∇gm (x̂) = 0
 
 ∂λ1 L(x̂, λ̂) = 0
 
 g1 (x̂) = 0
.. ⇔ .. .


 . 

 .
 
gm (x̂) = 0
 
∂λm L(x̂, λ̂) = 0

61
→ Beispiel: Man finde die Extrema der Funktion f : R3 → R, f (x, y, z) = x2
unter den Nebenbedingungen

g1 (x, y, z) = x2 + y 2 + z 2 − 1 = 0 und g2 (x, y, z) = x − z = 0.

Die zulässige Menge



Ωad = (x, y, z)T ∈ R3 g1 (x, z, y) = g2 (x, y, z) = 0


is beschränkt und abgeschlossen und somit kompakt. Die Funktion f is stetig


und nimmt somit auf Ωad ihr Minimum und Maximum an. Wir untersuchen
zuerst die Bedingung an den Rang der Jacobi-Matrix Jg (x, y). Es gilt
 
2x 2y 2z
Jg (x, y, z) = .
1 0 −1
Diese Matrix hätte den Rang gleich 1 für x = −z und y = 0. Aus Nebenbe-
dingung x = z würde dann folgen x = y = z = 0, was im Widerspruch zu
der Nebenbedingung g1 (x, y, z) = 0 steht. Somit hat die Matrix Jg (x, y) für
alle Punkte in Ωad den Rang gleich zwei. Somit ist diese Bedingung für alle
potenziellen Kandidaten für Extrema erfüllt.
Man betrachtet nun die Lagrange-Funktion mit dem Lagrange-Multiplikator
λ = (λ1 , λ2 )T :

L(x, y, z, λ1 , λ2 ) = x2 + λ1 (x2 + y 2 + z 2 − 1) + λ2 (x − z).

Die Bedingung ∇L(x, y, z, λ1 , λ2 ) = 0 ist äquivalent zum folgenden Glei-


chungssystem 

 2x + 2λ1 x + λ2 = 0

2λ1 y = 0




2λ1 z − λ2 = 0
x + y + z2 − 1 = 0
2 2






 x−z =0
Wir betrachten zwei Fälle:
– Fall 1: Ist λ1 = 0, so folgt λ2 = 0, x = 0, z = 0 und y = ±1.
– Fall 2: Ist λ1 6= 0, so folgt y = 0, x = z und 2x2 = 1 und somit
x = z = ± √12 .
Wir haben also folgende 4 Kandidaten für Extremalstellen:
 
1 1
P1/2 (0, ±1, 0) und P3/4 ± √ , 0, ± √ .
2 2

62
Es gilt f (P1 ) = f (P2 ) = 0 und f (P3 ) = f (P4 ) = 12 . Die Punkte P1 und P2 sind
Minima und P3 und P4 Maxima von f unter Nebenbedingung g1 (x, z, y) =
g2 (x, y, z) = 0.

63
4 Kurvenintegrale
4.1 Kurvenintegral eines Skalarfeldes
→ In vielen Situationen (z.B. bei der Berechnung von Längen, Massen, Ladun-
gen, usw.) betrachtet man Kurvenintegrale eines Skalarfeldes.

Def. Sei D ⊂ Rn offen, w : I = [a, b] → D eine differenzierbare Kurve und f : D →


R ein stetiges Skalarfeld. Dann heißt
Z Z b
f ds = f (w(t))kw0 (t)k dt
w a

das Kurvenintegral von f längs w. Dabei bezeichnet kw0 (t)k die euklidische
Norm der Ableitung, d.h.

n
! 21
X
kw0 (t)k = |wi0 (t)|2 .
i=1

→ Geometrisch korrespondiert diese Definition (für n = 2) zu der Fläche unter


dem Graphen von f eingeschränkt auf die Kurve w.

→ Die Länge der Kurve ist somit sinngemäß gleich dem Integral von f = 1
entlang der Kurve:
Z Z b
L(w) = ds = kw0 (t)k dt.
w a

→ Stellt ρ(x, y, z) die Massendichte (bzw. die Ladungsdichte) eines Seiles be-
schrieben durch die Kurve w dar, so ist die Gesamtmasse (bzw. die Gesamt-
ladung) gegeben als Z
M (w) = ρ ds.
w

→ Man kann sich fragen, ob das Kurvenintegral eines gegebenen Skalarfeldes


nur vom Bild der Kurve oder auch davon abhängt, wie sie “durchlaufen”

64
wird. Es gilt folgende Aussage:
Seien w : [a, b] → Rn und u : [c, d] → Rn zwei Kurven, die dieselbe Spur

{ w(t) | a ≤ t ≤ b } = { u(t) | c ≤ t ≤ d }

genau gleich oft durchlaufen, dann gilt:


Z Z
f ds = f ds.
w u

→ Ist eine Kurve stückweise differenzierbar, so werden die Kurvenintegrale über


differenzierbaren Kurvenstücke einzeln ausgerechnet und anschließend auf-
addiert.

→ Es gilt folgende Rechenregel (Linearität des Kurvenintegrals):


Z Z Z
(αf + βg) ds = α f ds + β g ds
w w w

für α, β ∈ R.

→ Beispiel: Wir betrachten das Skalarfeld f : R2 → R mit f (x, y) = x und die


Kurve w : [0, 1] → R2 mit  
t
w(t) = 2 .
t
Es gilt:

 
0 1
w (t) = und kw0 (t)k = 1 + 4t2 .
2t
Daraus folgt:
Z Z 1 √ 1  3 1 1 3
f ds = t 1 + 4t2 dt = 1 + 4t2 2 = (5 2 − 1).
w 0 12 0 12

4.2 Kurvenintegral eines Vektorfeldes


Def. Sei D ⊂ Rn offen, w : I = [a, b] → D eine differenzierbare Kurve und f : D →
Rn ein stetiges Vektorfeld. Dann heißt
Z Z b Z b
0
f · dx = f (w(t)) · w (t) dt = f (w(t))T w0 (t) dt
w a a

das Kurvenintegral von f längs w.

65
→ In der Vorlesung “Analysis 1 (EI)” haben wir den Tangenteneinheitsvektor
einer differenzierbaren Kurve T (t) als
1
T (t) = w0 (t)
kw0 (t)k

definiert. Es gilt für das Kurvenintegral von f :


Z Z b Z b Z
0 0
f · dx = f (w(t)) · w (t) dt = (f (w(t)) · T (t)) kw (t)k dt = (f · T ) ds.
w a a w

Somit ist das Kurvenintegral eines Vektorfeldes f entlang der Kurve w gleich
dem Kurvenintegrals der Tangentialkomponente f · T von f entlang von w.

→ Wie für das Kurvenintegral eines Skalarfelds gilt


Z Z Z
(αf + βg) · dx = α f · dx + β g · dx
w w w

für α, β ∈ R.

→ Beispiel: Man bestimme das Kurvenintegral des Vektorfeldes f : R3 → R3


mit  
xy
f (x, y, z) = x − z 
xz
entlang der Kurve, die den Graph der Funktion y = x3 (0 ≤ x ≤ 2) in der
Ebene z = 3 beschreibt.
Diesen Graphen kann man mit der Kurve w : [0, 2] → R3 wie folgt parame-
trisieren:  
t
w(t) = t3  .

3
Es gilt:    
t4 1
f (w(t)) = t − 3 und w0 (t) = 3t2 
3t 0
und somit erhalten wir
Z Z 2 Z 2
0 28
t4 ·1+(t−3)3t2 +3t·0 dt = − .

f ·d(x, y, z) = f (w(t))·w (t) dt =
w 0 0 5

66
→ Ist die Kurve w : I = [a, b] → Rn geschlossen, d.h. w(a) = w(b), so verwendet
man die folgende Bezeichnung:
I
f · dx.
w

→ Beispiel: Wir betrachten die Kurve w : [0, 2π] → R2 mit


 
cos t
w(t) = ,
sin t
die die Kreislinie des Einheitskreises beschreibt. Dies ist eine geschlossene
Kurve. Für die Vektorfelder f, g : R2 → R2 mit
   
−x2 3x1
f (x) = und g(x) =
x1 0
gilt: I Z 2π 
f · dx = − sin t(− sin t) + cos t cos t dt = 2π
w 0
und I Z 2π
g · dx = 3 cos t(− sin t) dt = 0.
w 0

4.3 Gradientenfelder
Def. Eine Menge D ⊂ Rn heißt wegzusammenhängend, falls es zu je zwei Punkten
x, y aus D eine Kurve w : [a, b] → D mit w(a) = x und w(b) = y gibt.
Def. Eine wegzusammenhängende Menge D ⊂ Rn heißt einfach zusammenhängend,
wenn jede geschlossene doppelpunktfreie Kurve in D stetig auf ein Punkt in
D zusammengezogen werden kann, ohne dass D verlassen wird.
→ Beispiele:
(a) Eine Kreisscheibe D = Br (x0 ) ⊂ R2 ist sowohl wegzusammenhängend
als auch einfach zusammenhängend.
(b) Ein Kreisring D = Br (x0 ) \ Br/2 (x0 ) ⊂ R2 ist wegzusammenhängend
aber nicht einfach zusammenhängend.
Def. Sei D ⊂ Rn eine offene und wegzusammenhängende Menge. Ein stetiges
Vektorfeld f : D → Rn heißt konservativ, Potentialfeld oder Gradientenfeld,
wenn es ein Skalarfeld F : D → R gibt mit
f (x) = ∇F (x) für alle x ∈ D.

67
In diesem Fall heißt F Stammfunktion und U = −F eine Potentialfunktion
(oder ein Potential ) von f .

→ Im Gegensatz zu stetigen skalaren Funktionen, gibt es natürlich Vektorfel-


der, die keine Stammfunktion besitzen, und somit nicht konservativ sind.
Das Vektorfeld f : R2 → R2 aus obigem Beispiel besitzt keine Stammfunk-
tion. Dies kann man direkt nachweisen: Angenommen, F : R2 → R wäre die
Stammfunktion, d.h.
 
−x2
∇F (x) = f (x) = .
x1

Daraus folgt:

∂x1 F (x) = −x2 ⇒ F (x) = −x1 x2 + s(x2 )

und
∂x2 F (x) = x1 ⇒ F (x) = x1 x2 + h(x1 )
mit differenzierbaren Funktionen s, h : R → R. Dies ergibt

−x1 x2 + s(x2 ) = x1 x2 + h(x1 )

und somit
s(x2 ) − h(x1 ) = 2x1 x2 ,
was ein Widerspruch ist. Setzt man nämlich x1 = 0 ein, so stellt man fest
s(x2 ) = h(0), somit wäre 2x1 x2 = s(x2 )−h(x1 ) = h(0)−h(x1 ) x2 unabhängig,
was den Widerspruch darstellt.

→ Im folgenden werden wir ein systematisches Kriterium finden, wie man über-
prüfen kann, ob ein Vektorfeld konservativ ist.

→ Ist ein Vektorfeld konservativ und kennt man die Stammfunktion, so kann
man direkt das entsprechende Kurvenintegral bestimmen.
Aus f (x) = ∇F (x) folgt für die zusammengesetzte Funktion g : [a, b] → R,
g(t) = F (w(t)):

g 0 (t) = ∇F (w(t)) · w0 (t) = f (w(t)) · w0 (t).

Daraus folgt
Z Z b Z b
0
f ·dx = f (w(t))·w (t) dt = g 0 (t) dt = g(b)−g(a) = F (w(b))−F (w(a)).
w a a

68
→ Somit hängt das Kurvenintegral eines Gradientenfeldes nur von den End-
punkten der Kurve ab und nicht von ihrem gesamten Verlauf. Man sagt, das
Integral ist wegunabhängig.
→ Das Kurvenintegral eines Gradientenfeldes über eine geschlossene Kurve ist
somit gleich Null.
Satz 4.1 Sei D ⊂ Rn eine wegzusammenhängende offene Menge und f : D → Rn
sei ein stetiges Vektorfeld. Dann sind folgende Aussagen äquivalent
(a) f ist ein Gradientenfeld.
(b) Für alle stetig differenzierbaren Kurven w in D hängt das Kurvenintegral
Z
f · dx
w

nur vom Anfangs- und Endpunkt von w ab.


(c) Für alle geschlossenen stetig differenzierbaren Kurven w in D gilt
I
f · dx = 0.
w

→ Wie überprüft man, ob ein gegebenes Vektorfeld ein Gradientenfeld ist?


→ Sei f : D ⊂ Rn stetig differenzierbar und sei f ein Gradientenfeld. Dann gilt:
f (x) = ∇F (x) für alle x ∈ D
und somit
Jf (x) = HF (x) für alle x ∈ D
mit der Hessematrix HF des Skalarfeldes F . Da f stetig differenzierbar ist,
folgt dass F zwei mal stetig differenzierbar ist und somit ist die Hessematrix
symmetrisch. Daraus folgt, dass für ein stetig differenzierbares Gradienten-
feld notwendingerweise folgende Bedingung erfüllt sein muss:
Jf (x) = Jf (x)T für alle x ∈ D.

Satz 4.2 Sei D ⊂ Rn eine offene, einfach zusammenhängende Menge und sei
f : D → Rn ein stetig differenzierbares Vektorfeld. Dieses Vektorfeld ist genau
dann ein Gradientenfeld, wenn die sog. Integrabilitätsbedingung
Jf (x) = Jf (x)T für alle x ∈ D (Symmetrie der Jacobi-Matrix)
bzw.
∂xi fj (x) = ∂xj fi (x) für alle x ∈ D und alle 1 ≤ i, j ≤ n
erfüllt ist.

69
→ Beispiel: Wir betrachten das Vektorfeld f : R2 \ {0} → R2
 
1 −x2
f (x) = 2 .
x1 + x22 x1
Es gilt:  
1 2x1 x2 x22 − x21
Jf (x) = 2
(x1 + x22 )2 x22 − x21 −2x1 x2
und somit Jf (x) = Jf (x)T . Man rechnet aber leicht nach, dass
I
f · dx = 2π
w

für die Einheitskreislinie w : [0, 2π] → R2 mit


 
cos t
w(t) =
sin t

gilt. Dies liegt daran, dass die Menge R2 \ {0}, auf der das Vektorfeld de-
finiert ist, keine einfach zusammenhängende Menge ist und der obige Satz
nicht anwendbar ist.

Betrachtet man hingegen die Kurve k : [0, 2π] → R2 mit


 
3 + cos t
k(t) = ,
4 + sin t
so liegt das Bild dieser Kurve in einer einfach zusammenhängende Teilmenge
des Definitionsbereich von f . Mann kann z.B. D = B2 (x0 ) mit x0 = (3, 4)T
wählen. Nach dem Satz folgt dann sofort
I
f · dx = 0.
k

→ Für dreidimensionale Gebiete (n = 3) kann die Integrabilitätsbedingung mit


Hilfe der Rotation formuliert werden.
→ Sei D ⊂ R3 eine offene, einfach zusammenhängende Menge und f : D → R3
ein stetig differenzierbares Vektorfeld, dann gilt:

f ist ein Gradientenfeld ⇔ rot f (x) = 0 für alle x ∈ D.

→ Wie bestimmt man eine Stammfunktion bzw. ein Potential eines gegebenen
Vektorfeldes?

70
→ Ist die Integrabilitätsbedingung erfüllt und ist D einfach zusammenhängend,
so kann man die Stammfunktion allgemein wie folgt angeben: Man wählt
einen festen Punkt x0 ∈ D und zu jedem weiteren Punkt y ∈ D wählt man
eine Kurve wy : [a, b] → D mit wy (a) = x0 und wy (b) = y. Dann ist eine
Stammfunktion gegeben als
Z
F (y) = f · dx.
wy

→ Beispiel: Wir betrachten das Vektorfeld f : R2 → R2 mit


 
x2 + 1
f (x) = .
x1 + 4x2
Es gilt  
0 1
Jf (x) = .
1 4
Diese Matrix ist symmetrisch und somit ist f ein Gradientenfeld. Wir wählen
x0 = (0, 0)T und betrachten für ein gegebenes y ∈ R2 die Kurve wy , die die
Verbindungsstrecke zwischen x0 und y beschreibt:
 
2 ty1
wy : [0, 1] → R , w(t) = .
ty2
Somit gilt:
Z Z 1
F (y) = f · dx = f (w(t)) · w0 (t) dt
wy 0
Z1
(ty2 + 1)y1 + (ty1 + 4ty2 )y2 dt = y1 y2 + y1 + 2y22 .

=
0

→ Eine andere Möglichkeit, eine Stammfunktion zu bestimmen, ist die sukzes-


sive Integration. Wir illustrieren diesen Ansatz an einem Beispiel.
→ Beispiel: Wir betrachten das Vektorfeld f : R3 → R3 mit
 x 
e 1 x2 + 1
f (x) =  ex1 + x3  .
x2
Es gilt:
   
∂2 f3 (x) − ∂3 f2 (x) 1−1
rot f (x) = ∂3 f1 (x) − ∂1 f3 (x) =  0 − 0  = 0.
∂1 f2 (x) − ∂2 f1 (x) ex1 − ex1

71
Somit ist f ein Gradientenfeld. Um eine Stammfunktion F : R3 → R mit
f = ∇F zu finden gehen wir wie folgt vor. Es gilt

∂1 F (x) = ex1 x2 + 1.

Daraus folgt
Z
F (x) = (ex1 x2 + 1) dx1 + G(x2 , x3 ) = ex1 x2 + x1 + G(x2 , x3 )

mit einer (noch zu bestimmenden) Funktion G(x2 , x3 ). Es folgt

∂2 F (x) = ex1 + ∂2 G(x2 , x3 )

und andererseits
∂2 F (x) = ex1 + x3 .
Daraus folgt
∂2 G(x2 , x3 ) = x3
und somit
G(x2 , x3 ) = x2 x3 + H(x3 ).
Man erhält
F (x) = ex1 x2 + x1 + x2 x3 + H(x3 ).
Man leitet nach x3 ab und bekommt

∂3 F (x) = x2 + H 0 (x3 ) und ∂3 F (x) = x2 .

Daraus folgt H 0 (x3 ) = 0 und somit H(x3 ) = c. Insgesamt folgt

F (x) = ex1 x2 + x1 + x2 x3 + c.

72
5 Mehrdimensionale
Integralrechnung
5.1 Parameterabhängige Integrale
→ In diesem Abschnitt betrachten wir Funktionen, die über Integrale definiert
sind. Sei f : R2 → R ein Skalarfeld und seien c, d ∈ R. Wir betrachten die
Funktion F (x) gegeben als
Z d
F (x) = f (x, y) dy.
c

Man kann sich fragen, welche Eigenschaften von f sich auf F übertragen
lassen. Eine typische Frage ist, ob man aus der Stetigkeit von f bzgl. x die
Stetigkeit von F folgern kann. Die Stetigkeit von F an der Stelle x = 0 würde
z. B. bedeuten, dass
Z d Z d
f (0, y) dy = F (0) = lim F (x) = lim f (x, y) dy.
c x→0 x→0 c

→ Ist f bzgl. x an der Stelle x = 0 für alle y stetig, so gilt

f (0, y) = lim f (x, y).


x→0

Dann ist Stetigkeit von F an der Stelle x = 0 äquivalent zu


Z d Z d
lim f (x, y) dy = lim f (x, y) dy.
c x→0 x→0 c

→ Das heißt, es geht darum, ob das Integral mit dem Grenzwert vertauscht wer-
den kann. Da das Integral auch durch einen Grenzprozess definiert ist, ist das
ein Beispiel für die Frage, ob zwei Grenzprozesse vertauscht werden können.
Eine ähnliche Frage entsteht, wenn man die Ableitung von F bestimmen
möchte.
→ Die Vertauschbarkeit zweier Grenzprozesse ist immer nur unter gewissen Vor-
aussetzungen möglich!

73
Satz 5.1 Seien I = [a, b] und J = [c, d] zwei Intervalle und sei f : I × J → R
stetig auf I × J. Dann ist die Funktion F : I → R definiert durch
Z d
F (x) = f (x, y) dy
c

stetig auf I.
→ In diesem Satz wird also nicht nur die Stetigkeit bzgl. x sondern die Stetigkeit
von f als Skalarfeld gefordert. Diese Voraussetzung kann etwas abgeschwächt
aber nicht eliminiert werden.
→ Beispiel 1: Wir betrachten die Funktion
Z π
F (x) = x sin y dy.
0

Das Skalarfeld f (x, y) = x sin y ist stetig. Daraus folgt die Stetigkeit von F .
Dies können wir auch direkt überprüfen. Es gilt
Z π Z π
F (x) = x sin y dy = x sin y dy = 2x.
0 0

→ Beispiel 2: Wir betrachten das Skalarfeld f : [0, 1] × [0, 1] → R gegeben


durch 
y
 x2 ,
 falls 0 ≤ y < x
2x−y
f (x, y) = x2
, falls x ≤ y < 2x

0, falls 2x ≤ y

und die Funktion Z 1


F (x) = f (x, y) dy.
0
Man kann leicht überprüfen, dass die Funktion f bzgl. x für jeden festen
Wert von y ∈ [0, 1] stetig ist. Das Skalarfeld ist aber unstetig um Ursprung
(Übungsaufgabe). D. h. die Voraussetzung des obigen Satzes ist nicht erfüllt.
Tatsächlich ist die Funktion F an der Stelle x = 0 unstetig. Es gilt:
Z 1
F (0) = f (0, y) dy = 0.
0

Andererseits gilt für 0 < x ≤ 21 :


Z 1 Z x Z 2x
y 2x − y 1 1
F (x) = f (x, y) dy = 2
dy + 2
dy = + = 1.
0 0 x x x 2 2
Somit ist F an der Stelle x = 0 unstetig.

74
→ Eine weitere natürliche Frage ist die Frage nach der Differenzierbarkeit von
F . Hier geht es auch um Vertauschung zweier Grenzprozesse.
Satz 5.2 Seien I = [a, b] und J = [c, d] zwei Intervalle, sei f : I × J → R ein
stetiges Skalarfeld und sei die partielle Ableitung ∂x f ebenfalls stetig auf I × J.
Dann ist die Funktion F : I → R definiert durch
Z d
F (x) = f (x, y) dy
c

stetig differenzierbar auf I und es gilt:


Z d
0
F (x) = ∂x f (x, y) dy.
c

→ Diese beiden Sätze können auch auf uneigentliche Integrale verallgemeinert


werden. Dafür braucht man aber eine weitere Voraussetzung an den Inte-
granden, auf die wir hier nicht eingehen.
→ Mit Hilfe der Kettenregel kann die Ableitung eines Integrals ausgerechnet
werden, bei dem auch die Grenzen x-abhängig sind. Wir betrachten die Funk-
tion Z d(x)
F (x) = f (x, y) dy.
c(x)

Wir definieren ein Skalarfeld G : R3 → R durch


Z b
G(x, a, b) = f (x, y) dy.
a

Es gilt:
F (x) = G(x, c(x), d(x)).
Nach der Kettenregel erhalten wir für die Ableitung:
F 0 (x) = ∂x G(x, c(x), d(x)) + ∂a G(x, c(x), d(x))c0 (x) + ∂b G(x, c(x), d(x))d0 (x).
Nach dem obigen Satz gilt (falls ∂x f stetig ist)
Z b
∂x G(x, a, b) = ∂x f (x, y) dy.
a

Nach dem Hauptsatz der Differential- und Integralrechnung erhalten wir


∂a G(x, a, b) = −f (x, a) und ∂b G(x, a, b) = f (x, b)
Daraus ergibt sich die Formel von Leibniz
Z d(x)
0
F (x) = ∂x f (x, y) dy + f (x, d(x))d0 (x) − f (x, c(x))c0 (x).
c(x)

75
→ Beispiel: Wir betrachten die Funktion
Z 3−x
F (x) = sin(xy) dy.
x2

Es ergibt sich die folgende Darstellung für die Ableitung:


Z 3−x
0
F (x) = cos(xy)y dy + sin(x(3 − x)) · (−1) − sin(x3 ) · 2x.
x2

→ Übungsaufgabe: Sei g : R → R eine stetige Funktion und ω > 0 eine positive


reelle Zahl. Man zeige, dass die Funktion

1 t
Z
F (t) = g(s) sin(ω(t − s)) ds
ω 0
eine Lösung der inhomogenen Differentialgleichung

F 00 (t) + ω 2 F (t) = g(t)

mit den Anfangsbedingungen

F (0) = F 0 (0) = 0

darstellt. Diese Gleichung beschreibt den harmonischen Oszillator, der einer


äußeren Anregung ausgesetzt ist.

→ Der folgende Satz erlaubt die Reihenfolge zweier Integrale zu vertauschen.

Satz 5.3 (Satz von Fubini) Seien I = [a, b] und J = [c, d] zwei Intervalle und
sei f : I × J → R stetig auf I × J. Dann gilt:
Z b Z d  Z d Z b 
f (x, y) dy dx = f (x, y) dx dy.
a c c a

→ Beispiel: Wir betrachten das Skalarfeld f (x, y) = 2xey . Es gilt:


Z 1 Z 1  Z 1 y=1 ! Z 1
y

y
2xe dy dx = 2xe dx = (2x(e − 1)) dx = e − 1.
0 0 0 y=0 0

Anderseits erhält man


Z 1 Z 1  Z 1
x=1 ! Z 1
y

2 y
2xe dx dy = xe dy = ey dy = e − 1.
0 0 0 x=0 0

76
→ Bei dem obigen Beispiel hat der Integrand die Struktur f (x, y) = g(x)h(y).
In so einem Fall erhält man
Z b Z d  Z b  Z d 
g(x)h(y) dy dx = g(x) dx h(y) dy .
a c a c

→ Der Satz von Fubini kann direkt auf mehr als zwei Integrale angewendet
werden. Betrachtet man z. B. ein stetiges Skalarfeld g : R3 → R, so gilt unter
anderem:
Z b Z d Z f   Z f Z d Z b  
g(x, y, z) dz dy dx = g(x, y, z) dx dy dz.
a c e e c a

Insgesamt führen alle 6 Varianten der Reihenfolge auf das gleiche Ergebnis.

5.2 Bereichsintegrale
Rb
→ Bis jetzt haben wir eindimensionale Integrale a f (x) dx betrachtet. Dabei
war das Integrationsbereich stets ein Intervall I = [a, b]. In diesem Abschnitt
führen wir Integrale von Skalarfeldern über eine große Klasse von möglichen
mehrdimensionalen Integrationsbereichen ein.

Integration über Rechtecke und Quader


→ Wir betrachten ein achsenparalleles Rechteck Q = [a, b] × [c, d] ⊂ R2 und
ein beschränktes Skalarfeld f : Q → R. Das Integral (Doppelintegral) von f
über Q ZZ
V = f (x, y) d(x, y)
Q

soll so definiert werden, dass der Wert V dem Volumen unter dem Graphen
von f entspricht.

→ Wie im Eindimensionalen kann man das (Riemann-)Integral von f über das


Rechteck Q mit Hilfe von Unter- und Obersummen definieren. Dafür be-
trachtet man eine Zerlegung Z1 von [a, b] und eine Zerlegung Z2 von [c, d]:

Z1 = { x0 , x1 , . . . , xn } , mit a = x0 < x1 < · · · < xn = b

und

Z2 = { y0 , y1 , . . . , ym } , mit c = y0 < y1 < · · · < ym = d.

77
→ Ein Skalarfeld g : Q → R heißt eine Treppenfunktion bzgl. den Zerlegungen
(Z1 , Z2 ), falls

g(x, y) = cij , für alle x ∈ (xi−1 , xi ) und y ∈ (yj−1 , yj )

gilt.

Def. Für eine Treppenfunktion g bzgl. den Zerlegungen (Z1 , Z2 ) ist das Integral
definiert als
ZZ n X
X m
g(x, y) d(x, y) = cij (xi − xi−1 )(yj − yj−1 ).
Q i=1 j=1

Def. Für ein beschränktes Skalarfeld f : Q → R definiert man eine Unter- und
eine Obersumme bzgl. den Zerlegungen (Z1 , Z2 ) durch
n X
X m
UZ1 ,Z2 (f ) = mij (xi − xi−1 )(yi − yi−1 )
i=1 j=1

und n X
m
X
OZ1 ,Z2 (f ) = Mij (xi − xi−1 )(yj − yj−1 )
i=1 j=1

mit

mij = inf f (x, y) und Mij = sup f (x, y).


x∈(xi−1 ,xi ), y∈(yj−1 ,yj ) x∈(xi−1 ,xi ), y∈(yj−1 ,yj )

Def. Das Unter- und das Oberintegral werden dann wie im Eindimensionalen
definiert als

U (f ) = sup { UZ1 ,Z2 (f ) | (Z1 , Z2 ) Zerlegungen von Q }

und
O(f ) = inf { OZ1 ,Z2 (f ) | (Z1 , Z2 ) Zerlegungen von Q } .

→ Man kann direkt zeigen, dass U (f ) ≤ O(f ).

Def. Ist U (f ) = O(f ), so ist f (Riemann-)integrierbar über Q und das Integral


wird definiert als
ZZ
f (x, y) d(x, y) = U (f ) = O(f ).
Q

78
→ Oft verwendet man auch andere Bezeichnung für das Bereichsintegral.
1. Man schreibt ZZ
f (x, y) dF
Q
um zu verdeutlichen, dass es sich um einen Grenzwert von Summen von
cij Fij mit dem Flächeinhalt Fij = (xi − xi−1 )(yi − yi−1 ) handelt. Dabei
bezeichnet
dF = d(x, y) = dxdy
das sog. Flächenelement.
2. In vielen Situationen schreibt man nur ein Integralzeichen
Z
f (x, y) d(x, y),
Q

wenn es klar ist, dass es sich um ein zweidimensionales Integral handelt.


→ Ein Doppelintegral von einem stetigen Skalarfeld f über ein Rechteck kann
durch Berechnung zweier eindimensionalen Integrale (Parameterintegral) be-
stimmt werden.
Satz 5.4 (Satz von Fubini für Bereichsintegrale) Sei Q = [a, b]×[c, d] ⊂ R2
ein Rechteck und f : Q → R ein stetiges Skalarfeld. Dann ist f integrierbar über
Q und es gilt
ZZ Z b Z d  Z d Z b 
f (x, y) d(x, y) = f (x, y) dy dx = f (x, y) dx dy.
Q a c c a

→ Beispiel: Wir betrachten das Skalarfeld f (x, y) = x + 3x2 y 2 und das Recht-
eck Q = [0, 1] × [0, 1]. Es gilt
ZZ Z 1 Z 1  Z 1 y=1 !

f (x, y) d(x, y) = (x + 3x2 y 2 ) dy dx = (xy + x2 y 3 ) dx
Q 0 0 0 y=0
Z 1   x=1
1 2 1 3 5
= (x + x2 ) dx = x + x = .
0 2 3 x=0 6

→ Man kann den Integralbegriff direkt auf den dreidimensionalen Fall verallge-
meinern. Für einen Quader Q = [a, b] × [c, d] × [e, f ] ⊂ R3 und ein Skalarfeld
g : Q → R wird absolut analog das Dreifachintegral
ZZZ
g(x, y, z) d(x, y, z)
Q

eingeführt.

79
→ Auch dafür gibt es weitere Bezeichnungen wie
ZZZ
g(x, y, z) dV
Q

mit dem Volumenelement dV = d(x, y, z) = dxdydz sowie


Z
g(x, y, z) d(x, y, z).
Q

→ Der Satz von Fubini ist dafür ebenfalls erfüllt. Es gilt für ein stetiges Skalar-
feld g : Q → R:
ZZZ Z b Z d Z f  
g(x, y, z) d(x, y, z) = g(x, y, z) dz dy dx
Q a c e
Z f Z d Z b  
= g(x, y, z) dx dy dz = . . .
e c a

→ Beispiel: Wir betrachten das Skalarfeld g(x, y, z) = xyz und den Quader
Q = [0, 1]3 . Es gibt nach dem Satz von Fubini 6 Möglichkeiten dieses Integral
auszurechnen. Es gilt
ZZZ Z 1 Z 1 Z 1  
xyz d(x, y, z) = xyz dz dy dx
Q 0 0 0
Z 1 Z 1  Z 1
1 1 1
= xy dy dx = x dx = .
0 0 2 0 4 8

→ Wenn sich der Integrand g (wie beim obigen Beispiel) als Produkt g(x, y, z) =
g1 (x)g2 (y)g3 (z) schreiben lässt, kann man das Integral ebenfalls als Produkt
ausrechnen. Es gilt
ZZZ Z b  Z d  Z f 
g1 (x)g2 (y)g3 (z) d(x, y, z) = g1 (x) dx g2 (y) dy g3 (z) dz .
Q a c e

Integrale über allgemeine Bereiche


→ Um das Integral über ein allgemeineres Bereich Ω ⊂ R2 oder Ω ⊂ R3 zu
definieren, führen wir den Begriff der charakteristischen Funktion ein.
Def. Sei Ω ⊂ Rn eine Menge. Die charakteristische Funktion χΩ : Rn → R von Ω
wird definiert als (
1, falls x ∈ Ω
χΩ (x) = .
0, sonst

80
→ Um das Integral über eine Menge Ω ⊂ R2 definieren zu können, braucht man
zuerst einen Flächenbegriff. D. h. man muss Mengen betrachten, für die die
Fläche sinnvoll definiert ist.
→ Eine beschränkte Menge kann man immer in ein Rechteck einbetten, Ω ⊂ Q.
Def. Eine beschränkte Menge Ω ⊂ R2 heißt Jordan messbar, falls Ω ⊂ Q und χΩ
über Q integrierbar ist. Dann ist die Fläche definiert als
ZZ
F (Ω) = χΩ (x, y) d(x, y).
Q

Def. Sei Ω ⊂ R2 eine Jordan messbare Menge und sei Q ein Rechteck mit Ω ⊂
Q. Ein Skalarfeld f : Ω → R heißt integrierbar über Ω, falls f χΩ über Q
integrierbar ist. Das Integral wird definiert als
ZZ ZZ
f (x, y) d(x, y) = f (x, y) χΩ (x, y) d(x, y).
Ω Q

→ Es gilt somit für die Fläche von Ω


ZZ
F (Ω) = 1d(x, y).

→ Ist F (Ω) = 0, so nennt man Ω eine Nullmenge. Die typischen Beispiele für
Nullmengen sind:
(a) Eine endliche Menge von Punkten in R2 .
(b) Das Bild einer regulären Kurve in R2 .
→ Entsprechend definiert man Jordan messbare Mengen Ω ⊂ R3 , indem man
Ω in ein Quader Q einbettet und das Volumen von Ω als
ZZZ
V (Ω) = χΩ (x, y, z) d(x, y, z)
Q

einführt.
→ Auch das Integral wird ganz analog eingeführt.
Def. Sei Ω ⊂ R3 eine Jordan messbare Menge und sei Q ein Quader mir Ω ⊂
Q. Ein Skalarfeld f : Ω → R heißt integrierbar über Ω, falls f χΩ über Q
integrierbar ist. Das Integral wird definiert als
ZZZ ZZZ
f (x, y, z) d(x, y, z) = f (x, y, z) χΩ (x, y) d(x, y, z).
Ω Q

81
→ Für das Volumen von Ω gilt
ZZZ
V (Ω) = 1d(x, y, z).

Eine Jordan messbare Menge Ω ⊂ R3 heißt Nullmenge, falls V (Ω) = 0 gilt.

→ Es gelten folgende Rechenregel für Bereichsintegrale:


1. Sei Ω ⊂ R2 Jordan messbar, seien f, g : Ω → R zwei über Ω integrier-
bare Skalarfelder und seien α, β ∈ R. Dann ist die Linearkombination
αf + βg ebenfalls über Ω integrierbar und es gilt
ZZ ZZ ZZ
(αf (x, y) + βg(x, y)) d(x, y) = α f (x, y) d(x, y)+β g(x, y) d(x, y).
Ω Ω Ω

2. Sei N ⊂ R2 eine Nullmenge. Dann gilt für jedes beschränkte Skalarfeld


ZZ
f (x, y) d(x, y) = 0.
N

3. Seien Ω1 , Ω2 ⊂ R2 Jordan messbar und sei Ω1 ∩ Ω2 = ∅ oder sei Ω1 ∩ Ω2


(allgemeiner) eine Nullmenge. Dann gilt für jedes über Ω = Ω1 ∪ Ω2
integrierbare Skalarfeld:
ZZ ZZ ZZ
f (x, y) d(x, y) = f (x, y) d(x, y) + f (x, y) d(x, y).
Ω Ω1 Ω2

4. Sei Ω ⊂ R2 Jordan messbar, sei f : Ω → R ein über Ω integrierbares


Skalarfeld. Sei N ⊂ Ω eine Nullmenge. Ändert man das Skalarfeld f
auf der Menge N ab, so bleibt das Integral unverändert. D. h. für ein
Skalarfeld f˜: Ω → R mit

f (x, y) = f˜(x, y) für alle (x, y) ∈ Ω \ N

gilt ZZ ZZ
f (x, y) d(x, y) = f˜(x, y) d(x, y).
Ω Ω

→ Diese Rechenregeln lassen sich direkt auf Dreifachintegrale übertragen.

→ Es gibt eine Klassen von Mengen, über die man fast genau so einfach inte-
grieren kann, wie über Rechtecke und Quader. Das sind sog. Normalbereiche.

82
d(x)

c(x)

a b

Abbildung 5.1: Normalbereich vom Typ I

Def. Sei I = [a, b] ein Intervall und seien c, d : I → R zwei stetige Funktionen mit
c(x) ≤ d(x) für alle x ∈ I. Dann heißt die Menge

Ω = (x, y) ∈ R2 a ≤ x ≤ b, c(x) ≤ y ≤ d(x)


ein Normalbereich vom Typ I, siehe Abbildung 5.1.

→ Analog definiert man einen Normalbereich vom Typ II.

Def. Sei I = [c, d] ein Intervall und seien a, b : I → R zwei stetige Funktionen mit
a(y) ≤ b(y) für alle y ∈ I. Dann heißt die Menge

Ω = (x, y) ∈ R2 a(y) ≤ x ≤ b(y), c ≤ y ≤ d


ein Normalbereich vom Typ II, siehe Abbildung 5.2.

→ Integrale über Normalbereiche können wie folgt berechnet werden.

→ Sei
(x, y) ∈ R2 a ≤ x ≤ b, c(x) ≤ y ≤ d(x)

Ω=
ein Normalbereich vom Typ I und sei f : Ω → R ein Skalarfeld. Dann gilt:
!
ZZ Z Z b d(x)
f (x, y) d(x, y) = f (x, y) dy dx.
Ω a c(x)

83
a(y) b(y)
d

Abbildung 5.2: Normalbereich vom Typ II

→ Für einen Normalbereich



Ω = (x, y) ∈ R2 a(y) ≤ x ≤ b(y), c ≤ y ≤ d


vom Typ II gilt analog


!
ZZ Z d Z b(y)
f (x, y) d(x, y) = f (x, y) dx dy.
Ω c a(y)

→ Ist die Menge Ω kein Normalbereich, so versucht man Ω in endlich viele


disjunkte Normalbereiche zu zerlegen. Dann berechnet man die Integrale
über diese Normalbereiche und addiert sie auf.
→ Beispiel 1: Man berechne
ZZ
xy 2 d(x, y)

für Ω gegeben als



Ω = (x, y) ∈ R2 0 ≤ x ≤ 1 + y 2 , −1 ≤ y ≤ 1 ,


siehe Abbildung 5.3. Dies ist ein Normalbereich vom Typ II und es gilt
ZZ Z 1 Z 1+y2 ! Z 1  x=1+y2
1
xy 2 d(x, y) = xy 2 dx dy = y 2 x2 dy

Ω −1 0 −1 2
x=0
Z 1 Z 1
1 2 1 92
= y (1 + y 2 )2 dy = (y 2 + 2y 4 + y 6 ) dy = .
−1 2 2 −1 105

84
1

1 2

−1

Abbildung 5.3: Das Gebiet Ω (Beispiel 1)

→ Beispiel 2: Man berechne


ZZ
x2 y d(x, y)

für die Menge Ω, deren Rand durch die Geraden y = x und y = 2 sowie den
Graphen der Funktion y = x1 gegeben ist, siehe Abbildung 5.4. Wir zerlegen
diese Menge in zwei Normalbereiche Ω1 und Ω2 vom Typ I gegeben durch
 
2 1 1

Ω1 = (x, y) ∈ R ≤ x ≤ 1, ≤ y ≤ 2
2 x
und
(x, y) ∈ R2 1 ≤ x ≤ 2, x ≤ y ≤ 2 .

Ω2 =
Es gilt
ZZ ZZ ZZ
2 2
x y d(x, y) = x y d(x, y) + x2 y d(x, y)
Ω Ω Ω
Z 1 Z1 2 Z 2 2Z 2
= x2 y dy dx + x2 y dy dx
1 1
2 x
1 x
Z 1  y=2 Z 2  y=2
1 2 2 1 2 2
= xy dx + xy dx
1
2
2 1 1 2
y= y=x
Z 1  x Z 2 
1 1
= 2x2 − dx + 2x2 − x4 dx
1
2
2 1 2
1 47 19
= + = .
3 30 10

85
y=x

2 y=2

1
y=
x

1 2

Abbildung 5.4: Das Gebiet Ω (Beispiel 2)

Man kann erkennen, dass Ω auch ein Normalbereich vom Typ II ist. Man
rechne als Übungsaufgabe das gleiche Integral als Integral über ein Normal-
bereich vom Typ II aus.
→ Wie in R2 lassen sich auch in R3 Normalbereiche definieren, die man in 6
Typen unterteilen kann.
Def. Sei I = (a, b) ein Intervall, seien c, d : I → R zwei stetige Funktionen mit
c(x) ≤ d(x) für alle x ∈ I und sei U ⊂ R2 ein entsprecheder Normalbereich
vom Typ I in R2 :

U = (x, y) ∈ R2 a ≤ x ≤ b, c(x) ≤ y ≤ d(x) .


Seien weiter e, f : U → R zwei stetige Skalarfelder mit e(x, y) ≤ f (x, y) für


alle (x, y) ∈ U . Dann ist

Ω = (x, y, z) ∈ R3 (x, y) ∈ U, e(x, y) ≤ z ≤ f (x, y)


= (x, y, z) ∈ R3 a ≤ x ≤ b, c(x) ≤ y ≤ d(x), e(x, y) ≤ z ≤ f (x, y)


ein Normalbereich vom Typ I in R3 . Analog kann man weitere 5 Typen von
Normalbereichen in R3 einführen, indem man eine andere Reihenfolge der
Variablen betrachtet, z. B.

Ω = (x, y, z) ∈ R3 a(y) ≤ x ≤ b(y), c ≤ y ≤ d, e(x, y) ≤ z ≤ f (x, y)


oder

(x, y, z) ∈ R3 a(y, z) ≤ x ≤ b(y, z), c(z) ≤ y ≤ d(z), e ≤ z ≤ f .

Ω=

86
→ Analog zu den Integralen über Normalbereiche in R2 rechnet man auch In-
tegrale über Normalbereiche in R3 aus. Für den Fall des Normalbereiches Ω
vom Typ I (siehe oben) gilt:
ZZZ Z b Z d(x) Z f (x,y) ! !
g(x, y, z)d(x, y, z) = g(x, y, z) dz dy dx.
Ω a c(x) e(x,y)

→ Für geometrische und technische Beispiele (Masse, Schwerpunkt, Ladung,


etc.), siehe Zentralübung.

Transformation des Bereichsintegrals


→ Für eindimensionale Integrale kennen wir die Transformations- bzw. Substi-
tutionsregel
Z b Z φ(b)
0
f (φ(t))φ (t) dt = f (x) dx.
a φ(a)

→ Eine Verallgemeinerung auf die mehrdimensionale Integrale liefert der fol-


gende Satz.
Satz 5.5 (Transformationssatz) Sei Ω ⊂ Rn eine offene Menge und sei Φ : Ω →
Rn eine reguläre stetig differenzierbare Transformation. Dann gilt
Z Z
f (x) dx = f (Φ(u)) |det JΦ (u)| du.
Φ(Ω) Ω

→ In diesem Satz bezeichnet Φ(Ω) das Bild der Menge Ω unter der Transfor-
mation Φ und JΦ (u) ist die Jacobi-Matrix dieser Transformation.
→ Zur Erinnerung: Die Transformation Φ : Ω → Rn heißt im Punkt u regulär,
wenn die sog. Funktionaldeterminante ungleich Null ist, d. h. det JΦ (u) 6= 0.
→ In vielen Situation lassen sich Integrale über komplizierte Gebiete durch
eine geschickte Wahl der Transformation auf Integrale über Normalbereiche
zurückführen.
→ Am häufigsten verwendet man Transformationen auf Polar-, Zylinder- und
Kugelkoordinaten.
→ Für Polarkoordinaten gilt
   
r cos φ cos φ −r sin φ
Φ(r, φ) = , JΦ (r, φ) =
r sin φ sin φ r cos φ
und |det JΦ (r, φ)| = r.

87
→ Für Zylinderkoordinaten gilt
   
r cos φ cos φ −r sin φ 0
Φ(r, φ, z) =  r sin φ  , JΦ (r, φ, z) =  sin φ r cos φ 0
z 0 0 1

und |det JΦ (r, φ, z)| = r.

→ Für Kugelkoordinaten gilt:


 
r cos φ sin θ
Φ(r, θ, φ) =  r sin φ sin θ  ,
r cos θ
 
cos φ sin θ r cos φ cos θ −r sin φ sin θ
JΦ (r, θ, φ) =  sin φ sin θ r sin φ cos θ r cos φ sin θ  ,
cos θ −r sin θ 0
und |det JΦ (r, θ, φ)| = r2 sin θ.

→ Beispiel: Berechne das Integral


ZZ
x d(x, y)
B

über einen Viertelkreis



B = (x, y) ∈ R2 x2 + y 2 ≤ 1, x ≥ 0, y ≥ 0 .


Wir betrachten dieses Gebiet bezüglich der Polarkoordinaten. Es gilt

B = Φ(Ω)

mit Ω = [0, 1] × [0, π2 ]. Nach dem Transformationssatz erhält man mit x =


r cos φ und |det JΦ (r, φ)| = r:
π
ZZ ZZ Z
2
Z 1 
2
x d(x, y) = r cos φ r d(r, φ) = r cos φ dr dφ
B Ω 0 0
Z π ! Z
1 
2
2 1 1
= cos φ dφ r dr = 1 · = .
0 0 3 3

88
5.3 Flächenintegrale
→ Im Kapitel 4 haben wir uns mit Kurvenintegralen befasst. In diesem Ab-
schnitt verallgemeinern wir dieses Konzept auf (Ober)flächenintegrale.

Def. Sei B ⊂ R2 eine messbare Menge. Wir nennen eine (stückweise) differenzier-
bare Funktion (Vektorfeld)
 
x(u, v)
φ : B → R3 mit φ(u, v) = y(u, v)
z(u, v)

eine Fläche.

→ Wie bei einer Kurve ist die Fläche nicht nur ihr Bild φ(B) sondern die ganze
Funktion φ.

→ Beispiele:
(a) Sei f : B ⊂ R2 → R ein stetig differenzierbares Skalarfeld. Der Graph
dieses Skalarfeldes kann als eine Fläche dargestellt werden. Man setzt
dafür  
u
φ(u, v) =  v  .
f (u, v)

(b) Die Mantelfläche eines Zylinders von Radius R und Höhe h wird durch
 
R cos u
φ : [0, 2π] × [0, h] → R3 , φ(u, v) =  R sin u 
v

dargestellt.
(c) Die Oberfläche einer Kugel vom Radius R erhalten wir durch
 
R cos v sin u
φ : [0, π] × [0, 2π] → R3 , φ(u, v) =  R sin v sin u  .
R cos u

(d) Sei k ein reguläres Kurvenstück ohne Doppelpunkte


 
x(u)
k : [a, b] → R3 , k(u) =  0 
z(u)

89
z

Abbildung 5.5: Rotationsfläche

mit x(u) > 0 in der (x, z)-Ebene (y = 0) gegeben. Wir betrachten die
Rotationsfläche, die aus der Drehung dieser Kurve um die z-Achse um
den Winkel α0 (mit 0 < α0 ≤ 2π) entsteht. Diese Rotationsfläche, siehe
Abbildung 5.5 kann wie folgt beschrieben werden:
 
x(u) cos v
φ : [a, b] × [0, α0 ] → R3 , φ(u, v) =  x(u) sin v  .
z(u)

→ Wir betrachten eine Fläche φ : B ⊂ R2 → R3 und einen festen Punkt


(u0 , v0 ) im Inneren von B sowie den entsprechenden Punkt im Bild der Fläche
φ(u0 , v0 ) ∈ R3 . Man kann zwei Kurven, siehe Abblidung 5.6, definieren, die
in dem Bild φ(B) durch den Punkt φ(u0 , v0 ) verlaufen:

ku : (−ε, ε) → R3 , ku (t) = φ(u0 + t, v0 )

und
kv : (−ε, ε) → R3 , kv (t) = φ(u0 , v0 + t).

90
∂u φ(u0 , v0 )
φ(u0 , v0 )
∂v φ(u0 , v0 )

φ(B)

Abbildung 5.6: Fläche φ und Kurven ku und kv

Die Tangentenvektoren ku0 (0) und kv0 (0) zu den Kurven ku und kv sind eben-
falls Tangentialvektoren zu der Fläche φ im Punkt φ(u0 , v0 ). Es gilt
 
∂u x(u0 , v0 )
ku0 (0) = ∂u y(u0 , v0 ) =: ∂u φ(u0 , v0 )
∂u z(u0 , v0 )
und  
∂v x(u0 , v0 )
kv0 (0) = ∂v y(u0 , v0 ) =: ∂v φ(u0 , v0 ).
∂v z(u0 , v0 )

Def. Ein Punkt φ(u0 , v0 ) der Fläche φ heißt regulär, falls die Tangentialvektoren
∂u φ(u0 , v0 ) und ∂v φ(u0 , v0 ) linear unabhängig sind. Dies ist genau dann der
Fall, wenn
∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 ) 6= 0
gilt.
Def. Sind alle Punkte einer Fläche regulär, so spricht man von einer regulären
Fläche.
→ In einem regulären Punkt kann man den Normalenvektor zu der Fläche als
∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 )
definieren. Der Einheitsnormalenvektor ist dann
1
n(u0 , v0 ) = ∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 ).
k∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 )k

91
→ Wie bestimmt man den Flächeninhalt einer gegebenen Fläche?

→ Bei einer Kurve k : [a, b] → R3 sind wir wie folgt vorgegangen. Wir haben
das Bild der Kurve durch Polygonzüge approximiert. Dabei war die Länge
der Verbindungsstrecke [k(ti−1 ), k(ti )] approximiert durch

kk(ti ) − k(ti−1 )k ≈ (ti − ti−1 )kk 0 (ti−1 )k.

Nach dem Grenzübergang erhielt man dann


Z b
L(k) = kk 0 (t)k dt.
a

→ Ähnlich kann man die Fläche φ mit Parallelogrammen approximieren (die ge-
naue Konstruktion wird hier nicht durchgeführt). Bekanntlich kann man die
Fläche eines durch zwei Vektoren v, w ∈ R3 aufgespannten Parallelogrammes
P durch
F (P ) = kv × wk
ausrechnen. Nach dem Grenzübergang führt dies zu
ZZ
F (φ) = k∂u φ(u, v) × ∂v φ(u, v)k d(u, v),
B

falls dieses Integral existiert.

→ Beispiele:
(a) Sei f : B ⊂ R2 → R ein Skalarfeld. Um die Oberfläche des Graphen von
f zu berechnen, betrachten wir die entsprechende Fläche φ : B → R3
mit  
u
φ(u, v) =  v  .
f (u, v)
Es gilt
   
1 0
∂u φ(u, v) =  0 , ∂v φ(u, v) =  1 
∂u f (u, v) ∂v f (u, v)

und  
−∂u f (u, v)
∂u φ(u, v) × ∂v φ(u, v) = −∂v f (u, v) .
1

92
Somit erhält man
p
k∂u φ(u, v) × ∂v φ(u, v)k = 1 + ∂u f (u, v)2 + ∂v f (u, v)2

und den Flächeninhalt berechnet man als


ZZ p
F (φ) = 1 + ∂u f (u, v)2 + ∂v f (u, v)2 d(u, v).
B

(b) Wir berechnen den Flächeninhalt der Oberfläche einer Kugel mit Radius
R. Dafür betrachten wir die Fläche
 
R cos v sin u
φ : [0, π] × [0, 2π] → R3 , φ(u, v) =  R sin v sin u  .
R cos u

Es gilt
   
R cos v cos u −R sin v sin u
∂u φ(u, v) =  R sin v cos u  , ∂v φ(u, v) =  R cos v sin u 
−R sin u 0

und somit
R2 cos v sin2 u
 

∂u φ(u, v) × ∂v φ(u, v) =  R2 sin v sin2 u 


2 2 2
R (cos v cos u sin u + sin v cos u sin u)
 
cos v sin u
= R2 sin u  sin v sin u  .
cos u

Man erhält
k∂u φ(u, v) × ∂v φ(u, v)k = R2 sin u
und somit
ZZ Z 2π Z π 
2 2
F (φ) = R sin u d(u, v) = R sin u du dv
[0,π]×[0,2π] 0 0
Z 2π
= R2 2 dv = 4πR2 .
0

→ Für ein Skalarfeld f : R3 → R wollen wir das skalare Flächenintegral


ZZ
f dO
φ

93
über die Fläche φ einführen. Dieses Integral soll so definiert werden, dass
ZZ
F (φ) = 1 dO
φ

gilt.
Def. Sei f : R3 → R ein beschränktes Skalarfeld und sei φ : B ⊂ R2 → R3 eine
Fläche. Wir definieren das Oberflächenintegral
ZZ ZZ
f dO = f (φ(u, v)) k∂u φ(u, v) × ∂v φ(u, v)k d(u, v),
φ B

falls das Integral auf der rechten Seite existiert.


→ Ist B = [a, b] × [c, d] ein Rechteck, so erhält man
ZZ Z b Z d 
f dO = f (φ(u, v)) k∂u φ(u, v) × ∂v φ(u, v)k du dv.
φ a c

Man bezeichnet mit dO = k∂u φ(u, v) × ∂v φ(u, v)k du dv das Oberflächenele-


ment.
→ Beispiel: Wir betrachten das Skalarfeld f : R3 → R mit f (x, y, z) = x2 und
die Mantelfläche des Zylinders mit Radius R und Höhe h gegeben durch
 
R cos u
φ : [0, 2π] × [0, h] → R3 , φ(u, v) =  R sin u  .
v
Es gilt    
−R sin u 0
∂u φ(u, v) =  R cos u  , ∂v φ(u, v) = 0 ,

0 1
 
R cos u
∂u φ(u, v) × ∂v φ(u, v) =  R sin u 
0
und somit
k∂u φ(u, v) × ∂v φ(u, v)k = R.
Man erhält
ZZ ZZ
f dO = f (φ(u, v))k∂u φ(u, v) × ∂v φ(u, v)k d(u, v)
φ [0,2π]×[0,h]
Z h Z 2π  Z 2π
2 2 3
= R cos uR du dv = R h cos2 u du = πR3 h.
0 0 0

94
→ Bei den Kurvenintegralen über eine Kurve k : [a, b] → R3 haben wir zwischen
zwei Typen unterschieden:
(a) Kurvenintegral eines Skalarfeldes f : R3 → R
Z Z b
f ds = f (k(t))kk 0 (t)k dt
k a

(b) Kurvenintegral eines Vektorfeldes F : R3 → R3


Z Z b
F · dx = F (k(t)) · k 0 (t) dt.
k a

→ Bei den Oberflächenintegralen haben wir bereits das Oberflächenintegral ei-


nes Skalarfeldes f : B ⊂ R3 → R als
ZZ ZZ
f dO = f (φ(u, v)) k∂u φ(u, v) × ∂v φ(u, v)k d(u, v)
φ B
eingeführt. Das Oberflächenintegral eines Vektorfeldes wird wie folgt defi-
niert.
Def. Sei F : R3 → R3 ein beschränktes Vektorfeld und sei φ : B ⊂ R2 → R3 eine
Fläche. Wir definieren
ZZ ZZ
F · dO = F (φ(u, v)) · (∂u φ(u, v) × ∂v φ(u, v)) d(u, v),
φ B
falls das Integral auf der rechten Seite existiert.
→ Wir wissen, dass der Einheitsnormalenvektor zur der Fläche φ als
1
n(u, v) = ∂u φ(u, v) × ∂v φ(u, v)
k∂u φ(u, v) × ∂v φ(u, v)k
gegeben ist. Deswegen gilt:
F (φ(u, v))·(∂u φ(u, v) × ∂v φ(u, v)) = (F (φ(u, v))·n(u, v))k∂u φ(u, v)×∂v φ(u, v)k.
Somit erhält man die Darstellung
ZZ ZZ
F · dO = (F · n) dO.
φ φ
Das rechte Integral ist als ein Oberflächenintegral eines Skalarfeldes F · n zu
verstehen. Man spricht oft von dem Fluss von F durch φ.
→ Man vergleiche diesen Zusammenhang mit dem entsprechenden Zusammen-
hang bei den Kurvenintegralen. Es gilt
Z Z
F · dx = (F · T ) ds
k k
mit einer Kurve k und dem Einheitstangentialvektor T .

95
5.4 Integralsätze
→ In diesem Abschnitt betrachten wir folgende Integralsätze:
– den zweidimensionalen Satz von Green,
– die zwei- und dreidimensionalen Sätze von Gauß,
– den Satz von Stokes.

→ Diese Sätze stellen Zusammenhänge zwischen Bereichsintegralen einerseits


und Flächen- und Kurvenintegralen andererseits her. Sie erlauben oft be-
stimmte Vereinfachungen bei Berechnung von Integralen und spielen vor al-
lem eine wichtige Rolle in der Modellierung mit partiellen Differentialglei-
chungen, siehe z. B. die Vorlesung “Elektrizität und Magnetismus”.

→ Sei Ω ⊂ R2 eine messbare Menge, deren Rand ∂Ω durch eine geschlossene


stückweise reguläre Kurve gegeben ist. Die Parametrisierung der Kurve sei
so gewählt, dass Ω immer links zur Durchlaufrichtung liegt. Man spricht von
positivem Umlauf.

Satz 5.6 (Satz von Green) Sei Ω ⊂ R2 eine Menge mit Rand ∂Ω wie oben
beschrieben. Sei v : Ω̄ → R2 ein stetig differenzierbares Vektorfeld. Dann gilt
ZZ Z
(∂x v2 − ∂y v1 ) d(x, y) = v · dx.
Ω ∂Ω

→ Der Satz gilt für sehr allgemeine Gebiete Ω ⊂ R2 . Wir werden ihn am Beispiel
des Einheitsquadrats Ω = [0, 1]2 überprüfen. Den Rand ∂Ω kann man dann
wie folgt parametrisieren:


 (t, 0)T , für t ∈ [0, 1]
(1, t − 1)T , für t ∈ [1, 2]

γ : [0, 4] → R2 , γ(t) = .


 (3 − t, 1)T , für t ∈ [2, 3]
(0, 4 − t)T , für t ∈ [3, 4]

Der Einfachheit halber betrachten wir ein Vektorfeld v : Ω → R2 mit


 
v1 (x, y)
v(x, y) = .
0

96
Der allgemeine Fall ist absolut analog. Es gilt einerseits
ZZ Z 1 Z 1 
(∂x v2 − ∂y v1 ) d(x, y) = − ∂y v1 (x, y) dy dx
Ω 0 0
Z 1
=− (v1 (x, 1) − v1 (x, 0)) dx
0
Z 1
= (v1 (x, 0) − v1 (x, 1)) dx.
0

Andererseits erhält man


Z Z 4 Z 1   Z 2  
T 0 T 1 T 0
v · dx = v(γ(t)) γ (t) dt = v(t, 0) dt + v(1, t − 1) dt
∂Ω 0 0 0 1 1
Z 3   Z 4  
T −1 T 0
+ v(3 − t, 1) dt + v(0, 4 − t) dt
2 0 3 −1
Z 1 Z 3
= v1 (t, 0) dt − v1 (3 − t, 1) dt
0 2
Z 1 Z 1
= v1 (t, 0) dt − v1 (s, 1) ds.
0 0

Somit haben wir den Satz für diesen Fall nachgerechnet.

→ Man kann diesen Satz verwenden, um den Flächeninhalt einer Menge Ω durch
ein Kurvenintegral zu bestimmen. Man betrachtet dafür ein Vektorfeld mit

∂x v2 − ∂y v1 = 1.

Dafür nimmt man z. B.  


1 −y
v(x, y) = .
2 x
Es gilt dann:
ZZ ZZ
F (Ω) = (∂x v2 − ∂y v1 ) d(x, y)
1 d(x, y) =
Ω Ω
Z Z  
1 −y
= v · d(x, y) = · d(x, y).
∂Ω 2 ∂Ω x

→ Beispiel: Wir betrachten eine Ellipse mit den Halbachsen a > 0 und b > 0:
2
y2
 
2 x
T

Ω = (x, y) ∈ R 2 + 2 ≤ 1 .
a b

97
Der Rand ∂Ω kann wie folgt parametrisiert werden
 
2 a cos t
γ : [0, 2π] → R , γ(t) = .
b sin t
Man kann den Flächeninhalt von Ω wie folgt berechnen:
T
1 2π −b sin t
Z   Z 
1 −y
F (Ω) = · d(x, y) = γ 0 (t) dt
2 ∂Ω x 2 0 a cos t
Z 2π  T  
1 −b sin t −a sin t
= dt
2 0 a cos t b cos t
1 2π
Z
1
= ab(sin2 t + cos2 t) dt = 2πab = πab.
2 0 2
Für den Spezialfall eines Kreises, d. h. a = b = r, erhält man die bekannte
Formel F = πr2 .
→ Der Satz von Gauß liefert einen Zusammenhang zwischen dem Bereichsinte-
gral der Divergenz eines Vektorfeldes und einem entsprechenden Randinte-
gral.
Satz 5.7 (Der zweidimensionale Satz von Gauß) Sei Ω ⊂ R2 eine Menge
mit Rand ∂Ω, der durch eine geschlossene stückweise reguläre Kurve γ = γ(t)
parametrisiert ist. Sei v : Ω̄ → R2 ein stetig differenzierbares Vektorfeld. Dann gilt
ZZ Z
div v d(x, y) = v T n ds,
Ω ∂Ω

wobei n = n(t) den Einheitsnormalenvektor zur Kurve γ beschreibt, der nach außen
zeigt, siehe Abbildung 5.7.

→ Man kann diesen Satz für einen Rechteck Ω = [a, b] × [c, d] direkt (ähnlich
wie den Satz von Green) überprüfen. Der Beweis für ein allgemeines Gebiet
erfolgt mit der Approximation von Ω durch Rechtecke.
→ Dieser Satz kann direkt auf dreidimensionale Gebiete verallgemeinert werden.
Satz 5.8 (Der dreidimensionale Satz von Gauß) Sei Ω ⊂ R3 und sei ∂Ω
durch eine stückweise reguläre geschlossene Fläche beschrieben. Sei v : Ω̄ → R3
ein stetig differenzierbares Vektorfeld. Dann gilt
ZZZ ZZ
div v d(x, y, z) = v T n dO,
Ω ∂Ω

wobei n den Einheitsnormalenvektor zur Oberfläche ∂Ω beschreibt, der nach außen


zeigt.

98
n(t)

γ(t)

Abbildung 5.7: Satz von Gauß

→ Diese Formulierung des Satzes ist sehr ähnlich zum zweidimensionalen Fall.
Das Integral auf der rechten Seite kann man auch als ein Integral über das
Vektorfeld beschreiben:
ZZ ZZ
T
v n dO = v · dO.
∂Ω ∂Ω

Die entsprechende Formulierung des Satzes von Gauß ist


ZZZ ZZ
div v d(x, y, z) = v · dO.
Ω ∂Ω

→ Diesen Satz kann man wie im zweidimensionalen Fall zuerst für einen Quader
überprüfen und dann durch die Approximation eines allgemeines Gebietes Ω
durch Quader beweisen.

→ Der Satz von Gauß liefert eine wichtige Interpretation der Divergenz. Der
Gesamtfluss eines Vektorfeldes
ZZ
v · dO.
∂Ω

durch den Rand ∂Ω ist gleich dem Bereichsintegral über die Divergenz.

→ Ist die Divergenz eines Vektorfeldes gleich Null, div v = 0, so verschwindet


der Gesamtfluss des Vektorfeldes durch den Rand jedes Gebiets Ω. Man
spricht dann von einem divergenzfreien Vektorfeld.

99
→ In der Hydrodynamik entspricht die Divergenzfreiheit des Geschwindigkeits-
feldes der Inkompressibilität der Flüssigkeit.

→ Eine direkte Folgerung aus dem Satz von Gauß ergibt sich für den Laplace-
Operator. Bekanntlich gilt für ein zweimal stetig differenzierbares Skalarfeld
u : R3 → R
∆u = div(∇u).
Daraus folgt:
ZZZ ZZZ ZZ
∆u d(x, y, z) = div(∇u) d(x, y, z) = ∇uT n dO.
Ω Ω ∂Ω

→ Eine Verallgemeinerung davon ist die Greensche Formel.

Satz 5.9 (Greensche Formel) Seien Ω ⊂ R3 und ∂Ω wie im Satz von Gauß.
Sei φ : Ω̄ → R ein stetig differenzierbares Skalarfeld und u : Ω → R ein zweimal
stetig differenzierbares Skalarfeld. Dann gilt:
ZZZ ZZZ ZZ
∆uφ d(x, y, z) = − ∇u · ∇φ d(x, y, z) + φ∇uT n dO.
Ω Ω ∂Ω

Beweis:
Wir betrachten das Vektorfeld v : Ω → R3 definiert als

v = φ∇u.

Man kann direkt nachrechnen, dass

div v = div(φ∇u) = ∇φT ∇u + φ∆u.

Mit dem Satz Satz von Gauß erhält man


ZZZ ZZZ ZZZ
∇u · ∇φ d(x, y, z) + ∆uφ d(x, y, z) = div v d(x, y, z)
Ω ZZ Ω ZZ Ω
T
= v n dO = φ∇uT n dO.
∂Ω ∂Ω

→ Dieser Satz stellt spielt bei der Behandlung partieller Differentialgleichungen


eine wichtige Rolle.

100
Abbildung 5.8: Möbiusband

→ Als nächstes betrachten wir den Satz von Stokes. Der Satz von Stokes stellt
eine Verallgemeinerung des Satzes von Green auf zweiseitige Flächen in R3
dar. Wir werden hier nicht auf die anschaulich klare Definition der zwei-
seitigen Flächen eingehen. Das bekannteste Beispiel einer Fläche, die nicht
zweiseitig ist, ist das Möbiusband, siehe Abbildung 5.8.

→ Bei einer zweiseitigen Fläche ist die Oberseite der Fläche durch den Einheits-
normalenvektor
1
n(u, v) = ∂u φ(u, v) × ∂v φ(u, v)
k∂u φ(u, v) × ∂v φ(u, v)k
eindeutig definiert.

→ Wir betrachten eine zweiseitige stückweise reguläre Fläche φ mit überschnei-


dungsfreier geschlossener regulärer Randkurve ∂φ. Diese Kurve soll so para-
metrisiert sein, dass sie positiv orientiert ist. D. h., die Oberseite der Fläche
φ liegt immer links von der Kurve, siehe Abbildung 5.9.

Satz 5.10 (Satz von Stokes) Sei φ : B ⊂ R2 → R3 eine zweiseitige stückweise


reguläre Fläche mit der positiv orientierten Randkurve ∂φ. Sei D ⊂ R3 eine offene
Menge und sei φ(B) ⊂ D. Sei v : D̄ → R3 ein stetig differenzierbares Vektorfeld.
Dann gilt ZZ Z
rot v · dO = v · dx.
φ ∂φ

101
n

φ(B)

∂φ

Abbildung 5.9: Satz von Stokes

→ Wir wollen sehen, dass der Satz von Stokes eine Verallgemeinerung des Satzes
von Green ist. Wir betrachten eine messbare Menge Ω ⊂ R2 mit der regulären
Randkurve γ : [a, b] → R2 . Sowohl die Menge Ω als auch die Kurve γ können
wir in R3 einbetten und dabei die Menge Ω als eine Fläche φ : Ω → R3 mit
 
u
φ(u, v) = v 

0
und die Kurve γ als dreidimensionale Kurve Γ : [a, b] → R3 mit
 
γ1 (t)
Γ(t) = γ2 (t)
0
darstellen. Es gilt für den Normalenvektor zu φ:
∂u φ × ∂v φ = e 3 .
Wir betrachten ein Vektorfeld F : Ω ⊂ R3 → R3 und ein entsprechendes
Vektorfeld f : Ω ⊂ R2 → R2 mit
   
f1 (x, y) F1 (x, y, 0)
f (x, y) = = .
f2 (x, y) F2 (x, y, 0)
Es gilt  
∂y F3 − ∂z F2
rot F = ∂z F1 − ∂x F3 
∂x F2 − ∂y F1

102
und somit ist
ZZ ZZ
rot F · dO = (rot F )(φ(u, v)) · (∂u φ × ∂v φ) d(u, v)
φ Ω
ZZ
= (∂x F2 (u, v, 0) − ∂y F1 (u, v, 0)) d(u, v)
Z ZΩ
= (∂x f2 (x, y) − ∂y f1 (x, y)) d(x, y).

Analog kann man das Kurvenintegral umschreiben

γ10 (t)


Z Z b Z b
F · dx = F (Γ(t)) · Γ0 (t) dt = F (Γ(t)) · γ20 (t) dt
∂φ a a 0
Z b    0 
F1 (γ1 (t), γ2 (t), 0) γ (t)
= · 10 dt
a F (γ
2 1 (t), γ2 (t), 0) γ2 (t)
Z b Z
0
= f (γ(t)) · γ (t) dt = f · ds.
a γ

Somit ist der Satz von Green ein Spezialfall des Satzes von Stokes. Der Beweis
des Satzes von Stokes wird hier nicht geführt.

→ Haben zwei Flächen φ1 und φ2 den gleichen Rand, d. h. ∂φ1 = ∂φ2 , so gilt
nach dem Satz von Stokes
ZZ ZZ
rot v · dO = rot v · dO
φ1 φ2

für alle stetig differenzierbare Vektorfelder v.

→ Beispiel: Man berechne ZZ


rot v · dO
φ

über die obere Halbsphäre der Einheitskugel für das Vektorfeld


 2 
x + y2 − z3
v(x, y, z) =  x .
e− sin x

Es ist relativ schwierig dieses Integral direkt auszurechnen. Nach dem Satz
von Stokes gilt: ZZ Z
rot v · dO = v · dx
φ γ

103
mit  
cos t
γ : [0, 2π] → R3 , γ(t) =  sin t  .
0
Man erhält
cos2 t + sin2 t − 03
  
Z Z 2π − sin t
v · dx =  cos t   cos t  dt
γ 0 e− sin(cos t) 0
Z 2π
− sin t + cos2 t dt = π.

=
0

104
6 Gewöhnliche
Differentialgleichungen
6.1 Beispiele von Differentialgleichungen
→ Eine Differentialgleichung ist eine Gleichung für die unbekannte Funktion u,
in der auch Ableitungen von u vorkommen.
→ Beispiel 1: Man bestimme alle Funktionen u : [0, 1] → R mit

u0 (t) = t2 und u(0) = 1.

Die erste Bedingung wird nur von Stammfunktionen von t2 erfüllt. Somit
gilt:
1
u(t) = t3 + c.
3
Die Konstante c wird aus der Anfangsbedingung u(0) = 1 bestimmt. Man
erhält:
u(0) = c = 1
und somit
1
u(t) = t3 + 1.
3
→ Im Allgemeinen sind die Lösungen der Gleichung

u0 (t) = f (t)

mit einer gegebenen Funktion f , die Stammfunktionen von f (t). Mit einer
zusätzlichen (meistens physikalisch motivierten) Anfangsbedingung u(0) =
u0 erhält man die eindeutige Lösung
Z t
u(t) = u0 + f (s) ds.
0

Def. Allgemein ist eine gewöhnliche Differentialgleichung erster Ordnung gegeben


als
F (t, u(t), u0 (t)) = 0

105
mit einem Skalarfeld F : R3 → R. Eine stetig differenzierbare Funktion u
heißt eine Lösung dieser Gleichung auf dem Intervall I = [a, b], wenn

F (t, u(t), u0 (t)) = 0 für alle t ∈ I

erfüllt ist.

Def. Ist die Gleichung explizit nach u0 aufgelöst, so spricht man von einer expli-
ziten Differentialgleichung. Sie hat dann die Form

u0 (t) = f (t, u(t)).

→ Oft fordert man weitere Bedingungen (wie z. B. eine Anfangsbedingung).

Def. Eine explizite Differentialgleichung erster Ordnung mit einer Anfangsbedin-


gung vom Typ
u0 (t) = f (t, u(t)), u(t0 ) = u0
nenn man eine Anfangswertaufgabe oder ein Anfangswertproblem.

→ Beispiel 2: Wir betrachten die Gleichung

u0 (t) = au(t)

mit einer gegebenen Zahl a ∈ R. Alle Lösungen dieser Gleichung haben die
Gestalt
u(t) = ceat
mit einer Konstante c ∈ R. Man überprüft leicht, dass
0
u0 (t) = ceat = caeat = au(t)

gilt. Wir zeigen, dass jede Lösung dieser Differentialgleichung die Form u(t) =
ceat hat. Sei v eine Lösung. Wir bezeichnen

q(t) = v(t)e−at .

Es gilt:

q 0 (t) = v 0 (t)e−at − av(t)e−at = e−at (v 0 (t) − av(t)) = 0.

Daraus folgt q(t) = c mit c ∈ R und somit v(t) = ceat .

106
→ Wir betrachten die Gleichung

u0 (t) = au(t) und u(0) = u0 .

Die eindeutige Lösung dieser Gleichung ist gegeben als

u(t) = u0 eat .

Diese Lösung ist konstant falls a = 0, exponentiell wachsend falls a > 0 und
exponentiell fallend, falls a < 0.

→ Beispiel 3: Wir betrachten die Gleichung

u0 (t) = u2 (t) für t > 0 und u(0) = 1.

Die Lösung dieser Gleichung ist die Funktion


1
u(t) = , 0 ≤ t < 1.
1−t
Diese (stetig differenzierbare) Lösung existiert also nur auf dem halboffenen
Intervall [0, 1) und nicht für alle t ≥ 0, wie bei den Beispielen 1 und 2.
Außerdem geht u(t) → ∞ für t → 1− . Man spricht von einer lokalen Lösung.

→ Die unbekannte Funktion in den obigen Beispielen ist eindimensional. Oft


betrachtet man Systeme gewöhnlicher Differentialgleichungen. Dabei erfüllt
die gesuchte Funktion u : [0, T ] → Rn die Gleichung

u0 (t) = f (t, u(t)), u(0) = u0

mit einem Anfangswert u0 ∈ Rn und einem Vektorfeld f : R × Rn → Rn .

→ Beispiel 4: Wir betrachten das System für u : [0, T ] → Rn

u0 (t) = Au(t), u(0) = u0

mit einer quadratischen Matrix A ∈ Rn×n . Dieses System ist in gewissem


Sinne eine Verallgemeinerung der eindimensionalen Gleichung u0 = au. Im
Folgenden werden wir sehen, dass die Lösung die Darstellung

u(t) = etA u0

besitzt, wobei die Bedeutung der Exponentialfunktion von einer Matrix im


Abschnitt 6.4 erklärt wird.

107
→ Eine Differentialgleichung m-ter Ordnung beinhaltet Ableitungen der unbe-
kannten Funktion u bis zur Ordnung m und ist gegeben als

F (t, u(t), u0 (t), u00 (t), . . . , u(m) (t)) = 0

mit einem Skalarfeld F : Rm+2 → R. Eine Funktion u heißt Lösung dieser


Gleichung auf dem Intervall I, wenn u auf diesem Intervall m mal stetig
differenzierbar ist und wenn

F (t, u(t), u0 (t), u00 (t), . . . , u(m) (t)) = 0 für alle t ∈ I

erfüllt ist.

→ Beispiel 5: Wir betrachten die Differentialgleichung für den harmonischen


Oszillator
u00 (t) + ω 2 u(t) = 0
mit einer gegebenen Konstante ω ∈ R, ω > 0. Man zeigt direkt, dass

u1 (t) = cos(ωt) und u2 (t) = sin(ωt)

Lösungen dieser Gleichung sind. Daraus folgt, dass jede Funktion der Form

u(t) = A cos(ωt) + B sin(ωt)

mit Konstanten A, B ∈ R eine Lösung dieser Gleichung ist.

→ Für diese Gleichung mit den beiden zusätzlichen Bedingungen

u(0) = v0 und u0 (0) = v1

erhalten wir:
u(0) = A = v0 ,
und
u0 (t) = −Aω sin(ωt) + Bω cos(ωt), u0 (0) = Bω = v1 .
Somit hat die Lösung die Darstellung
v1
u(t) = v0 cos(ωt) + sin(ωt).
ω

→ Diese Lösung ist die eindeutige Lösung der obigen Gleichung mit zwei An-
fangsbedingungen.

108
→ Jede Differentialgleichung m-ter Ordnung kann man als System von m Glei-
chungen erster Ordnung äquivalent umschreiben. Für die Gleichung

F (t, u(t), u0 (t), u00 (t), . . . , u(m) (t)) = 0

mit der gesuchten Lösung u : [0, T ] → R führt man die neue Variable v : [0, T ] →
Rm mit

v1 (t) = u(t), v2 (t) = u0 (t), v3 (t) = u00 (t), . . . , vm (t) = u(m−1) (t)

ein. Somit erhält man das folgende System



0
 F (t, v1 (t), v2 (t), . . . , vm (t), vm (t)) = 0


v10 (t) = v2 (t)




v20 (t) = v3 (t) .




 ...
0

 vm−1 (t) = vm (t)

In diesem System kommen nur die ersten Ableitungen von v vor und somit
ist das ein System von m Gleichungen erster Ordnung.

→ Beispiel: Die Gleichung des harmonischen Oszillators au dem obigen Bei-


spiel
u00 (t) + ω 2 u(t) = 0
kann wie folgt umgeschrieben werden:
(
v20 (t) + ω 2 v1 (t) = 0
v10 (t) = v2 (t)

bzw.  0    
v1 (t) 0 1 v1 (t)
= .
v20 (t) −ω 2 0 v2 (t)

6.2 Existenz von Lösungen


→ In diesem Abschnitt untersuchen wir die Lösbarkeit der Differentialgleichun-
gen (des Anfangswertsproblems) erster Ordnung vom Typ

u0 (t) = f (t, u(t)), u(t0 ) = u0 .

Wir betrachten dabei den eindimensionalen Fall. Alle Aussagen können aber
direkt auf Systeme von Differentialgleichungen verallgemeinert werden.

109
→ Seien f und u0 gegeben. Wir stellen uns folgende Fragen:
1. Besitzt die obige Gleichung lokal eine Lösung? Das heißt: Gibt es ein
δ > 0 und eine Funktion u, die auf dem Intervall [t0 , t0 + δ) definiert ist
und die Bedingungen
u0 (t) = f (t, u(t)) für alle t ∈ (t0 , t0 + δ)
u(t0 ) = u0
erfüllt?
2. Ist die Lösung der obigen Gleichung eindeutig?
3. Besitzt die Gleichung eine globale Lösung, d.h. eine Funktion u : [t0 , +∞) →
R, so dass
u0 (t) = f (t, u(t)) für alle t ∈ (t0 , +∞)
u(t0 ) = u0
erfüllt ist?
→ Die Antworten auf diese Fragen hängen von den Eigenschaften der Funktion
f ab.

Satz 6.1 (Satz von Peano) Sei u0 ∈ R gegeben, sei f : D → R ein stetiges
Skalarfeld auf einem Rechteck D = [t0 , t0 +α]×[u0 −β, u0 +β] mit positiven α und β.
Dann gibt es ein δ > 0 und eine Lösung u(t) der obigen Gleichung auf dem Intervall
β
[t0 , t0 + δ]. Man kann δ wählen als δ = min(α, M ), wobei M = max(t,x)∈D |f (t, x)|.

→ Dieser Satz wird durch die Konstruktion einer Folge approximativer Lösun-
gen bewiesen. Wir gehen hier auf den Beweis nicht ein.
→ Der Satz hat als einzige Voraussetzung die Stetigkeit von f liefert aber “nur”
die (lokale) Existenz und keine Eindeutigkeit. D. h. es können im Allgemei-
nen mehrere Lösungen existieren.
→ Beispiel: Wir betrachten das Anfangswertproblem
p
u0 (t) = |u(t)|, t > 0 und u(0) = 0.
p
Es gilt: u0 = 0, f (t, x) = |x| ist stetig auf

D = [0, α] × [−β, β]

für beliebige α, β > 0. Somit erfüllt diese Gleichung die Voraussetzungen des
Satzes von Peano. Es folgt dann
p
M = max |f (t, x)| = β
(t,x)∈D

110
und man kann ein δ mit
 
β p
δ = min α, √ = min(α, β)
β
wählen. Da α und β hier beliebig groß gewählt werden können, kann auch δ
beliebig groß gewählt werden. Somit liefert der Satz vob Peano die Existens
mindestens einer Lösung auf [0, δ) für jedes δ > 0.
Man kann aber direkt nachrechnen, dass die beiden folgenden Funktionen
Lösungen dieser Gleichung sind:
1
u1 (t) = 0 und u2 (t) = t2 .
4
Somit ist diese Lösung nicht eindeutig.
→ Für weitere (stärkere) Existenzaussagen benötigen wir den Begriff der Lipschitz-
Stetigkeit.
Def. Sei f : D ⊂ R2 → R ein stetiges Skalarfeld.
– Man sagt, f erfüllt eine (globale) Lipschitz-Bedingung bezüglich u auf
D, falls es eine Konstante L ≥ 0 gibt, so dass für alle Paare (t, u1 ) ∈ D
und (t, u2 ) ∈ D gilt

|f (t, u1 ) − f (t, u2 )| ≤ L|u1 − u2 |.

– Das Skalarfeld f erfüllt eine lokale Lipschitz-Bedingung bezüglich u


auf D, wenn es zu jedem Punkt in D eine Umgebung gibt, in der die
Lipschitz-Bedingung erfüllt ist. Die Lipschitz-Konstante kann dann von
dieser Umgebung abhängen.
→ Beispiele:
1. Das Skalarfeld f : D = R2 → R mit f (t, u) = t + 2u erfüllt die globale
Lipschitz-Bedingung mit L = 2. Es gilt nämlich

|f (t, u1 ) − f (t, u2 )| = |t + 2u1 − t − 2u2 | = 2|u1 − u2 |.

2. Das Skalarfeld f : D = R2 → R mit f (t, u) = 2t + u2 erfüllt eine lokale


Lipschitz-Bedingung. Für zwei Punkte (t, u1 ) und (t, u2 ) mit |u1 | < R
und |u2 | < R mit einem R > 0 gilt
|f (t, u1 ) − f (t, u2 )| = |2t + u21 − 2t − u22 | = |u21 − u22 |
= |u1 − u2 ||u1 + u2 | ≤ |u1 − u2 | (|u1 | + |u2 |)
≤ 2R|u1 − u2 | ≤ L|u1 − u2 |

111
mit L = 2R. Die globale Lipschitz-Bedingung auf R2 ist für dieses
Skalarfeld nicht erfüllt. Dies liegt daran, dass die Lipschitz-Konstante
L gegen ∞ gehen würde, wenn |u| → ∞.
p
3. Das Skalarfeld f (t, u) = |u| erfüllt keine lokale Lipschitz-Bedingung
in der Umgebung von u = 0. Für zwei Werte u1 , u2 > 0 gilt
√ √ |u1 − u2 |
|f (t, u1 ) − f (t, u2 )| = | u1 − u2 | = √ √ .
u1 + u2
Da der Nenner für u1 , u2 → 0 gegen Null geht, kann man keine Lipschitz-
Konstante in einer Umgebung von Null finden.
→ Ist f bezüglich u stetig differenzierbar auf D, so erfüllt f die lokale Lipschitz-
Bedingung. Das liegt am Mittelwertsatz. Es gilt

f (t, u1 ) − f (t, u2 ) = ∂u f (t, ξ)(u1 − u2 )

mit einem ξ ∈ (u1 , u2 ). Somit gilt

|f (t, u1 ) − f (t, u2 )| = |∂u f (t, ξ)||u1 − u2 |.

Ist f stetig differenzierbar, so ist die partielle Ableitung ∂u f stetig und somit
auf jeder beschränkten Umgebung beschränkt. Deswegen erfüllt f die lokale
Lipschitz-Bedingung.

Satz 6.2 (Satz von Picard-Lindelöf ) Sei u0 ∈ R gegeben, sei D = [t0 , t0 +


α] × [u0 − β, u0 + β] mit positiven α und β und das Skalarfeld f : D → R erfülle
die lokale Lipschitz-Bedingung auf D. Dann gibt es ein δ > 0 und eine Lösung
u(t) der obigen Gleichung auf dem Intervall [t0 , t0 + δ]. Diese Lösung ist eindeutig.
β
Man kann δ wählen als δ = min(α, M ), wobei M = max(t,x)∈D |f (t, x)|.

→ Beispiel: Für das Anfangswertproblem

u0 (t) = u(t)2 , u(0) = 1

gilt: f (t, u) = u2 erfüllt die lokale Lipschitz-Bedingung. Somit gibt es eine


eindeutige Lösung. Diese Lösung ist aber nicht für alle t definiert. Wir haben
schon nachgerechnet, dass die Lösung auf [0, 1) existiert und gegeben ist als
1
u(t) = .
1−t

→ Ist D = [t0 , T ] × R mit einem T > t0 und erfüllt f : D → R eine globale


Lipschitz-Bedingung auf D, so gibt es zu jedem u0 eine eindeutige Lösung
auf ganz [t0 , T ].

112
→ Beispiel: Wir betrachten das Anfangswertproblem

u0 (t) = (1 + sin(u(t)))2 , u(0) = 3.

Das Skalarfeld f (t, u) = (1 + sin u)2 ist stetig differenzierbar und für die
partielle Ableitung
∂u f (t, u) = 2(1 + sin u) cos u
gilt
|∂u f (t, u)| ≤ 2(1 + 1) · 1 = 4.
Somit erfüllt f die globale Lipschitz-Bedingung und das Anfangswertproblem
hat eine eindeutige Lösung auf jedem Intervall [0, T ] mit T > 0.

→ Alle Aussagen dieses Abschnittes lassen sich direkt auf Systeme gewöhnlicher
Differentialgleichungen

u0 (t) = f (t, u(t)), u(t0 ) = u0

mit gegebener u0 ∈ Rn , f : R × D ⊂ Rn+1 → Rn und einer gesuchten


Funktion u : [t0 , T ] → Rn . Die Lipschitzbedingung hat dann die Form

kf (t, u1 ) − f (t, u2 )k ≤ Lku1 − u2 k, für all u1 , u2 ∈ D

mit der euklidischen (oder einen anderen) Norm k·k.

6.3 Trennung der Variablen und Variation der


Konstanten
→ In diesem Abschnitt behandeln wir zwei wichtige Ansätze zur Lösung gewöhn-
licher Differentialgleichungen.

Trennung der Variablen


→ Wir betrachten die Gleichung der Form

u0 (t) = f (u)g(t).

Die Variablen u und t kommen in den beiden Faktoren f und g getrennt vor.

→ Formal geht man wie folgt vor:

113
1. Man schrieb die Gleichung in der Form
du
= f (u)g(t)
dt
und formt sie formal um als
1
du = g(t) dt,
f (u)
falls f (u) 6= 0.
2. Man integriert Z Z
1
du = g(t) dt.
f (u)
3. Mit der Stammfunktion F von f1 und der Stammfunktion G von g erhält
man dann
F (u) = G(t) + c
mit einer Konstante c.
4. Man bestimmt c aus der Anfangsbedingung u(t0 ) = u0 und löst die
obige Gleichung nach u auf.
→ Diese Herleitung ist nur formal, da man nicht ohne weiteres eine Gleichung
mit dt durchmultiplizieren darf. Man kann aber die Formel
F (u) = G(t) + c
für die Lösung der obigen gewöhnlichen Differentialgleichung auch rigoros
beweisen. Sei dafür u(t) eine Lösung. Man betrachtet die Funktion
h(t) = F (u(t)) − G(t).
1
mit einer Stammfunktion F von f
und einer Stammfunktion G von g, d. h.
1
F 0 (u) = und G0 (t) = g(t).
f (u)
Es gilt
1 u0 (t) − f (u(t))g(t)
h0 (t) = F 0 (u(t))u0 (t) − G0 (t) = u0 (t) − g(t) = = 0.
f (u(t)) f (u(t))
Somit gilt h(t) = c mit einer Konstante c und die Lösung u(t) muss die
Gleichung
F (u(t)) − G(t) = c
erfüllen.

114
→ Beispiel 1: Wir betrachten das Anfangswertproblem
u0 = ut, u(0) = 5
und erhalten
du 1
= ut ⇒ du = t dt
dt u
und somit Z Z
1
du = t dt.
u
Die Integration ergibt
1
ln(u) = t2 + c
2
und somit
1 2 1 2
u(t) = e 2 t +c
= e 2 t ec .
Aus der Anfangsbedingung u(0) = 5 erhalten wir ec = 5 und somit ist die
Lösung
1 2
u(t) = 5e 2 t .
Durch Testen
1 2
u0 (t) = 5e 2 t t = u(t)t.
kann man die Korrektheit der Lösung überprüfen.
→ Beispiel 2: Wir betrachten das Anfangswertproblem
u0 = −teu , u(0) = −2
und erhalten
du
= −teu ⇒ e−u du = −t dt
dt
und somit Z Z
−u
e du = − t dt.

Die Integration ergibt


1
−e−u = − t2 + c
2
Aus der Bedingugn u(0) = −2 haben wir
−e2 = c,
somit
1
e−u = t2 + e2
2
und  
1 2 2
u(t) = − ln t +e .
2

115
Variation der Konstanten
→ Wir betrachten die Gleichungen vom Typ
u0 (t) = f (t)u + g(t).
Für den Fall g(t) = 0, d.h. für die Gleichung
u0 (t) = f (t)u
erhalten wir mit Trennung der Variablen
Z Z
1
du = f (t) dt.
u
Sei F (t) eine Stammfunktion von f dann folgt
ln u = F (t) + c1
und somit
u = eF (t)+c1 = ec1 eF (t) = c eF (t)
mit einer Konstanten c = ec1 .
→ Um die Gleichung im Allgemeinen Fall, also g 6= 0 zu lösen, macht man den
folgenden Ansatz:
u(t) = c(t)eF (t)
mit der Stammfunktion F von f und einer t-abhängigen funktion c(t). Da
man hier eine Konstante durch eine Funktion ersetzt, spricht man von Va-
riation der Konstanten.
→ Für diesen Ansatz erhält man mit der Produkt- und der Kettenregel:
u0 (t) = c0 (t)eF (t) + c(t)eF (t) F 0 (t)
= c0 (t)eF (t) + c(t)eF (t) f (t)
= c0 (t)eF (t) + u(t)f (t)
Setzt man für u0 die Gleichung, also u0 = u(t)f (t) + g(t), ein, so erhält man
u(t)f (t) + g(t) = c0 (t)eF (t) + u(t)f (t)
und somit
g(t) = c0 (t)eF (t) ,
bzw.
c0 (t) = g(t)e−F (t) .
Dann bestimmt man c als eine Stammfunktion von g(t)e−F (t) und erhält die
Lösung der ursprünglichen Gleichung u(t) = c(t)eF (t) .

116
→ Beispiel: Man löse das Anfangswertproblem
u
u0 = − + cos t, u(π) = 1.
t
Für die Gleichung
u
u0 = −
t
erhält man
du u
=−
dt t
und somit Z Z
1 1
du = − dt.
u t
Daraus folgt
ln u = − ln t + c1
und somit
c
u = e− ln t+c1 = e− ln t ec1 =
t
c1
mit c = e . Für die ursprüngliche Gleichung machen wir also den folgenden
Ansatz:
c(t)
u(t) = .
t
Es gilt
c0 (t)t − c(t) c0 (t) u
u0 (t) = = − .
t2 t t
Aus der Gleichung hat man
u
u0 = − + cos t.
t
Daraus folgt
c0 (t)
= cos t
t
und somit Z
c(t) = t cos t dt.

Mit partieller Integration erhalten wir


Z Z
c(t) = t cos t dt = t sin t − sin t dt = t sin t + cos t + d.

Insgesamt folgt dann


c(t) t sin t + cos t + d cos t + d
u(t) = = = sin t + .
t t t

117
Wir setzen die Anfangsbedingung ein und erhalten
−1 + d
1 = u(π) = 0 + ⇒ d = π + 1.
π
Die Lösung ergibt sich als
cos t + π + 1
u(t) = sin t + .
t
Die Richtigkeit der Lösung kann man durch Testen überprüfen:
−t sin t − cos t − π − 1 u
u0 (t) = cos t + 2
= cos t −
t t
und
−1 + π + 1
u(π) = 0 + = 1.
π

6.4 Funktionen von Matrizen


→ Im nächsten Abschnitt werden wir Systeme linearer Differentialgleichungen
vom Typ
u0 (t) = Au(t), u(0) = u0
betrachten. Dabei ist eine Kurve u : I = [0; T ] → Rn gesucht, A ∈ Rn×n und
u0 ∈ Rn sind gegeben.

→ In der Analogie zu der Differentialgleichung u0 (t) = au werden wir zeigen,


dass die Lösung dieses Gleichungssystems sich wie folgt angeben lässt:

u(t) = etA u0 .

Um diese Konstruktion zu verstehen, müssen wir das Objekt eB mit einer


Matrix B sinnvoll definieren.

→ Polynome und rationale Funktionen von Matrizen lassen sich leicht definie-
ren.

Def. Sei p ∈ Pr ein Polynom r-ten Grades,

pr (x) = c0 + c1 x + · · · + cr−1 xr−1 + cr xr

und sei A ∈ Rn×n eine Matrix. Wir definieren p(A) ∈ Rn×n durch

p(A) = c0 In + c1 A + · · · + cr−1 Ar−1 + cr Ar .

118
Def. Sei die rationale Funktion f gegeben als

p(x)
f (x) =
q(x)

mit zwei Polynomen p und q. Sei außerdem A ∈ Rn×n derart gegeben, dass
q(A) invertierbar ist. Dann definieren wir f (A) ∈ Rn×n durch

f (A) = q(A)−1 p(A).

→ Ist q(A) invertierbar, so gilt:

f (A) = q(A)−1 p(A) = p(A)q(A)−1 (Übungsaufgabe).

→ Beispiel: Für
1 + 2x
f (x) =
1 + x2
gilt:
f (A) = (In + A2 )−1 (In + 2A).
– Achtung: Obwohl der Nenner 1 + x2 6= 0 für alle x, gibt es Matrizen A
für die In + A2 nicht invertierbar ist. Man kann sogar Matrizen A mit
In + A2 = 0 angeben, z. B.
   
0 1 2 −1 0
A= , A = = −I2 .
−1 0 0 −1

→ Es gibt verschiedene Matrizennormen. Wir werden im folgenden die sog.


Spektralnorm verwenden. Sei A ∈ Rn×n . Wir bezeichnen

kAxk
kAk2 = sup ,
x∈Rn , x6=0 kxk

wobei k·k die Euklidische Norm auf Rn beschreibt.

→ Es gelten folgende Eigenschaften dieser Norm (siehe Lineare Algebra):


(a) kAxk ≤ kAk2 kxk für alle A ∈ Rn×n und x ∈ Rn .
(b) kABk2 ≤ kAk2 kBk2 für alle A, B ∈ Rn×n .
(c) Sei A ∈ Rn×n symmetrisch, dann gilt

kAk2 = |λmax | = max { |λ| | λ ∈ R ist Eigenwert von A } .

119
(d) Sei A ∈ Rn×n beliebig, dann gilt
√
µ µ ∈ R+ ∪ {0} ist Eigenwert von AT A .

kAk2 = max

→ Wie bei reellen Zahlen und Vektoren betrachten wir Folgen von Matrizen:

A1 , A2 , . . . , Ak , . . .

Def. Eine Folge {Ak } ⊂ Rn×n konvergiert gegen eine Matrix A ∈ Rn×n , wenn

lim kAk − Ak2 = 0


k→∞

erfüllt ist.

→ Man kann diesen Konvergenzbegriff auch mit Hilfe einer anderen Matrizen-
norm (z. B. maximale Zeilensummennorm) definieren. Die resultierenden Be-
griffe sind äquivalent.

→ Es gilt: Die Folge {Ak } ⊂ Rn×n konvergiert gegen eine Matrix A ∈ Rn×n
genau dann wenn

lim Ak,ij = Aij für alle 1 ≤ i, j ≤ n


k→∞

erfüllt ist. D. h. die Konvergenz von Matrizen ist äquivalent zur komponen-
tenweisen Konvergenz.

→ Beispiel: Die Folge {Ak } mit


(−1)k
!
4k+1
2k
1+ k
Ak =
−3k
e 5

konvergiert für k → ∞ gegen


 
2 1
A= .
0 5

→ Es gelten die üblichen Rechenregeln:


(a) Aus Ak → A und Bk → B für k → ∞ folgt

αAk + βBk → αA + βB für k → ∞

mit α, β ∈ R.

120
(b) Aus Ak → A und Bk → B für k → ∞ folgt

Ak Bk → AB für k → ∞.

Def. Es sei eine Matrizenfolge {Ak } gegeben. Wir definieren die Partialsumme
l
X
Sl = A0 + A1 + A2 + · · · + Al = Ak .
k=0

Ist die Folge {Sl } konvergent, so spricht man von einer konvergenten Reihe:

X
Ak = lim Sl .
l→∞
k=0

→ Beispiele:
(a) Die Reihe
∞ 1
!
X k!
0
Ak mit Ak = 1 1
k=0 2k 5k

konvergiert gegen
! !
e 0 e 0
A= 1 1 = 5
.
1− 12 1− 51 2 4

(b) Die Reihe



!
X 2k 1
k! k
Ak mit Ak = 1 1
k=1 2k 5k

ist divergent, da die Komponente k1 zu einer divergenten Reihe führt.


Def. Eine Matrizenreihe ∞
P
k=0 Ak heißt absolut konvergent, wenn die reelle Reihe

X
kAk k2
k=0

konvergiert.

Satz 6.3 Ist eine Matrizenreihe absolut konvergent, so ist sie auch konvergent.

→ Dieser Satz wird wie für reelle (oder komplexe) Reihen mit Hilfe des Cauchy-
Kriteriums bewiesen, welches für Matrizenreihen analog zu den reellen Rei-
hen formuliert werden kann.

121
Def. Sei eine Funktion f durch eine Potenzreihe

X
f (x) = ck x k
k=0

mit dem Konvergenzradius R ∈ R+ ∪ {+∞} gegeben. Sei A ∈ Rn×n eine


Matrix mit kAk2 < R. Dann definieren wir f (A) ∈ Rn×n durch

X
f (A) = ck Ak .
k=0

→ Es gilt kAk k2 ≤ kAkk2 und somit ist die konvergente Reihe



X
|ck |kAkk2 (wegen kAk2 < R)
k=0

eine konvergente Majorante für die Reihe



X
|ck | kAk k2 .
k=0
P∞ k
Somit ist die Reihe k=0 ck A absolut konvergent, und nach Satz 6.3 auch
konvergent.

→ Mit Hilfe dieser Definition können wir alle Funktionen, die sich durch Po-
tenzreihen darstellen lassen, auch für Matrizen definieren. Da die Reihen für
ex , sin x und cos x für alle x ∈ R konvergieren, sind die Matrizen eA , sin A
und cos A für alle A ∈ Rn×n definiert. Es gilt z. B.

A
X 1 k 1 1
e = A = I + A + A2 + A3 + . . . .
k=0
k! 2 3!

→ Wie berechnet man eA für eine gegebene Matrix A ∈ Rn×n ?

→ Beispiele:
(a) Für  
a 0
A=
0 b
gilt:  k 
a 0
k
A =
0 bk

122
und somit
∞ ∞    a 
X
A 1 k X 1 ak 0 e 0
e = A = = .
k=0
k! k=0
k! 0 bk 0 eb

Analog erhält man für eine allgemeine Diagonalmatrix


 
a1 0 . . . 0
. .
 0 a2 . . .. 

A = diag(a1 , a2 , . . . an ) =  . .
 .. .. ... 0 

0 . . . 0 an

ea1
 
0 ... 0
... .. 
0 ea2 . 

A a1 a2 an
e = diag(e , e , . . . e ) =  .

.. ... ...
 . 0 
0 . . . 0 ean

(b) Für  
0 1
A=
0 0
gilt:  
2 0 0
A = und Ak = 0 für alle k ≥ 2.
0 0
Somit erhält man:
∞  
A
X 1 k 1 1
e = A =I +A= .
k! 0 1
k=0

Def. Eine Matrix A ∈ Rn×n heißt nilpotent, wenn es eine Zahl r ∈ N mit Ar = 0
gibt.

→ Sei A ∈ Rn×n nilpotent mit Ar = 0. Dann gilt:


∞ r−1
X 1 k X 1 k
eA = A = A .
k=0
k! k=0
k!

→ Ist eine Matrix A diagonalisierbar, so lässt sich eA direkt mit Hilfe der Ei-
genwerte und Eigenvektoren bestimmen.

123
Satz 6.4 Sei die Matrix A ∈ Rn×n diagonalisierbar, d. h. es existiere eine inver-
tierbare Matrix T und eine Diagonalmatrix

D = diag(λ1 , λ2 , . . . , λn )

mit Eigenwerten λi von A, so dass A = T DT −1 . Dann gilt:


 λ1 
e 0 ... 0
. . 
 0 eλ2 . . ..  −1

eA = T eD T −1 = T  . . T .
 .. .. ... 0 
0 . . . 0 e λn

Beweis:
Es gilt:

A2 = T DT −1 T DT −1 = T D2 T −1 , A3 = A2 A = T D2 T −1 T DT −1 = T D3 T −1 .

Analog erhält man (mit Hilfe der mathematischen Induktion):

Ak = T Dk T −1 .

Daraus folgt für die Partialsumme


l l l
!
X 1 k X 1 X 1 k
A = T Dk T −1 = T D T −1 .
k=0
k! k=0
k! k=0
k!

Somit erhält man nach dem Grenzübergang:



!
X 1
eA = T Dk T −1 = T eD T −1 .
k=0
k!

→ Analog kann man f (A) für eine diagonalisierbare Matrix A und eine durch
eine Potenzreihe gegebene Funktion f bestimmen. Es gilt dann:
 
f (λ1 ) 0 ... 0
. .. 
 0 f (λ2 ) . . .  −1

−1
f (A) = T f (D)T = T  . . . T .
 .. .. .. 0 
0 ... 0 f (λn )

124
→ Beispiel: Wir betrachten die Matrix
 
1 2
A= .
2 1
Es gilt
 
1−t 2
χA (t) = det = (1 − t)2 − 4 = t2 − 2t − 3 = (t − 3)(t + 1).
2 1−t
Daraus ergeben sich die Eigenwerte λ1 = 3 und λ2 = −1. Für die Eigenvek-
toren gilt:
     
−2 2 −2 2 1
→ und somit v1 = .
2 −2 0 0 1
Für v2 erhält man analog
     
2 2 2 2 1
→ und somit v2 = .
2 2 0 0 −1
Daraus ergibt sich die Darstellung
     
3 0 −1 1 1 −1 1 1 1
A=T T mit T = und T = .
0 −1 1 −1 2 1 −1
Wir erhalten
1 e3 + e−1 e3 − e−1
 3   
A e 0 −1
e =T T = .
0 e−1 2 e3 − e−1 e3 + e−1

→ Die Rechenregel ea+b = ea eb kann wie folgt für Matrizen verallgemeinert


werden:
→ Seien A, B ∈ Rn×n mit AB = BA gegeben. Dann gilt:

eA+B = eA eB .

Dies ist im Allgemeinen für AB 6= BA nicht erfüllt.


→ Für eine beliebige Matrix A ∈ Rn×n gilt: eA ∈ Rn×n ist invertierbar und
−1
eA = e−A .

Dies kann wie folgt begründet werden: Die Matrizen A und (−A) vertauschen
und deswegen gilt:
eA e−A = eA−A = e0 = In .

125
→ Wie berechnet man eA für nicht diagonalisierbare Matrizen? Jede Matrix
A ∈ Rn×n kann man darstellen als

A = T (D + N )T −1

mit einer invertierbaren Matrix T , einer Diagonalmatrix D und einer nilpo-


tenten Matrix N mit der Eigenschaft DN = N D. Diese Konstruktion erhält
man mit Hilfe der sog. Jordan-Normalform. Dann berechnet man eA wie
folgt:
eA = T eD+N T −1 = T eD eN T −1 .
Die Matrizen eD und eN lassen sich wie oben bestimmen.

→ Die Konstruktion der Jordan-Normalform ist für große Matrizen (numerisch)


instabil und eignet sich im Wesentlichen nur für Matrizen mit kleinen Werten
von n. Aus diesen Gründen gehen wir auf diese Konstruktion nicht ein.

→ Für große Systeme verwendet man approximative numerische Verfahren.

6.5 Systeme linearer Differentialgleichungen


→ In diesem Abschnitt betrachten wir Systeme von linearen Differentialglei-
chungen für die unbekannte Funktion
 
u1 (t)
 u2 (t) 
u : I = [0, T ] → Rn , u(t) =  .. 
 
 . 
un (t)

vom Typ
u0 (t) = Au(t), u(0) = u0
mit einer gegebenen Matrix A ∈ Rn×n und dem Anfangswert u0 ∈ Rn .

→ Sei A ∈ Rn×n . Wir betrachten die Abbildung

g : R → Rn×n , g(t) = etA .

Es gilt:
∞ ∞
X 1 k
X 1 k k
g(t) = (tA) = A t .
k=0
k! k=0
k!

126
Diese Funktion ist also als eine Potenzreihe gegeben. Wie für reelle Potenz-
reihen, kann man zeigen, dass sich die Ableitung durch gliedweise Differen-
tiation bestimmen lässt:
∞ ∞
0
X k k k−1 X 1
g (t) = A t =A Ak−1 tk−1 = AetA .
k=0
k! k=1
(k − 1)!

Durch eine entsprechende Rechnung erhält man auch

g 0 (t) = etA A = AetA .

Satz 6.5 Die eindeutige Lösung des Systems

u0 (t) = Au(t), u(0) = u0

ist gegeben durch


u(t) = etA u0 .

Beweis:
Zuerst zeigen wir, dass u(t) = etA u0 eine Lösung ist. Es gilt

u(0) = e0·A u0 = In u0 = u0

und
u0 (t) = AetA u0 = Au(t).
Die Eindeutigkeit folgt nach dem Satz von Picard-Lindelöf, da das Vektorfeld
f (u) = Au global Lipschitz-stetig ist.
#

→ Liegt der Anfangswert u0 zu einem Zeitpunkt t0 vor, d. h,

u0 (t) = Au(t), u(t0 ) = u0 ,

so ergibt sich die Lösung


u(t) = e(t−t0 )A u0 .

→ Beispiele:
(a) Wir betrachten das System

u0 (t) = Au, u(0) = u0

mit    
1 2 2
A= und u0 = .
2 1 3

127
Wir haben schon gezeigt, dass die Matrix A zwei reelle Eigenwerte hat
und diagonalisierbar ist. Es gilt
     
3 0 −1 1 1 −1 1 1 1
A=T T mit T = und T = .
0 −1 1 −1 2 1 −1
Dann folgt  
3t 0
tA = T T −1
0 −1t
und somit
1 e3t + e−t e3t − e−t
   
tA e3t 0 −1
e =T T = .
0 e−t 2 e3t − e−t e3t + e−t
Für die Lösung u(t) erhalten wir
1 e3t + e−t e3t − e−t 1 5e3t − e−t
    
tA 2
u(t) = e u0 = = .
2 e3t − e−t e3t + e−t 3 2 5e3t + e−t

(b) Wir betrachten das System

u0 (t) = Au, u(0) = u0

mit    
1 2 2
A= und u0 = .
0 1 3
Es gilt:
χA (t) = (1 − t)2 ,
der einzige (doppelte) Eigenwert ist λ = 1 und der Eigenraum ist
 
1
Vλ = Lin .
0

Somit ist die Matrix A nicht diagonalisierbar. Wir bestimmen etA auf
einem anderen Wege. Es gilt:
 
0 2
tA = tI + tB mit B = .
0 0
Wir erhalten
etA = etI etB = et IetB = et etB
(da die Matrizen tI und tB vertauschen) und

etB = I + tB, da (tB)2 = (tB)3 = · · · = 0.

128
Insgesamt folgt  
tA t 1 2t
e =e
0 1
und die Lösung u(t) ergibt sich als
    
tA t 1 2t 2 t 2 + 6t
u(t) = e u0 = e =e .
0 1 3 3

(c) Wir betrachten das System


u0 (t) = Au, u(0) = u0
mit    
a −b 2
A= , b 6= 0 und u0 = .
b a 3
Es gilt:
χA (t) = (a − t)2 + b2
und somit besitzt die Matrix A keine reellen Eigenwerte. Wir schreiben
die Matrix A als
 
0 −b
A = aI + B mit B = .
b 0
Es gilt
    2 
20 −b 0 −b −b 0
B = = = −b2 I
b 0 b 0 0 −b2
und somit
 
2l 2 l l 2l 2l+1 l 2l l 0 −b2l+1
B = (B ) = (−1) b I und B = (−1) b B = (−1)
b2l+1 0
und entsprechend
 
2l l 2l 2l 2l+1 l 0 −(tb)2l+1
(tB) = (−1) t b I und (tB) = (−1) .
(tb)2l+1 0
Insgesamt erhält man

tB
X 1
e = (tB)k
k=0
k!
∞ ∞  
X 1 l 2l
X 1 l 0 −(tb)2l+1
= (−1) (tb) I + (−1)
(2l)! (2l + 1)! (tb)2l+1 0
l=0 l=0
   
0 − sin(tb) cos(tb) − sin(tb)
= (cos(tb))I + = .
sin(tb) 0 sin(tb) cos(tb)

129
Daraus folgt
 
tA atI tB at tB at cos bt − sin bt
e =e e =e e =e
sin bt cos bt

und somit
    
tA cos bt − sin bt
at 2 at 2 cos bt − 3 sin bt
u(t) = e u0 = e =e .
sin bt cos bt 3 2 sin bt + 3 cos bt

→ Wir haben gesehen, dass die eindeutige Lösung des Gleichungssystems

u0 (t) = Au(t), u(0) = u0

durch
u(t) = etA u0
gegeben ist. Ist die Matrix A über R diagonalisierbar, so erlaubt die Lösung
eine etwas vereinfachte Darstellung. In diesem Fall existiert eine Basis aus
Eigenvektoren
v1 , v2 , . . . , vn
zu den reellen Eigenwerten

λ1 , λ2 , . . . , λn .

Wir betrachten die Transformationsmatrix T ∈ Rn×n , deren Spalten die


Eigenvektoren von A bilden, d. h.

T = v1 v2 . . . vn

und die Diagonalmatrix D ∈ Rn×n gegeben als


 
λ1 0 ... 0
. .
0 λ2 . . .. 

D = diag(λ1 , λ2 , . . . , λn ) =  . .. ..
 ..

. . 0
0 . . . 0 λn

Die Lösung ist gegegeben durch

u(t) = etA u0 = T etD T −1 u0 .

Wir betrachten die Darstellung des Vektors u0 in der Basis v1 , v2 , . . . , vn aus


Eigenvektoren:
u0 = c1 v1 + c2 v2 + · · · + cn vn .

130
Für den Vektor c ∈ Rn der Koeffizienten gilt dann
T c = u0 .
Somit erhält man für die Lösung:
u(t) = T etD T −1 u0 = T etD T −1 T c
 
e λ 1 t c1
λ2 t 
 e c2 

= T etD c = v1 v2 . . . vn  .. 
 . 
eλn t cn
= eλ1 t c1 v1 + eλ2 t c2 v2 + . . . eλn t cn vn .

→ Beispiel: Wir betrachten wieder das Beispiel


u0 (t) = Au, u(0) = u0
mit    
1 2 2
A= und u0 = .
2 1 3
Wir haben schon gezeigt, dass die Matrix A zwei reelle Eigenwerte λ1 = 3
und λ2 = −1 hat und diagonalisierbar ist. Die Eigenvektoren sind
   
1 1
v1 = , v2 = .
1 −1
Für die Lösung u(t) macht man den Ansatz
u(t) = c1 e3t v1 + c2 e−t v2 .
Die Koeffizienten c1 und c2 berechnet man, in dem man die Anfangsbedin-
gung u(0) = u0 einsetzt. Man erhält
c1 v1 + c2 v2 = u0
was zum Gleichungssystem
T c = u0
bzw.     
1 1 c1 2
= .
1 −1 c2 3
äquivalent ist. Man erhält
5 1
c1 = , c2 = − .
2 2
Dann folgt für die Lösung
5 1
u(t) = e3t v1 − e−t v2 .
2 2

131
→ Jetzt betrachten wir noch den Fall, wenn die Matrix A (wie im Beispiel
(c) oben) nicht-reelle Eigenwerte hat und über C diagonalisierbar ist. Das
Gleichungssystem

u0 (t) = Au(t), u(0) = u0 ∈ Rn

hat wie im oberen Fall die Darstellung


n
X
tA tD −1
u(t) = e u0 = T e T u0 = etλk ck vk ,
k=1

wobei λk die Eigenwerte, vk die Eigenvektoren und ck die Koeffizienten in


der Darstellung von u0 bzgl. der Basis aus Eigenvektoren sind, d. h.
n
X
u0 = ck vk .
k=1

Die Eigenwerte und die Eigenvektoren sind hier i.A. komplexwertig, die ge-
samte Darstellung ergibt aber eine reelle Funktion. Im folgenden diskutieren
wir diesen Zusammenhang und leiten eine direkte reellwertige Darstellung
her.

→ Hat eine reelle Matrix A einen komplexen Eigenwert λ, so ist die konjugierte
Zahl λ̄ ebenfalls ein Eigenwert von A. Wir betrachten examplarisch eine
Matrix A ∈ R2×2 mit einem komplexen Eigenwert λ = x + iy, y 6= 0 und
einem weiteren Eigenwert λ̄ = x − iy. Sei ein Eigenvektor zum Eigenwert λ
gegeben als v ∈ C2 , v = q + ip, q, p ∈ R2 . Ein Eigenvektor zu dem Eigenwert
λ̄ ist v̄ = q − ip. Wir betrachten die Darstellung

u0 = c1 v + c2 v̄.

Aus u0 ∈ R2 folgt ū0 = u0 und somit

c1 v + c2 v̄ = u0 = ū0 = c̄1 v̄ + c̄2 v.

Daraus ergibt sich c2 = c̄1 und mit c := c1 = c̄2 = a + bi haben wir

u0 = cv + c̄v̄.

Für die Lösung erhält man

u(t) = etλ cv + etλ̄ c̄v̄ = etλ cv + etλ cv = 2 Re(etλ cv).

132
Es gilt

etλ cv = et(x+iy) (a + bi)(q + ip) = etx (cos(ty) + i sin(ty)) · ((aq − bp) + i(ap + bq))
= etx (cos(ty)(aq − bp) − sin(ty)(ap + bq))
+ ietx (cos(ty)(ap + bq) + sin(ty)(aq − bp)).

Zusammenfassend haben wir


u(t) = 2 Re(etλ cv) = 2etx (cos(ty)(aq − bp) − sin(ty)(ap + bq))
= 2aetx (cos(ty)q − sin(ty)p) − 2betx (cos(ty)p + sin(ty)q).

→ Für ein System


u0 (t) = Au(t), u(0) = u0
mit einer allgemeinen Matrix A ∈ Rn×n , die über C diagonalisierbar ist, geht
man wie folgt vor:
1. Man bestimmt die Eigenwerte

λ1 , λ2 , . . . , λn ∈ C

und die entsprechenden Eigenvektoren

v1 , v2 , . . . , vn ∈ Cn ,

die eine Basis von Cn bilden.


2. Man setzt die Lösung u(t) als Summe folgender Terme an:
– Für einen reellen Eigenwert λk ∈ R betrachtet man den Summan-
den ck etλk vk mit dem noch zu bestimmenden Koeffizienten ck .
– Für ein Paar komplex konjugierter Eigenwerte λm = xm + iym und
λ̄m = xm − iym mit ym 6= 0 und den entsprechenden Eigenvek-
toren vm = qm + ipm sowie v̄m = qm − ipm betrachtet man zwei
Summanden

am etxm (cos(tym )qm −sin(tym )pm )+bm etxm (cos(tym )pm +sin(tym )qm )

mit den noch zu bestimmenden Koeffizienten am , bm .


3. Man bestimmt die Koeffizienten aus der Anfangsbedingung u(0) = u0 .

→ Beispiel: Wir betrachten das System

u0 (t) = Au, u(0) = u0

133
mit    
1 −2 2
A= , und u0 = .
2 1 3
Es gilt:
χA (t) = (1 − t)2 + 4
und somit hat man die Eigenwerte

λ = 1 + 2i und λ̄ = 1 − 2i.

Wir bestimmen einen Eigenvektor zum Eigenwert λ durch


   
−2i −2 i 1

2 −2i 0 0

und erhalten      
i 0 1
v= =1· +i· .
1 1 0
Wir setzten die Lösung u(t) wie folgt an
         
t 0 1 t 1 0
u(t) = ae cos(2t) − sin(2t) + be cos(2t) + sin(2t)
1 0 0 1
   
− sin(2t) cos(2t)
= aet + bet .
cos(2t) sin(2t)

Die Koeffizienten a und b werden mit Hilfe der Anfangsbedingung wie folgt
bestimmt:        
2 0 1 b
= u0 = u(0) = a +b = .
3 1 0 a
Daraus folgt a = 3, b = 2 und die Lösung ist gegeben als
   
t − sin(2t) t cos(2t)
u(t) = 3e + 2e .
cos(2t) sin(2t)

Das inhomogene System


→ Ein System vom Typ u0 (t) = Au(t) heißt homogen. Ein inhomogenes System
hat die Form
u0 (t) = Au(t) + f (t), u(0) = u0
mit einer gegebener Matrix A ∈ Rn×n , einem gegebenen Vektor u0 ∈ Rn und
einer gegebenen Funktion f : [0, T ] → Rn .

134
→ Um dieses System zu lösen, machen wir folgenden Ansatz:

u(t) = etA (u0 + c(t)).

Es gilt:

u0 (t) − Au(t) − f (t) = AetA (u0 + c(t)) + etA c0 (t) − AetA (u0 + c(t)) − f (t)
= etA c0 (t) − f (t).

Daraus ergibt sich die Gleichung

c0 (t) = e−tA f (t).

Die Funktion c kann also komponentenweise als Stammfunktion von e−tA f (t)
bestimmt werden. Insgesamt ergibt sich die Darstellung
 Z t 
tA −sA
u(t) = e u0 + e f (s) ds .
0

→ Man kann direkt zeigen, dass dies die eindeutige Lösung des inhomogenen
Systems ist.

→ Ist die Anfangsbedingung an der Stelle t0 vorgegeben, d. h.

u0 (t) = Au(t) + f (t), u(t0 ) = u0 ,

so hat die eindeutige Lösung die Darstellung


 Z t 
(t−t0 )A −(s−t0 )A
u(t) = e u0 + e f (s) ds .
t0

→ Beispiel: Wir betrachten das System

u0 (t) = Au(t) + f (t), u(0) = u0

mit      
1 2 2 1
A= , u0 = und f (t) =
2 1 3 1
Wir haben schon gezeigt:

e3t + e−t e3t − e−t


 
tA 1
e = .
2 e3t − e−t e3t + e−t

135
Somit gilt:
e−3s + es e−3s − es
     −3s   
−sA 1 1 e −3s 1
e f (s) = = −3s = e
2 e−3s − es e−3s + es 1 e 1
und Z t  
−sA 1 −3t 1
e f (s) ds = − (e − 1) .
0 3 1
Insgesamt erhält man
 Z t 
tA −sA
u(t) = e u0 + e f (s) ds
0
1 5e3t − e−t 1 1 − e−3t e3t + e−t e3t − e−t
    
1
= 3t −t + 3t −t 3t −t
2 5e + e 2 3 e −e e +e 1
−t −3t 3t
 3t   
1 5e − e (1 − e )e 1
= 3t −t +
2 5e + e 3 1
     
17 1 1 −1 1 1
= e3t + e−t − .
6 1 2 1 3 1

6.6 Lineare Differentialgleichungen höherer Ordnung


→ In diesem Abschnitt betrachten wir die Gleichungen höherer Ordnung vom
Typ
am u(m) (t) + am−1 u(m−1) (t) + · · · + a1 u0 (t) + a0 u = 0
für eine unbekannte Funktion u : I = [0, T ] → R. Diese Gleichung m-ter
Ordnung (mit am 6= 0) ist äquivalent zu einem System aus m Gleichungen
erster Ordnung. Man bezeichnet
v1 = u, v2 = v10 , v3 = v20 , . . . , vm = vm−1
0

und erhält
v10 = v2



v20 = v3






...
0


 vm−1 = vm
a0 a1 am−1


0
= − v1 − v2 − · · · −

 vm
 vm
am am am
bzw. v 0 = Av mit der entsprechenden Matrix A. Man kann leicht zeigen, dass
am χA (s) = am sm + am−1 sm−1 + · · · + a1 s + a0
gilt.

136
→ Basierend auf den Überlegungen aus dem letzten Abschnitt kann man her-
leiten, wie die Lösung u(t) von den Nullstellen dieses charakteristischen Po-
lynoms abhängt.
– Für eine k-fache reelle Nullstelle λ betrachtet man die Funktionen

eλt , teλt , . . . , tk−1 eλt

– Ist λ1/2 = a ± ib ein Paar jeweils k-facher komplex konjugierter Null-


stellen, so betrachtet man die Funktionen
eat cos(bt), eat sin(bt), teat cos(bt), teat sin(bt), . . . ,
tk−1 eat cos(bt), tk−1 eat sin(bt).

Die allgemeine Lösung der obigen Gleichung ergibt sich dann als eine Line-
arkombination dieser Funktionen.
→ Beispiele:
(a) Wir betrachten die Gleichung

u000 − 6u00 + 11u0 − 6u = 0.

Die charakteristische Gleichung

s3 − 6s2 + 11s − 6 = 0

besitzt die Nullstellen

λ1 = 1, λ2 = 2, λ3 = 3.

Die allgemeine Lösung hat somit die Form

u(t) = c1 et + c2 e2t + c3 e3t , c1 , c2 , c3 ∈ R.

Sind drei zusätzliche Bedingungen, z. B.

u(0) = 0, u0 (0) = 1, u00 (0) = 0

gegeben, so lassen sich die Konstanten c1 , c2 , c3 aus den folgenden Glei-


chungen bestimmen:

 u(0) = c1 + c2 + c3 = 0

u0 (0) = c1 + 2c2 + 3c3 = 1
 u00 (0) = c + 4c + 9c = 0

1 2 3

Es gilt: c1 = −2.5, c2 = 4, c3 = −1.5.

137
(b) Wir betrachten die Gleichung
u(4) − 4u000 + 5u00 − 4u0 + 4u = 0.
Die charakteristische Gleichung
s4 − 4s3 + 5s2 − 4s + 4 = 0
besitzt die Nullstellen
λ1 = λ2 = 2, λ3 = i, λ4 = −i
Die allgemeine Lösung hat somit die Form
u(t) = c1 e2t + c2 te2t + c3 cos t + c4 sin t, c1 , c2 , c3 , c4 ∈ R.

6.7 Stabilität
→ In diesem Abschnitt beschäftigen wir uns mit der (asymptotischen) Stabilität
stationärer Punkte einer autonomen Differentialgleichung.
Def. Eine Differentialgleichung heißt autonom, wenn sie nicht explizit von der
freien Variable t abhängt. D. h. die Gleichung der Form
u0 = f (u)
ist autonom.
→ Beispiel: Wir betrachten die folgende lineare autonome Gleichung
u0 = f (u), u(0) = u0 ,
mit f (u) = −2u+1. Löst man diese Gleichung mit dem Ansatz der Variation
der Konstanten, so erhält man die allgemeine Lösung
 
1 2t 1
u(t) = e + c0 e−2t = + c0 e−2t .
2 2
Setzt man die Bedingung u(0) = u0 ein, so erhält man
 
1 1 −2t
u(t) = + u0 − e .
2 2
Für u0 = 12 ist die Lösung des Anfangswertproblems u(t) = 12 . Man sagt,
dass 12 ein stationärer Punkt oder Gleichgewichtspunkt dieser Gleichung ist.
Ist u0 beliebig, so stellt man fest, dass
1
u(t) → , t → ∞.
2
1
Man sagt, dass 2 attraktiv und stabil ist.

138
Def. Ein Vektor v ∈ Rn heißt stationärer Punkt oder Gleichgewichtspunkt einer
autonomen Differentialgleichung

u0 = f (u),

wenn f (v) = 0 gilt.

→ Ist v ein stationärer Punkt der obigen Gleichung, so ist u(t) = v eine Lösung
dieser Gleichung (da u0 = 0 und f (u) = f (v) = 0) und somit eine Lösung
der Anfangswertaufgabe

u0 = f (u), u(0) = v.

Def. Ein stationärer Punkt v ∈ Rn einer autonomen Differentialgleichung

u0 = f (u),

heißt
(a) stabil, wenn es zu jedem ε > 0 ein δ > 0 gibt, so dass jede Lösung u
der obigen Differentialgleichung mit

ku(0) − vk < δ

in einer ε-Umgebung von v bleibt, d. h.

ku(t) − vk < ε für alle t ≥ 0

erfüllt;
(b) attraktiv, falls es ein δ > 0 gibt, so dass jede Lösung u der obigen
Differentialgleichung mit

ku(0) − vk < δ

für t → ∞ gegen v konvergiert, d. h.

lim u(t) = v.
t→∞

(c) asymtotisch stabil, wenn er stabil und attraktiv ist;


(d) instabil, wenn er nicht stabil ist.

→ Für n = 1 folgt die Stabilität aus der Attraktivität. Fr n > 1 folgt das im
Allgemeinen nicht.

139
→ Für den Fall eines autonomen linearen Systems

u0 (t) = Au(t) + b

kann man die Stabilität der stationären Punkte mit Hilfe der Eigenwerte der
Matrix A charakterisieren.

Satz 6.6 Sei v ∈ Rn mit


Av + b = 0
ein stationärer Punkt des obigen Gleichungssystems. Seien λ1 , λ2 , . . . , λn ∈ C die
Eigenwerte von A. Dann gelten folgende Aussagen:
(a) Der stationäre Punkt v ist genau dann asymptotisch stabil, wenn Re(λi ) < 0
für alle i gilt.

(b) Ist Re(λj ) > 0 für ein j, so ist v instabil.

→ Bei dem obigen Beispiel u0 = −2u + 1 war die Matrix A ∈ R1×1 gegeben als
A = (−2) mit dem einzigen Eigenwert λ = −2. Es gilt Re(λ) = −2 < 0 und
somit ist die Lösung der Gleichung

−2v + 1 = 0,

also v = 12 , ein asymptotisch stabiler stationärer Punkt.

→ Beispiele: Wir betrachten weitere Beispiel vom Typ


 
0 a
u (t) = Au(t), u(0) =
b

mit folgenden Matrizen A:


     
−1 0 1 0 0 1
1) A = , 2) A = , 3) A = ,
0 −2 0 −2 0 0
   
1 0 −1 0
4) A = , 5) A = .
0 0 0 0

→ In allen Fällen ist v = 0 ein stationärer Punkt. Wir erhalten


1) assymptotisch stabil
2) instabil
3) instabil, denn  
a + bt
u(t) = .
b

140
4) instabil
5) stabil, aber nicht assymptotisch stabil, denn
 −t 
ae
u(t) = .
b

→ Wir betrachten nun ein nichtlineares autonomes System

u0 = f (u)

mit einem stetig differenzierbaren Vektorfeld f : Rn → Rn .

→ Sei v ∈ Rn ein stationärer Punkt der obigen Gleichung, d. h. es gelte f (v) = 0.


Aus der (totalen) Differenzierbarkeit folgt

f (u) = f (v) +Jf (v)(u − v) + r(v; u) = Jf (v)(u − v) + r(v; u)


|{z}
=0

mit einem Restglied r(v; u), für das


r(v; u)
lim =0
ku−vk→0 ku − vk

erfüllt ist.

→ Man kann die Differentialgleichung also in der Form

u0 = Jf (v)(u − v) + r(v; u)

betrachten. Es stellt sich heraus, dass für die Stabiltät der lineare Anteil
Jf (v)(u − v) entscheidend ist.

Satz 6.7 Sei v ∈ Rn mit


f (v) = 0
ein stationärer Punkt der Gleichung

u0 = f (u).

Seien λ1 , λ2 , . . . , λn ∈ C die Eigenwerte der Jacobi-Matrix Jf (v). Es gelten folgende


Aussagen:
(a) Ist
Re(λi ) < 0 für alle i
erfüllt, so ist v asymptotisch stabil.

141
(b) Ist Re(λj ) > 0 für ein j, so ist v instabil.

→ Man beachte, dass im Gegensatz zu dem linearen System, die Bedingung

Re(λi ) < 0 für alle i

nur hinreichend und nicht notwendig für die asymptotische Stabilität ist.
Sind also alle Eigenwerte λi von Jf (v) nicht-positiv (λi ≤ 0) und ein λj = 0,
so kann man im Allgemeinen keine Aussage über die Stabilität des stati-
onären Punktes treffen.

→ Beispiel: Wir betrachten das System


 
0 u1 + u2 + 2
u = .
u2 − u21 + 4

Die stationären Punkte berechnen wir aus der Gleichung


 
u1 + u2 + 2
=0
u2 − u21 + 4

und erhalten zwei Punkte


   
−2 1
v= und w = .
0 −3

Es gilt  
1 1
Jf (u) =
−2u1 1
und somit    
1 1 1 1
Jf (v) = und Jf (w) =
4 1 −2 1
Die Matrix Jf (v) hat die Eigenwerte λ1 = −1 und λ2 = 3. Somit ist der
stationäre
√ Punkt v instabil. Die Matrix Jf (w) hat die Eigenwerte λ1,2 =
1 ± i 2 mit Re(λ1/2 ) = 1 > 0. Somit is der stationäre Punkt w ebenfalls
instabil.

142

Das könnte Ihnen auch gefallen