Skript
Skript
Skript
Sommersemester 2019
4. April 2019
2 Differentialrechnung in Rn : Vektorfelder 20
2.1 Differenzierbarkeit von Vektorfeldern, Jacobi-Matrix . . . . . . . . . . . 20
2.2 Krummlinige Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Implizite Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4 Mittelwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3 Extremwertaufgaben 47
3.1 Extremwertaufgaben ohne Nebenbedingungen . . . . . . . . . . . . . . . 47
3.2 Extremwertaufgaben unter Nebenbedingungen . . . . . . . . . . . . . . 56
4 Kurvenintegrale 64
4.1 Kurvenintegral eines Skalarfeldes . . . . . . . . . . . . . . . . . . . . . . 64
4.2 Kurvenintegral eines Vektorfeldes . . . . . . . . . . . . . . . . . . . . . . 65
4.3 Gradientenfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5 Mehrdimensionale Integralrechnung 73
5.1 Parameterabhängige Integrale . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2 Bereichsintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3 Flächenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.4 Integralsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2
1 Differentialrechnung in Rn:
Skalarfelder
1.1 Stetigkeit von Skalarfeldern
Def. Ein Skalarfeld ist eine Funktion f : Ω → R, wobei Ω ⊂ Rn eine Teilmenge
von Rn ist.
→ Beispiele:
(a) Sei Ω = Rn . Die Funktion
q
f (x) = kxk = x21 + x22 + · · · + x2n
Ω = Kr (x0 ) = { x ∈ Rn | kx − x0 k ≤ r }
Def. Sei Ω ⊂ Rn . Ein Punkt x ∈ Ω heißt innerer Punkt von Ω, falls es eine offene
Kugel Bε (x) (Umgebung) gibt, die ganz in Ω liegt, d. h. Bε (x) ⊂ Ω.
Def. Die Menge aller inneren Punkte von Ω heißt das Innere von Ω und wird mit
int(Ω) bezeichnet.
3
Def. Eine Menge Ω ⊂ Rn heißt offen, falls Ω = int(Ω) gilt.
Def. Sei Ω ⊂ Rn . Ein Punkt x ∈ Rn heißt Randpunkt von Ω, falls jede offene
Kugel Br (x) sowohl Punkte aus Ω als auch Punkte, die nicht in Ω liegen
enthält.
Def. Die Menge aller Randpunkte von Ω heißt der Rand von Ω und wird mit ∂Ω
bezeichnet.
Ω̄ = Ω ∪ ∂Ω.
Def. Eine Menge Ω ⊂ Rn heißt abgeschlossen, falls alle Randpunkte in der Menge
Ω enthalten sind, d. h.
∂Ω ⊂ Ω ⇔ Ω = Ω̄.
Def. Die Menge Ω ⊂ Rn heißt beschränkt, wenn es eine Konstante M > 0 gibt,
so dass
kxk ≤ M für alle x ∈ Ω
gilt.
→ Beispiele:
(a) Eine offene Kugel Br (x0 ) ist offen (Beweis als Übungsaufgabe). Es gilt:
und
Br (x0 ) = Kr (x0 ).
und
Kr (x0 ) = Kr (x0 ).
(c) Die Menge Ω = Rn ist sowohl offen als auch abgeschlossen. Es gilt:
int(Rn ) = Rn , ∂Rn = ∅.
4
(d) Die Menge Ω = (0, 1] ⊂ R ist weder abgeschlossen noch offen. Es gilt:
int(Ω) = (0, 1) und ∂Ω = {0, 1}.
→ Man kann folgende Regeln für den Umgang mit offenen und abgeschlossen
Mengen aufstellen (Übungsaufgabe):
– Sei A ⊂ Rn offen, dann ist Rn \ A abgeschlossen.
– Sei A ⊂ Rn abgeschlossen, dann ist Rn \ A offen.
– Seien A, B ⊂ Rn offen, dann sind auch A ∪ B und A ∩ B offen.
– Seien A, B ⊂ Rn abgeschlossen, dann sind auch A ∪ B und A ∩ B
abgeschlossen.
→ Wir betrachten Folgen {xk } ⊂ Rn in Rn analog zu den Folgen in R oder C:
x1 , x2 , x3 , . . . .
Ein Folgenglied xk ∈ Rn hat dann die Form
xk = (xk1 , xk2 , . . . , xkn )T ∈ Rn .
5
Def. Sei f : Ω ⊂ Rn → R ein Skalarfeld und sei y ∈ Ω. Man sagt, dass f (x) gegen
ein a ∈ R für x → y konvergiert,
lim f (x) = a,
x→y
gilt.
→ Basierend auf dieser Definition des Funktionengrenzwerts können wir den
Begriff der Stetigkeit eines Skalarfeldes definieren.
Def. Sei f : Ω ⊂ Rn → R ein Skalarfeld und sei y ∈ Ω. Man sagt, dass f stetig an
der Stelle y ist, wenn
lim f (x) = f (y)
x→y
gilt.
→ Das bedeutet, dass für jede Folge {xk } ⊂ Ω mit xk → y die Folge der
Funktionswerte {f (xk )} ⊂ R gegen f (y) konvergieren muss.
→ Wie für die Funktionen einer Veränderlichen ist die Summe, die Differenz,
das Produkt und die Komposition zweier stetigen Funktionen wieder stetig.
Auch der Quotient zweier stetigen Funktion ist stetig, wenn der Nenner von
Null verschieden ist.
→ Beispiele:
(a) Die lineare Funktion f (x) = aT x mit einem gegebenen Vektor a ∈ Rn
ist stetig.
(b) Die Funktion f (x) = xT Ax mit einer gegebenen Matrix A ∈ Rn×n ist
ebenfalls stetig.
(c) Die Funktion f : R2 → R mit
(
2xy
x2 +y 2
, (x, y) 6= (0, 0)
f (x, y) =
0, (x, y) = (0, 0)
ist unstetig im Ursprung. Wir betrachten die Folge
k k k 1 1
z = (x , y ) = ,
k k
und erhalten
2 k12
f (z k ) = = 1 6→ 0.
2 k12
6
Def. Für ein Skalarfeld f : Rn → R kann man partielle Funktionen an der Stelle
x̄ ∈ Rn betrachten: Man hält alle Variablen bis auf eine fest und setzt
φ1 (x1 ) = f (x1 , x̄2 , x̄3 , . . . , x̄n ), φ2 (x2 ) = f (x̄1 , x2 , x̄3 , . . . , x̄n ), . . . .
Satz 1.1 Eine Menge Ω ⊂ Rn ist genau dann kompakt, wenn sie beschränkt und
abgeschlossen ist.
Satz 1.2 Sei Ω ⊂ Rn eine kompakte Menge und sei f : Ω → R ein stetiges Skalar-
feld. Dann nimmt f auf Ω sein Minimum und Maximum an, d. h. es gibt Punkte
xm , xM ∈ Ω mit
f (xm ) = min f (x) und f (xM ) = max f (x).
x∈Ω x∈Ω
7
→ Um die Definition übersichtlicher zu schreiben, verwendet man den Einheits-
vektor ei ∈ Rn :
∂f f (x + hei ) − f (x)
(x) = lim .
∂xi h→0 h
→ Andere Schreibweisen für partielle Ableitungen sind
∂f
(x) = ∂xi f (x) = ∂i f (x).
∂xi
→ Entsprechend schreibt man für eine Funktion in zwei Variablen f (x, y):
∂f ∂f
(x, y) = ∂x f (x, y) und (x, y) = ∂y f (x, y).
∂x ∂y
→ Bei der Berechnung der partiellen Ableitung nach xi , werden alle anderen
Variablen “festgehalten”, d. h. sie werden als Konstanten betrachtet.
→ Beispiele:
(a) Für die Funktion f (x, y) = x2 y 3 + x gilt
∂f ∂f
(x, y) = 2xy 3 + 1 und (x, y) = 3x2 y 2 .
∂x ∂y
8
Def. Sei Ω ⊂ Rn eine offene Menge und f : Ω → R ein Skalarfeld und x ∈ Ω. Die
Funktion f heißt partiell differenzierbar an der Stelle x, wenn alle partiellen
Ableitungen an der Stelle x existieren.
→ Ist eine Funktion auf ganz Ω partiell differenzierbar, so definiert jede partielle
Ableitung eine Funktion (ein Skalarfeld):
∂f
: Ω → R.
∂xi
→ Fasst man alle partiellen Ableitungen einer Funktion zu einem Vektor zu-
sammen, so erhält man den Gradienten dieser Funktion.
→ Beispiele:
(a) Für f (x, y) = x2 y 3 + x gilt:
2xy 3 + 1
∇f (x, y) = .
3x2 y 2
9
(c) Für das Skalarfeld f : Rn → R, f (x) = xT Ax mit einer Matrix A ∈
Rn×n gilt:
∂f
(x) = eTi (A + AT )x.
∂xi
Somit ist die partielle Ableitung nach xi gleich der i-ten Komponente
des Vektors (A + AT )x. Daraus folgt
∇f (x) = (A + AT )x.
∇f (x) = 2Ax.
Def. Sei Ω ⊂ Rn eine offene Menge. Ein Skalarfeld f : Ω → R heißt total differen-
zierbar oder Fréchet-differenzierbar an der Stelle x ∈ Ω, falls es einen Vektor
b ∈ Rn gibt, so dass die Darstellung
f (x + d) = f (x) + bT d + o(kdk)
Beweis:
Man setzt d = hei und erhält:
Daraus folgt
∂f
bi = (x).
∂xi
#
→ Aus dem Satz folgt, dass man ein Fréchet-differenzierbares Skalarfeld in einer
Umgebung von x durch die lineare Funktion
approximieren kann.
→ Für reelle Funktionen folgt Stetigkeit aus der Differenzierbarkeit. Ist ein
Sklarfeld partiell differenzierbar, so muss es nicht notwendigerweise stetig
sein. Es gilt aber folgender Satz:
10
Satz 1.4 Ist das Skalarfeld f : Ω → R an der Stelle x ∈ Ω Fréchet-differenzierbar,
so ist f an der Stelle x stetig.
→ Die Rechenregeln lassen sich aus den entsprechenden Rechenregeln für reelle
Funktionen ableiten. Es gilt:
– ∇(f + g)(x) = ∇f (x) + ∇g(x),
– ∇(λf )(x) = λ∇f (x),
– ∇(f g)(x) = g(x)∇f (x) + f (x)∇g(x),
– ∇ fg (x) = g(x)
1
2 (g(x)∇f (x) − f (x)∇g(x)) .
→ Somit sind alle Polynome, alle rationalen Funktion (wenn der Nenner un-
gleich Null) usw. Fréchet-differenzierbar.
Def. Sei Ω ⊂ Rn eine offene Menge und f : Ω → R sei ein Skalarfeld. Die Rich-
tungsableitung im Punkt x in Richtung d ∈ Rn wird definiert als
f (x + hd) − f (x)
∂d f (x) = lim .
h→0 h
→ Aus der Definition folgt, dass die partielle Ableitung nach xi gleich der Rich-
tungsableitung in Richtung ei ist.
Beweis:
Sei d ∈ Rn eine gegebene Richtung. Es gilt:
Daraus folgt:
f (x + hd) − f (x)
= ∇f (x)T d + o(1)
h
und somit
∂d f (x) = ∇f (x)T d.
11
#
→ Beispiele:
(a) Die lineare Funktion f (x) = aT x mit einem a ∈ Rn ist Fréchet-differenzierbar
auf ganz Rn und die Richtungsableitungen sind gegeben als
∂d f (x) = ∇f (x)T d = aT d.
12
d. h.
f (d)
f (d) = o(kdk) ⇒ lim = 0.
d→0 kdk
und erhalten √
1
f (dk ) k3 1 2
= √ = √ = 6= 0.
kdk k 2 2 2 2 4
k2 k
Satz 1.6 Sei Ω ⊂ Rn offen und sei f : Ω → R ein stetig differenzierbares Skalar-
feld (f ∈ C 1 (Ω)). Dann ist f auf ganz Ω auch Fréchet-differenzierbar.
f (x) = g(r(x))
13
mit r(x) = kxk und g : R+ → R dargestellt. Es gilt:
v
u n
uX
r(x) = kxk = t x2i
i=1
und deshalb
∂r 2xi xi 1
(x) = pPn 2 = und ∇r(x) = x.
∂xi 2 i=1 xi
kxk kxk
Nach der Kettenregel erhält man dann:
∂f ∂r xi g 0 (kxk)
(x) = g 0 (r(x)) (x) = g 0 (kxk) und ∇f (x) = x.
∂xi ∂xi kxk kxk
Für das Skalarfeld f (x) = ln (kxk) definiert auf Rn \ {0} gilt
1 1 1
∇f (x) = x= x.
kxk kxk kxk2
→ Eine andere Variante der Kettenregel wird für die Betrachtung eines Skalar-
feldes entlang einer Kurve verwendet. Sei k : I = [a, b] → Rn eine differen-
zierbare Kurve, f : Ω ⊂ Rn → R ein Fréchet-differenzierbares Skalarfeld und
k(I) ⊂ Ω. Die Zusammensetzung f (k(t)) definiert eine reelle differenzierbare
Funktion
g : [a, b] → R, g(t) = f (k(t)).
Für die Ableitung g 0 (t) erhält man
n
0 0
X ∂f
T
g (t) = ∇f (k(t)) k (t) = (k(t)) ki0 (t).
i=1
∂x i
Für h → 0 konvergiert der erste Term auf der rechten Seite gegen ∇f (k(t))T k 0 (t),
für den zweiten Term gilt:
k(t + h) − k(t)
= k 0 (t) + o(1)
h
und somit konvergiert der zweite Term gegen Null.
14
→ Beispiel: Sei k : [0, 2π] → R2 die Kurve mit
k(t) = (cos t, sin t)T
und wir betrachten das Skalarfeld f : R2 → R mit f (x, y) = x2 + xy + y 2
entlang der Kurve k. Es gilt:
0 T 2x + y
k (t) = (− sin t, cos t) und ∇f (x, y) = .
x + 2y
Daraus folgt für die Ableitung der Funktion g(t) = f (k(t)):
g 0 (t) = ∇f (k(t))T k 0 (t)
= (2 cos t + sin t)(− sin t) + (cos t + 2 sin t) cos t
= cos2 t − sin2 t = 2 cos2 t − 1 = cos(2t).
15
Def. Sei Ω ⊂ Rn offen und es existieren alle zweiten partiellen Ableitung des
Skalarfeldes f : Ω → R auf ganz Ω. Sind diese Ableitungen stetig, so nennt
man das Skalarfeld f zweimal stetig differenzierbar. Die Menge aller zweimal
stetig differenzierbaren Funktionen bezeichnet man mit C 2 (Ω).
Satz 1.7 (Satz von Schwarz) Sei f : Ω → R und f ∈ C 2 (Ω). Dann gilt:
→ Im Allgemeinen (also wenn f 6∈ C 2 (Ω)) kann das Ergebnis von der Reihen-
folge der Ableitungen abhängen.
→ Der obige Satz kann auf höhere Ableitungen der Stufe m verallgemeinert
werden. Ist f ∈ C m (Ω), so hängen alle partiellen Ableitungen bis zur Stufe
m nicht von der Reihenfolge ab.
→ Nach Satz 1.7 gilt: Ist f ∈ C 2 (Ω), so ist die Hesse-Matrix symmetrisch für
alle x ∈ Ω.
→ Beispiele:
16
(b) Für die quadratische Funktion f (x) = xT Ax mit einer Matrix A ∈ Rn×n
erhält man
Man erhält xi
kxk − xi kxk 1 x2
∂xi ∂xi f (x) = = − i3
kxk2 kxk kxk
und für i 6= j:
x i xj
∂xi ∂xj f (x) = − .
kxk3
Insgesamt kann man daraus die folgende Darstellung der Hesse-Matrix ab-
leiten:
1 1
Hf (x) = In − xxT , für x 6= 0.
kxk kxk3
Dabei sind In ∈ Rn×n die Einheitsmatrix und xxT ∈ Rn×n die Matrix mit
den Einträgen
xxT ij = xi xj .
[a, a + h] = { a + th ∈ Rn | t ∈ [0, 1] } ⊂ Ω.
g(t) = f (a + th)
ein. Es gilt:
g(0) = f (a) und g(1) = f (a + h).
17
Def. Das Taylorpolynom Tm (a; a + h) des Skalarfeldes f an der Stelle a wird
definiert als
1 1 (m)
Tm (a; a + h) = g(0) + g 0 (0) + g 00 (0) + · · · + g (0).
2 m!
Mit Hilfe der Hesse-Matrix Hf (a) erhält man dann folgende Darstellung von
g 00 (0):
g 00 (0) = hT Hf (a)h.
Für die dritte Ableitung von g erhält man analog:
n
X
000
g (0) = ∂xi ∂xj ∂xk f (a) hi hj hk .
i,j,k=1
→ Aus den Restglieddarstellungen für das Restglied der Taylorformel für reelle
Funktionen erhält man
Rm+1 (a; a + h) = f (a + h) − Tm (a; a + h) = g(1) − Tm (a; a + h)
Z 1
1
= (1 − t)m g (m+1) (t) dt,
m! 0
18
→ Setzt man nur f ∈ C m (Ω) voraus, so kann man zeigen:
und
1
f (a + h) = f (a) + ∇f (a)T h + hT Hf (a)h + O(khk3 ), falls f ∈ C 3 (Ω).
2
∂x1 ∂x1 f (x1 , x2 ) = 6x1 ex2 , ∂x1 ∂x2 f (x1 , x2 ) = 3x21 ex2 , ∂x2 ∂x2 f (x1 , x2 ) = x31 ex2 .
Im Punkt a = (1, 0)T hat man:
3 6 3
f (1, 0) = 1, ∇f (1, 0) = und Hf (1, 0) = .
1 3 1
19
2 Differentialrechnung in Rn:
Vektorfelder
2.1 Differenzierbarkeit von Vektorfeldern,
Jacobi-Matrix
Def. Eine Funktion f : Ω ⊂ Rn → Rm heißt Vektorfeld. Ein Vektorfeld f besteht
aus m Skalarfeldern, die man Komponentenfunktionen fi : Ω → R nennt.
Ein Punkt (Vektor) x ∈ Ω ⊂ Rn wird auf ein Punkt f (x) ∈ Rm durch
f1 (x)
f2 (x)
f (x) = ..
.
fm (x)
abgebildet.
→ Die Begriffe des Grenzwertes und der Stetigkeit können komponentenweise
definiert werden.
Def. Ein Vektorfeld f : Ω ⊂ Rn → Rm heißt stetig an der Stelle x0 ∈ Ω, falls alle
Komponentenfunktionen fi : Ω → R an der Stelle x0 stetig sind.
Def. Sei f : Ω ⊂ Rn → Rm ein Vektorfeld. Man sagt, f ist (partiell) differenzierbar
an der Stelle x0 ∈ Ω, falls alle Komponentenfunktionen fi : Ω → R an der
Stelle x0 partiell differenzierbar sind. In diesem Falle existieren alle partiellen
Ableitungen
20
Def. Sei f : Ω ⊂ Rn → Rm ein Vektorfeld, das an der Stelle x ∈ Ω partiell
differenzierbar ist. Die Jacobi-Matrix oder Funktionalmatrix Jf (x) ∈ Rm×n
wird definiert als
∂1 f1 (x) ∂2 f1 (x) . . . ∂n f1 (x)
∂1 f2 (x) ∂2 f2 (x) . . . ∂n f2 (x)
Jf (x) = .
.. .. ..
. . .
∂1 fm (x) ∂2 fm (x) . . . ∂n fm (x)
→ Man stellt fest, dass die Zeilen der Matrix Jf (x) von den transponierten
Gradienten der Komponentenfunktionen fi gebildet werden. Es gilt:
∇f1 (x)T
∇f2 (x)T
Jf (x) = .
..
.
T
∇fm (x)
→ Ein Skalarfeld ist ein Spezialfall eines Vektorfeldes mit m = 1. Die Jacobi-
Matrix eines Skalarfeldes g : Ω ⊂ Rn → R ist eine 1 × n-Matrix mit
Jg (x) = ∇g(x)T .
→ Beispiele:
(a) Wir betrachten das Vektorfeld f : R2 → R3 mit
2
x1 x2
f (x) = sin x2 .
x21 + x22
f (x) = Ax
Jf (x) = A.
21
(c) Sei g : Ω ⊂ Rn → R ein Skalarfeld und sei g ∈ C 2 (Ω). Der Gradient ∇g
definiert dann ein differenzierbares Vektorfeld:
∇g : Ω → Rn .
22
aufgefasst. Für die Jacobi-Matrix gilt:
cos φ sin θ r cos φ cos θ −r sin φ sin θ
Jf (r, θ, φ) = sin φ sin θ r sin φ cos θ r cos φ sin θ .
cos θ −r sin θ 0
→ Durch Zurückführen auf die Regel für die Ableitungen skalarer Funktionen
erhält man die folgenden Rechenregeln für die Vektorfelder:
(a) Seien f, g : Ω ⊂ Rn → Rm zwei differenzierbare Vektorfelder, dann ist
die Linearkombination αf + βg mit α, β ∈ R auch differenzierbar und
es gilt:
Jαf +βg (x) = αJf (x) + βJg (x).
und
∇h(x) = Jh (x)T = Jf (x)T g(x) + Jg (x)T f (x).
(Übungsaufgabe).
→ Der Begriff der totalen bzw. der Fréchet-Ableitung wird ähnlich wie für Ska-
larfelder definiert.
Def. Sei Ω ⊂ Rn eine offene Menge. Ein Vektorfeld f : Ω → Rm heißt Fréchet-
differenzierbar (oder total differenzierbar) an der Stelle x ∈ Ω, falls es eine
lineare Abbildung T : Rn → Rm gibt, so dass folgende Darstellung erfüllt ist:
für khk → 0.
→ Ist das Vektorfeld f : Ω ⊂ Rn → Rm an der Stelle x ∈ Ω Fréchet-differenzierbar,
so folgt für die lineare Abbildung T die Darstellung
T (h) = Jf (x)h
23
→ Das Vektorfeld f ist genau dann Fréchet-differenzierbar, wenn alle Kompo-
nentenfunktionen Fréchet-differenzierbar sind.
→ Für die Fréchet-Ableitung schreibt man oft Df (x) und meint die lineare
Abbildung Df (x) : Rn → Rm . Die Jacobi-Matrix Jf (x) ist die Abbildungs-
matrix dieser Abbildung bezüglich der Standardbasis, es gilt:
Df (x)(h) = Jf (x)h.
Dieses Vektorfeld ist stetig differenzierbar und die Jacobi-Matrix ist gegeben
als
2x1 x2 x21
Jf (x) = 0 cos x2 .
2x1 2x2
Es gilt somit für die totale Ableitung Df (x) : R2 → R3 angewendet auf ein
h ∈ R2 :
2x1 x2 x21 2x1 x2 h1 + x21 h2
h
Df (x)(h) = Jf (x)h = 0 cos x2 1 = (cos x2 )h2 .
h2
2x1 2x2 2x1 h1 + 2x2 h2
Satz 2.1 Sei Ω ⊂ Rn offen und sei f : Ω → Rm ein stetig differenzierbares Vek-
torfeld (f ∈ C 1 (Ω)). Dann ist f auf ganz Ω auch Fréchet-differenzierbar.
24
→ Für die partiellen Ableitung folgt:
m
X
∂j hi (x) = ∂k gi (f (x))∂j fk (x).
k=1
∂r ũ = ∂x u cos φ + ∂y u sin φ
und
∂φ ũ = ∂x u(−r sin φ) + ∂y u r cos φ.
25
– Betrachtet man z. B. die Funktion u(x, y) = x2 + y 3 so erhält man:
und somit
∂r ũ = 2r cos2 φ+3r2 sin3 φ und ∂φ ũ = −2r2 cos φ sin φ+3r3 sin2 φ cos φ.
26
→ Formal kann die Divergenz als Skalarprodukt
∂1 f1
∂2 f2
div F = ∇ · F = .. · ..
. .
∂n fn
geschrieben werden.
Def. Für ein Vektorfeld F : Ω ⊂ R3 → R3 mit
f1 (x)
F (x) = f2 (x)
f3 (x)
definiert man die Rotation
∂2 f3 (x) − ∂3 f2 (x)
rot F (x) = ∂3 f1 (x) − ∂1 f3 (x) .
∂1 f2 (x) − ∂2 f1 (x)
27
→ Man rechnet leicht die folgende Identität nach: Sei f : Ω ⊂ Rn → R ein
zweimal stetig differenzierbares Skalarfeld, dann gilt
div(∇f ) = ∆f.
rot(∇f ) = 0.
div(rot F ) = 0.
oder äquivalent
gi = { x ∈ Rn | x = x0 + tei , t ∈ R } ,
28
x2
g2
e2
g1 x0
e1
x1
oder äquivalent
gi = { x = F (u) ∈ Rn | u ∈ Ω, u = u0 + tei , t ∈ R } .
→ Beispiel: Polarkoordinaten:
2 r cos φ
F : Ω = [0, +∞) × [0, 2π) → R mit x = F (u) = F (r, φ) = .
r sin φ
Hier ist u = (r, φ). Die Koordinatenlinien durch einen Punkt x0 = F (r0 , φ0 ) ∈
R2 mit r0 > 0 sind die Halbgerade durch den Ursprung und x0 sowie die
Kreislinie durch x0 :
2 (r0 + t) cos φ0
g1 = x ∈ R x = F (r0 + t, φ0 ) = , t∈R
(r0 + t) sin φ0
29
und
2 r0 cos(φ0 + t)
g2 = x ∈ R x = F (r0 , φ0 + t) =
, t∈R ,
r0 sin(φ0 + t)
siehe Abbildung 2.2.
x2
g2
eφ
x0 er
g1
x1
→ Schränkt man die freie Variable t auf ein Intervall (z.B. t ∈ [−ε, ε], ε > 0) ein,
so wird durch die Koordinatenlinie eine Kurve durch den Punkt x0 definiert:
x = ki (t) = F (u0 + tei ), t ∈ [−ε, ε].
30
→ Damit diese Koordinatenvektoren eine Basis bilden, müssen sie linear un-
abhängig sein. Dies ist genau dann der Fall, wenn die Matrix JF (u0 ) regulär
ist, d. h. det(JF (u0 )) 6= 0.
→ Sei also x0 = F (u0 ) ein regulärer Punkt. Dann bilden die Spalten der Jacobi-
Matrix JF (u0 ),
JF (u0 ) = c1 c2 . . . cn ,
eine Basis (lokale Basis im Punkt x0 = F (u0 )). Die Längen dieser Vektoren
heißen Maßfaktoren hi = kci k.
→ Normiert man diese Basis, so erhält man eine normierte lokale Basis im
Punkt x0 = F (u0 ).
1 1 1
eu1 = c1 , eu2 = c2 , . . . , eun = cn .
h1 h2 h1
→ Beispiele:
(a) Polarkoordinaten: Für die Transformation
r cos φ
x = F (u) = F (r, φ) =
r sin φ
31
gilt
cos φ −r sin φ
JF (u) = JF (r, φ) = .
sin φ r cos φ
Diese Matrix ist für r 6= 0 regulär (det(JF (r, φ)) = r). Die Spalten dieser
Matrix
cos φ −r sin φ
c1 = , c2 =
sin φ r cos φ
sind orthogonal zu einander. Die Maßfaktoren erhält man durch
q
h1 = kc1 k = sin2 φ + cos2 φ = 1 und h2 = kc2 k = r.
h1 = 1, h2 = r, h3 = 1
32
gilt
cos φ sin θ r cos φ cos θ −r sin φ sin θ
JF (u) = JF (r, θ, φ) = sin φ sin θ r sin φ cos θ r cos φ sin θ .
cos θ −r sin θ 0
Für diese Matrix gilt det(JF (u)) = r2 sin θ. Somit ist diese Matrix für r 6= 0
und 0 < θ < π regulär. Auch hier kann man direkt nachrechnen, dass die
Spalten von JF (u) orthogonal sind. Somit handelt es sich bei Kugelkoordi-
naten auch um orthogonale Koordinaten. Für die Maßfaktoren erhält man
h1 = 1, h2 = r, h3 = r sin θ
oder äquivalent
bzw.
∇g̃(u) = JF (u)T ∇g(x), mit x = F (u).
Daraus ergibt sich
−1
∇g(x) = JF (u)T ∇g̃(u).
Diese Formel vereinfacht sich im Falle der orthogonalen Koordinaten. Es gilt
dann:
JF (u) = BH
33
mit einer orthogonalen Matrix B (B T = B −1 ) bestehend aus den normierten
lokalen Basisvektoren
B = eu1 eu2 . . . eun
und der Diagonalmatrix H bestehend aus den Maßfaktoren:
h1 0 . . . 0
. .
0 h2 . . ..
H=. . .
.. .. ... 0
0 . . . 0 hn
Daraus folgt:
−1 −1 −1
JF (u)T = (BH)T = H T BT = BH −1
und somit
∇g(x) = BH −1 ∇g̃(u).
Schreibt man das explizit aus, so erhält man die Darstellung des Gradienten
(bzgl. x) in der neuen Basis:
1 1 1
∇g(x) = ∂u1 g̃(u) · eu1 + ∂u2 g̃(u) · eu2 + · · · + ∂un g̃(u) · eun .
h1 h2 hn
→ Man erhält folgende Darstellungen in Polar-, Zylinder- und Kugelkoordina-
ten:
→ Polarkoordinaten:
1
∇g(x) = ∂r g̃(r, φ) · er + ∂φ g̃(r, φ) · eφ ,
r
→ Zylinderkoordinaten:
1
∇g(x) = ∂r g̃(r, φ, z) · er + ∂φ g̃(r, φ, z) · eφ + ∂z g̃(r, φ, z) · ez ,
r
→ Kugelkoordinaten:
1 1
∇g(x) = ∂r g̃(r, θ, φ) · er + ∂θ g̃(r, θ, φ) · eθ + ∂φ g̃(r, θ, φ) · eφ .
r r sin θ
→ Beispiel: Wir betrachten das Skalarfeld g(x) = ln(x21 + x22 + x23 ). Bzgl. der
Kugelkoordinaten erhält man
g(x) = g̃(r, θ, φ) = ln(r2 )
und somit
2
∇g(x) = ∂r g̃(r, θ, φ) · er = · er .
r
34
Vektorfelder in krummlinigen Koordinaten
→ Sei ein Vektorfeld G : Rn → Rn gegeben. Bezüglich der kartesischen Stan-
dardbasis gilt die Darstellung:
g1 (x)
g2 (x)
G(x) = .. = g1 (x) · e1 + g2 (x) · e2 + · · · + gn (x) · en .
.
gn (x)
mit
g̃i (u) = gi (F (u)).
Im nächsten Schritt wollen wir dieses Vektorfeld bzgl. der lokalen Basis
eu1 , eu2 , . . . , eun darstellen, d. h. die Koeffizentenfunktionen ĝi (u) von
ĝ1 (u)
ĝ2 (u)
Ĝ(u) = ..
.
ĝn (u)
bestimmen, so dass
mit x = F (u) gilt. Die letzte Gleichheit kann äquivalen in der Matrixschreib-
weise formuliert werden
G̃(u) = B Ĝ(u)
35
mit
B = eu1 eu2 . . . eun .
Daraus folgt
Ĝ(u) = B −1 G̃(u) = B −1 G(x)
mit x = F (u). Ist F eine orthogonale Transformation, so ist die Matrix B
orthogonal und man erhält
G : { x ∈ R3 | x1 6= 0 or x2 6= 0 } → R3
mit
−x2
1 x1 .
G(x) = 2
x1 + x22
0
Wir stellen dieses Vektorfeld bzgl. der Zylinderkoordinaten dar. Es gilt
−r sin φ
1
G(x) = G̃(r, φ, z) = 2 r cos φ
r
0
und
cos φ − sin φ 0
B = er eφ ez = sin φ cos φ 0 .
0 0 1
Somit folgt
cos φ sin φ 0 −r sin φ 0
T 1
Ĝ(r, φ, z) = B G̃(r, φ, z) = − sin φ cos φ 0
r cos φ = 1r .
r2
0 0 1 0 0
→ In vielen weiteren Situationen ist die Funktion y = g(x) als Lösung einer
Gleichung f (x, y) = 0 implizit gegeben.
→ Beispiele:
36
(a) Wir betrachten das Skalarfeld f : R2 → R mit f (x, y) = 2x + 3y + 3.
Durch die Gleichung f (x, y) = 0 ist eindeutig die Funktion y = g(x)
mit der Eigenschaft
f (x, g(x)) = 0
implizit definiert. Diese Funktion erlaubt auch eine explizite Darstel-
lung, da die Gleichung f (x, y) = 0 nach y explizit aufgelöst werden
kann. Es gilt:
2
y = g(x) = − x − 1.
3
(b) Wir betrachten das Skalarfeld f : R2 → R mit
f (x, y) = ey + y 3 − x2 − x3 − 1.
Die Funktion h(y) = ey + y 3 ist streng monoton steigend und hat als
Wertebereich R. Das heißt, für jede reelle Zahl a ∈ R gibt es genau ein
y mit h(y) = a. Somit gibt es auch für jedes x ∈ R genau ein y mit
ey + y 3 = x2 + x3 + 1.
Dadurch ist die Funktion y = g(x) eindeutig definiert. Sie erfüllt die
Gleichung
f (x, g(x)) = 0 für alle x ∈ R.
Für diese Funktion findet man aber keine explizite Darstellung.
(c) Betrachtet man die Gleichung für die Kreislinie:
f (x, y) = x2 + y 2 − r2 = 0, r > 0,
und √
g1 : [−r; r] → [−r, 0], y = g2 (x) = − r2 − x2 .
f (x, g(x)) = 0
gegeben, so erhält man für die Ableitungen (falls existent) nach der Ketten-
regel:
1
= ∂x f (x, g(x)) + ∂y f (x, g(x))g 0 (x).
0 = ∂x f (x, g(x)) ∂y f (x, g(x))
g 0 (x)
37
Falls ∂y f (x, g(x)) 6= 0 erhält man
∂x f (x, g(x))
g 0 (x) = − .
∂y f (x, g(x))
→ Ist f ∈ C 2 (D) und sind die Voraussetzungen des Satzes 2.3 erfüllt, so ist
auch die Funktion g zweimal stetig differenzierbar. Die zweite Ableitung
von g erhält man, wenn man die Gleichung f (x, g(x)) = 0 zweimal nach x
ableitet. Einmal nach x abgeleitet entsteht die Gleichung
→ Beispiele:
38
(a) Wir betrachten wieder die Funktion
f (x, y) = ey + y 3 − x2 − x3 − 1.
Somit liefert der obige Satz die Existenz einer implizit definierten Funk-
tion g : I → K mit I = (−ε, ε), K = (−δ, δ), ε, δ > 0 mit g(0) = 0 und
Obwohl die Funktion g nicht explizit angegeben werden kann, lässt sich
ihre Ableitung bestimmen als:
∂x f (x, g(x))
g 0 (x) = − .
∂y f (x, g(x))
Es gilt:
∂x f (x, y) = −2x − 3x2
und somit
−2x − 3x2 2x + 3x2
g 0 (x) = − = .
eg(x) + 3g(x)2 −g(x)3 + 3g(x)2 + x2 + x3 + 1
39
→ Wir haben das Konzept der impliziten Funktionen für eine Gleichung mit
zwei Variablen betrachtet. Für ein System aus m Gleichungen in n Varia-
blen und m < n ist es unter Umständen möglich, bis zu m Variablen zu
“eliminieren”.
F (z) = 0, z ∈ Rk+m .
Man kann jeden Vektor z ∈ Rk+m als ein Paar z = (x, y) mit x ∈ Rk und
y ∈ Rm schreiben. In Analogie zu dem eindimensionalen Fall sucht man ein
Vektorfeld G : Rk → Rm mit
F (x, G(x)) = 0.
Die Bedingung für die Existenz einer solchen implizit definierten Funktion in
einer Umgebung der Stelle z0 = (x0 , y0 ) mit F (z0 ) = 0 ist die folgende: Die
Teilmatrix JF,y (z0 ) ∈ Rm×m der Jacobi-Matrix JF (z0 ) ∈ Rm×(m+k) bestehend
aus
∂j fi (z0 ) 1 ≤ i ≤ m, k + 1 ≤ j ≤ k + m
soll invertierbar sein.
→ Beispiele:
(a) Sei
1
f : R3 → R,f (x, y, z) = sin(x + y − z 2 ) − √ .
2
Wir betrachten die Gleichung
f (x, y, z) = 0.
und daher
Jf (x0 , y0 , z0 ) = √1 √1 0 .
2 2
40
Man kann die Gleichung f (x, y, z) = 0 in einer Umgebung des Punktes
( π4 , 0, 0) nach x oder nach y auflösen.
Auflösen nach x: Es gibt Bε ((0, 0)) ⊂ R2 , ein Intervall K = ( π4 −δ, π4 +δ)
und
g : Bε ((0, 0)) ⊂ R2 → K
mit
f (g(y, z), y, z) = 0 für alle (y, z) ∈ Bε ((0, 0)).
Wie bestimmt man die Ableitung von g(y, z) ? Die Gleichung
f (g(y, z), y, z) = 0
∂x f (g(y, z), y, z)·∂y g(y, z)+∂y f (g(y, z), y, z)·1+∂z f (g(y, z), y, z)·0 = 0
∂y f (g(y, z), y, z)
⇒ ∂y g(y, z) = − = −1.
∂x f (g(y, z)), y, z)
Analog erhält man:
∂z f (g(y, z), y, z)
∂z g(y, z) = − = 2z.
∂x f (g(y, z), y, z)
41
und
4 4 0
JF (x0 , y0 , z0 ) =
π π π
4 0
Die Teilmatrix JF,(y,z) = ist invertierbar. Es gibt eine implizite
π π
Funktion g : I → V ⊂ R2 , V = Bδ ((2, 0)), I = (2 − ε, 2 + ε) mit
F (x, g(x)) = 0
oder
g1 (x)
F (x, g1 (x), g2 (x)) = 0, g(x) =
g2 (x)
für alle x ∈ I.
Wie bestimmt man die Ableitungen von g(x) ? Es gilt
Mit
x
F : R3 → R2 , G : R → R3 , G(x) = g1 (x)
g2 (x)
folgt
F (G(x)) = 0 für alle x ∈ I.
Wir leiten diese Gleichung nach x ab und erhalten mit der Kettenregel
JF (G(x)) · JG (x) = 0
1
2x 2y −2z
⇒ · g10 (x) = 0
π cos πx π cos πy π cos πz
g20 (x)
mit y = g1 (x) und z = g2 (x). Dieses Gleichungssystem ist äquivalent zu
0
2y −2z g1 (x) 2x
=−
π cos πy π cos πz g20 (x) π cos πx
0 −1
g1 (x) 2g1 (x) −2g2 (x) 2x
⇒ =− .
g20 (x) π cos πg1 (x) π cos πg2 (x) π cos πx
42
→ Eine wichtige Folgerung aus dem Satz über implizite Funktionen ist der Satz
von der Umkehrabbildung. Ist ein Vektorfeld F : Ω ⊂ Rn → Rn umkehrbar,
dann gilt:
F −1 (F (x)) = x für alle x ∈ Ω.
Sind F und F −1 stetig differenzierbar, so folgt aus der Kettenregel:
JF −1 (F (x))JF (x) = I
Satz 2.4 Sei Ω ⊂ Rn offen und sei F : Ω → Rn ein stetig differenzierbares Vek-
torfeld. Sei x0 ∈ Ω, y0 = F (x0 ) und sei die Jacobi-Matrix JF (x0 ) invertierbar.
Dann gibt es eine Umgebung U ⊂ Ω von x0 und eine Umgebung V ⊂ F (Ω) von
y0 , so dass F die Menge U auf die Menge V bijektiv abbildet. Die Umkehrfunktion
F −1 : V → U ist stetig differenzierbar und es gilt:
JF −1 (F (x)) = (JF (x))−1 für alle x ∈ U.
→ Beispiel: Für die Transformation auf Polarkoordinaten gilt
2 r cos φ
F : [0, +∞) × [0, 2π) → R mit F (r, φ) =
r sin φ
und
cos φ −r sin φ
JF (r, φ) = .
sin φ r cos φ
Man erhält
det JF (r, φ) = r cos2 φ + r sin2 φ = r.
Die Matrix JF (r, φ) ist für alle (r, φ) mit r 6= 0 invertierbar und somit gibt
es in der Umgebung jedes solchen Punktes eine Umkehrabbildung F −1 .
2.4 Mittelwertsatz
→ Für skalare Funktionen haben wir den Mittelwertsatz in folgender Form be-
wiesen: Sei f : I → R stetig differenzierbar und seien x, y ∈ I, x < y. Dann
gibt es eine Zwischenstelle ξ ∈ (x, y) mit
f (y) − f (x) = f 0 (ξ)(y − x).
Eine wichtige Folgerung daraus ist die Abschätzung:
|f (y) − f (x)| ≤ C|x − y|
mit
C = max |f 0 (t)|.
t∈[x,y]
43
→ Der Mittelwertsatz kann direkt auf Skalarfelder f : Ω → R übertragen wer-
den. Dafür muss die ganze Verbindungsstrecke [x, y] gegeben als
in Ω liegen.
Def. Eine Menge Ω ⊂ Rn heißt konvex, wenn für alle x, y ∈ Ω gilt: [x, y] ⊂ Ω.
mit
C = max k∇f (z)k.
z∈[x,y]
Beweis:
Wir definieren eine skalare Funktion g : [0, 1] → R durch
Es gilt: g(0) = f (x) und g(1) = f (y). Nach dem Mittelwertsatz für skalare Funk-
tionen gibt es ein s ∈ (0, 1) mit
und somit
44
→ Beispiel: Sei Ω = B1 (0) ⊂ R3 die Einheitskugel und sei f : Ω → R gegeben
als
f (x) = x21 − 3x22 + x3 .
Es gilt:
2x1
∇f (x) = −6x2
1
und somit
q √
k∇f (x)k = 4x21 + 36x22 + 1 ≤ 41 für alle x ∈ Ω,
ξ1 , ξ2 , . . . , ξm ∈ [x, y]
mit
fi (y) − fi (x) = ∇fi (ξi )T (y − x),
die aber im Allgemeinen verschieden sind. Und es gibt im Allgemeinen keine
Zwischenstelle ξ ∈ [x, y] mit F (y) − F (x) = JF (ξ)(y − x).
Dies ist eine Kurve (und somit auch ein Vektorfeld), die den Viertelkreis in
R2 beschreibt. Es gilt
0 1 −1
F (1) − F (0) = − =
1 0 1
45
und !
π
π − sin 2
t
JF (t) = F 0 (t) = π
.
2 cos 2
t
Wir wollen an dem Beispiel sehen, dass es keine Stelle ξ ∈ (0, 1) gibt mit
F (1) − F (0) = F 0 (ξ).
Dies folgt, da
√ π
kF (1) − F (0)k = 2 und kF 0 (t)k = für alle t ∈ [0, 1].
2
→ Es gilt aber die “Ungleichungsvariante” des Mittelwertsatzes:
Satz 2.6 Sei Ω ⊂ Rn eine offene Menge und F : Ω → Rm ein stetig differenzier-
bares Vektorfeld. Seien x, y ∈ Ω und [x, y] ⊂ Ω. Dann gilt:
kF (y) − F (x)k ≤ C ky − xk,
wobei die Konstante C ist gegeben als
C = max |||JF (z)|||
z∈[x,y]
Beweis:
Sei w ∈ Rm beliebig. Wir betrachten ein Skalarfeld g : Ω → R mit
g(x) = wT F (x).
Es gilt:
∇g(x) = JF (x)T w.
Nach dem Mittelwertsatz für Skalarfelder gibt es ein ξ ∈ [x, y] mit:
wT (F (y) − F (x)) = g(y) − g(x) = ∇g(ξ)T (y − x) = wT JF (ξ)(y − x).
Wir setzen w = F (y) − F (x) und erhalten:
kF (y) − F (x)k2 = (F (y) − F (x))T (F (y) − F (x))
= (F (y) − F (x))T JF (ξ)(y − x) ≤ kF (y) − F (x)kkJF (ξ)(y − x)k.
Daraus folgt:
kF (y) − F (x)k ≤ kJF (ξ)(y − x)k ≤ |||JF (ξ)||| ky − xk ≤ C ky − xk.
#
46
3 Extremwertaufgaben
3.1 Extremwertaufgaben ohne Nebenbedingungen
→ Sei ein Skalarfeld f : Ω ⊂ Rn → R gegeben. In vielen Situationen sucht man
nach Minima und Maxima der Funktion f auf Ω. Im Allgemeinen ist es sehr
schwierig, globale Extrema zu finden. Wir werden uns deswegen mit lokalen
Minima und Maxima beschäftigen.
gilt.
in einer Umgebung Bε (x̂), so spricht man von einem strikten lokalen Mini-
mum.
→ Die Begriffe eines lokalen und eines strikten lokalen Maximums werden ent-
sprechend definiert.
→ Im folgenden Satz formulieren wir eine notwendige Bedingung für ein lokales
Extremum.
Beweis:
Für den Einheitsvektor ei ∈ Rn definieren wir die Funktion
47
Da x̂ ein innerer Punkt von Ω ist, gibt es ein δ > 0, so dass Bδ (x̂) ⊂ Ω. Somit
ist die Funktion gi auf dem offenen Intervall (−δ, δ) definiert und differenzierbar.
Nach Definition der partiellen Ableitung von f gilt:
∂f
gi0 (t) = (x̂ + tei ).
∂xi
Da das Skalarfeld an der Stelle x̂ ein lokales Extremum besitzt, hat die Funktion
gi (t) ein lokales Extremum an der Stelle t = 0. Daraus folgt:
gi0 (0) = 0
und somit
∂f
(x̂) = 0.
∂xi
Insgesamt erhält man ∇f (x̂) = 0.
Def. Ein Punkt x̂ ∈ int(Ω) mit ∇f (x̂) = 0 heißt ein stationärer Punkt von f .
→ Ein stationärer Punkt kann es ein Minimum, ein Maximum oder keines der
beiden sein.
Def. Ein stationärer Punkt, der weder ein Maximum noch ein Minimum ist, heißt
Sattelpunkt.
48
→ Weitere Informationen über mögliche Extremalstellen erhält man mit Hilfe
der Hessematrix Hf (x).
→ Ist das Skalarfeld f : Ω ⊂ Rn → R zweimal stetig differenzierbar, d. h. f ∈
C 2 (Ω), so ist die Matrix Hf (x) ∈ Rn×n symmetrisch. Deshalb ist die Matrix
Hf (x) diagonalisierbar und besitzt n reelle Eigenwerte λ1 , λ2 , . . . , λn .
→ Wir haben schon die Definitheitseigenschaften einer Matrix kennengelernt.
Für eine symmetrische Matrix A ∈ Rn×n mit reellen Eigenwerten λ1 , λ2 , . . . , λn
gilt:
– A heißt positiv semidefinit, wenn
xT Ax ≥ 0 für alle x ∈ Rn
erfüllt ist. Dies ist äquivalent zu der Aussage:
λi ≥ 0 für alle 1 ≤ i ≤ n.
49
Man erhält:
n
X n
X n
X
T T T
x Ax = x A xi wi = xi x Awi = xi λ i xT w i
i=1 i=1 i=1
n
X n
X
= λi x2i ≥ λ1 x2i = λ1 kxk2 .
i=1 i=1
Beweis:
Sei v ∈ Rn beliebig. Wir betrachten die Funktion
Wie im Beweis des Satzes 3.1 ist diese Funktion auf einem Intervall (−δ, δ) mit
δ > 0 definiert, zweimal stetig differenzierbar und besitzt an der Stelle t = 0 ein
Minimum. Daraus folgt
Es gilt
g 0 (t) = ∇f (x̂ + tv)T v und g 00 (t) = v T Hf (x̂ + tv)v
und somit folgt
50
Satz 3.3 (Hinreichende Optimalitätsbedingung zweiter Ordnung) Sei f : Ω ⊂
Rn → R ein zweimal stetig differenzierbares Skalarfeld und sei x̂ ∈ Ω ein innerer
Punkt von Ω. Es gelte
∇f (x̂) = 0
und die Hessematrix Hf (x̂) an der Stelle x̂ sei positiv definit. Dann ist x̂ ein
striktes lokales Minimum von f .
Beweis:
Wir betrachten das Taylorpolynom 2. Grades von f an der Stelle x̂. Es gilt:
1
f (x̂ + d) = f (x̂) + ∇f (x̂)T d + dT Hf (x̂)d + R3 (x̂; d), mit R3 (x̂; d) = o(kdk2 ).
2
Wegen ∇f (x̂) = 0 erhält man:
1
f (x̂ + d) − f (x̂) = dT Hf (x̂)d + R3 (x̂; d).
2
Die Matrix Hf (x̂) ist symmetrisch und positiv definit und besitzt deswegen n
positive Eigenwerte
λn ≥ λn−1 ≥ · · · ≥ λ2 ≥ λ1 > 0.
Wir haben gezeigt,
dT Hf (x̂)d ≥ λ1 kdk2 .
Andererseits folgt aus R3 (x̂; d) = o(kdk2 ), dass
|R3 (x̂; d)|
lim = 0.
kdk→0 kdk2
Deswegen gibt es ein δ > 0, so dass
|R3 (x̂; d)| 1
≤ λ1
kdk2 4
für alle d ∈ Rn mit kdk < δ und somit
1
R3 (x̂; d) ≥ − λ1 kdk2
4
für alle d ∈ Rn mit kdk < δ. Insgesamt folgt:
1
f (x̂ + d) − f (x̂) = dT Hf (x̂)d + R3 (x̂; d)
2
1 1 1
≥ λ1 kdk2 − λ1 kdk2 = λ1 kdk2 .
2 4 4
Somit gilt f (x̂ + d) > f (x̂) für alle d 6= 0 mit kdk < δ und x̂ ist ein striktes lokales
Minimum.
51
#
→ Entsprechend kann man eine hinreichende Bedingung für ein Maximum for-
mulieren. Ist ∇f (x̂) = 0 und ist Hf (x̂) negativ definit, so ist x̂ ein striktes
lokales Maximum.
→ Insgesamt hat man das folgende Schema zur Bestimmung lokaler Extrema
eines Skalarfeldes f im Inneren von Ω:
→ Beispiele:
(a) Für die Funktion f (x, y) = x2 + 3y 2 gilt:
2x 2 0
∇f (x, y) = und Hf (x, y) = .
6y 0 6
52
(b) Für die Funktion f (x, y) = (x − 1)2 − y 4 − 4y gilt:
2x − 2 2 0
∇f (x, y) = und Hf (x, y) = .
−4y 3 − 4 0 −12y 2
ist indefinit (ein positiver und ein negativer Eigenwert) und somit ist die
Stelle (1, −1) weder ein lokales Minimum noch ein lokales Maximum.
Man spricht von einem Sattelpunkt.
(c) Für jede der Funktionen
gilt:
0 2 0
∇fi (0, 0) = und Hfi (0, 0) = , i = 1, 2, 3.
0 0 0
→ In vielen Situationen ist es nicht möglich, lokale Maxima und Minima explizit
zu berechnen. Dies kann z. B. daran liegen, dass das nichtlineare Gleichungs-
system ∇f (x) = 0 mit n Unbekannten und n (nichtlinearen) Gleichungen
oft keine explizite Lösungsdarstellung erlaubt.
→ Eine mögliche Motivation des Newton-Verfahrens erhält man, wenn man das
Skalarfeld f (x + d) mit dem quadratischen Taylorpolynom approximiert.
53
→ Sei f : Ω ⊂ Rn → R ein Skalarfeld mit f ∈ C 2 (Ω). Sei x0 ∈ Ω der Start-
wert für die approximative Minimierung von f . Wir approximieren f in der
Umgebung von x0 durch
1
f (x0 + d) ≈ f (x0 ) + ∇f (x0 )T d + dT Hf (x0 )d =: g(d)
2
Es gilt:
Ist die Matrix Hf (x0 ) invertierbar, so ist die einzige Lösung der Gleichung
∇g(d) = 0
d = −Hf (x0 )−1 ∇f (x0 ).
Ist Hf (x0 ) positiv definit, so hat man ein lokales Minimum von g gefunden
und man setzt x1 = x0 + d. Wiederholt man dieses Vorgehen, so erzeugt man
eine Folge {xn }, die unter bestimmten Voraussetzungen gegen ein lokales
Minimum von f konvergiert.
Lineare Ausgleichsrechnung
→ Beispiel: Wir betrachten eine Funktion
b = f (t) = x0 + x1 t
→ Man sucht dann den Koeffizientenvektor x = (x0 , x1 )T ∈ R2 für den die sog.
Residuen ri (x) = bi −x0 −x1 ti möglichst klein sind. Man formuliert dies über
den Ansatz der kleinsten Quadrate:
m
X
Minimiere (bi − x0 − x1 ti )2 .
i=1
54
Fasst man die Residuen ri (x) zu einem Vektor r(x) ∈ Rm zusammen, so
muss man folgendes Problem lösen:
besitzt.
löst.
Man erhält:
∇g(x) = −2AT b + 2AT Ax.
Dabei haben wir ausgenutzt, dass die Matrix AT A symmetrisch ist.
AT Ax̂ = AT b
lösen.
55
Beweis:
Sei x ∈ Rn , x 6= 0 beliebig. Dann folgt aus Rang(A) = n, dass Ax 6= 0. Man erhält:
→ Im Falle Rang(A) = n ist also die Normalgleichung eindeutig lösbar und die
Lösung x̂ ist ein lokales Minimum von g. Man kann zeigen, dass x̂ auch das
globale Minimum von g ist.
→ Beispiel: Man finde die Gleichung einer Geraden g(t) = x0 +x1 t, die im Sinne
der kleinsten-Quadrate-Lösung den folgenden Zusammenhang möglichst gut
approximiert:
ti -2 -1 0 1 2
bi 0,5 0,8 2 3,2 3,5
Man erhält:
1 −2 0,5
1 −1 0,8
T 5 0 T 10
A= 1 0 , A A= , 2
b= und A b = .
1 1 0 10 3,2 8,4
1 2 3,5
Es ergibt sich x0 = 2 und x1 = 0.84 und die gesuchte Ausgleichsgerade ist
g(t) = 2 + 0,84t.
Minimiere f (x)
56
→ Die Optimierungsaufgabe wird dann wie folgt formuliert:
Minimiere f (x), x ∈ Ωad .
Def. Ein Punkt x̂ ∈ Ωad heißt lokale Lösung dieser Optimierungsaufgabe, wenn
es eine Umgebung Bε (x̂) gibt, so dass
f (x̂) ≤ f (x) für alle x ∈ Bε (x̂) ∩ Ωad
gilt.
→ Entsprechend kann man auch Maximierungsaufgaben mit Nebenbedingun-
gen betrachten.
→ Ist x̂ eine lokale Lösung dieser Optimierungsaufgabe, so ist die Bedingung
∇f (x̂) = 0 im Allgemeinen nicht erfüllt!
→ Beispiel: Wir betrachten die Aufgabe:
Minimiere f (x) = x21 + x22
unter der Nebenbedingung g(x) = x2 −x21 +3 = 0. Diese Aufgabe kann durch
explizites Auflösen der Nebenbedingung gelöst werden. Es gilt:
x2 = x21 − 3 für alle x ∈ Ωad .
Wir setzen das in f ein und erhalten:
fˆ(x1 ) = f (x1 , x21 − 3) = x21 + (x21 − 3)2 .
Es gilt:
fˆ0 (x1 ) = 2x1 + 4(x21 − 3)x1 = 4x31 − 10x1
und
fˆ00 (x1 ) = 12x21 − 10.
Aus der Gleichung fˆ0 (x1 ) = 0 erhalten wir:
√ √
(1) (2) 10 (3) 10
x1 = 0, x1 = − , x1 = .
2 2
Wegen
√ ! √ !
10 10
fˆ00 (0) = −10 < 0, fˆ00 − = fˆ00 = 20 > 0
2 2
finden wir zwei lokale Minima
√ ! √ !
10 1 10 1
P1 − ,− und P2 ,− .
2 2 2 2
57
→ In vielen Situationen kann man die Nebenbedingung g(x) = 0 nicht explizit
nach einer Variable auflösen.
∇f (x̂) + λ̂∇g(x̂) = 0.
Beweis:
Wir führen den Beweis der Einfachheit halber für n = 2. Wir betrachten also
Skalarfelder f (x, y) und g(x, y). Sei (x̂, ŷ) ein lokales Minimum mit ∇g(x̂, ŷ) 6= 0.
D. h. mindestens eine der partiellen Ableitungen ∂x g(x̂, ŷ) oder ∂y g(x̂, ŷ) ist von
Null verschieden. Wir nehmen an, dass z. B.
∂y g(x̂, ŷ) 6= 0
gilt. Dann gibt es nach dem Satz über implizite Funktionen eine Umgebung U von
x̂, eine Umgebung V von ŷ und eine Funktion h : U → V mit
fˆ0 (x̂) = 0.
58
Wir setzen
∂y f (x̂, ŷ)
λ̂ = −
∂y g(x̂, ŷ)
und erhalten
∂x f (x̂, ŷ) + λ̂∂x g(x̂, ŷ) = 0
sowie nach der Definition von λ̂
Daraus folgt
∇f (x̂, ŷ) + λ̂∇g(x̂, ŷ) = 0.
→ Dieser Satz liefert eine notwendige Bedingung für eine Extremalstelle eines
Optimierungsproblem mit Nebenbedingungen.
→ Diese Bedingung kann mit Hilfe der sog. Lagrange-Funktion formuliert wer-
den. Wir betrachten L : Ω × R → R mit
Ist x̂ ∈ int(Ω) ein lokales Minimum (oder Maximum) und gilt ∇g(x̂) 6= 0,
dann gibt es λ̂ ∈ R, so dass das Paar (x̂, λ̂) ein stationärer Punkt von L ist,
d.h.
∇L(x̂, λ̂) = 0.
Wir bezeichnen mit ∇x L(x, λ) ∈ Rn den Vektor mit den partiellen Ableitun-
gen nach xi , i = 1, 2 . . . , n. Man hat
∇x L(x, λ) ∇f (x) + λ∇g(x)
∇L(x, λ) = = .
∂λ L(x, λ) g(x)
59
Zuerst untersuchen wir, wann die Bedingung ∇g(x, y) 6= 0 erfült ist. Es gilt
2x
∇g(x, y) = .
4y
Somit is ∇g(x, y) = 0 genau dann, wenn x = y = 0. Dieser Punlt ist aber kein
zulässiger Punlt, denn g(0, 0) = −1 6= 0. Somit ist die Bedingung ∇g(x, y) 6=
0 für alle potenziellen Kandidaten für Extremalstellen erfüllt.
Wir betrachten die Lagrange-Funktion
Es gilt
3x2 y 3 + 2λx
∇L(x, y, λ) = 3x3 y 2 + 4λy
x2 + 2y 2 − 1
und wir erhalten das Gleichungssystem
2 3
3x y + 2λx = 0,
3x3 y 2 + 4λy = 0,
2
x + 2y 2 − 1 = 0.
Wir multiplizieren die erste Gleichung mit x, die zweite mit y und betrachten
die Differenz dieser Gleichungen:
2λ(x2 − 2y 2 ) = 0.
√
Daraus folgt λ = 0 oder x = ± 2y. Im Falle λ = 0 muss entweder x oder y
gleich Null sein und wir erhalten die stationären Punkte
1
P1/2 0, ± √ , P3/4 (±1, 0) .
2
√
Im Falle λ 6= 0 gilt x = ± 2y und somit
4y 2 − 1 = 0.
Es gilt
f (Pi ) = 0 für i = 1, 2, 3, 4
60
und
√ √
2 2
f (Pi ) = für i = 5, 8 und f (Pi ) = − für i = 6, 7.
32 32
√
2
Somit ist der maximale Wert 32
, der in den Punkten P5 und P8 angenommen
wird.
→ Wie bei Extremwertaufgaben ohne Nebenbedingung, gibt es hinreichende
Optimalitätsbedingungen, die auf zweiten Ableitungen der Lagrange-Funktion
basieren. Auf diese hinreichende Optimalitätsbedingungen zweiter Ordnung
wird hier nicht eingegangen.
→ In vielen Situationen hat man mehr als eine Nebenbedingung.
→ Im Allgemeinen können m Nebenbedingungen mit Hilfe eines Vektorfeldes
formuliert werden.
→ Sei f : Ω ⊂ Rn → R ein Skalarfeld und g : Ω → Rm , m < n, ein Vektorfeld.
Wir betrachten folgende Optimierungsaufgabe:
Minimiere f (x) unter der Nebenbedingung g(x) = 0.
Die Nebenbedingung g(x) = 0 besteht aus m Bedingungen:
g1 (x) = 0, g2 (x) = 0, . . . , gm (x) = 0.
→ Ist x̂ ∈ int(Ω) ein lokales Minimum (oder Maximum) und gilt Rang(Jg (x̂)) =
m, dann gibt es λ̂ ∈ Rm , so dass das Paar (x̂, λ̂) ein stationärer Punkt von
L ist, d.h.
∇L(x̂, λ̂) = 0.
Diese Bedingung ist dann äquivalent zu einem System aus n + m (i. A.
nichtlinearen) Gleichungen mit n + m Unbekannten
∇x L(x̂, λ̂) = 0
∇f (x̂) + λ̂1 ∇g1 (x̂) + · · · + λ̂m ∇gm (x̂) = 0
∂λ1 L(x̂, λ̂) = 0
g1 (x̂) = 0
.. ⇔ .. .
.
.
gm (x̂) = 0
∂λm L(x̂, λ̂) = 0
61
→ Beispiel: Man finde die Extrema der Funktion f : R3 → R, f (x, y, z) = x2
unter den Nebenbedingungen
62
Es gilt f (P1 ) = f (P2 ) = 0 und f (P3 ) = f (P4 ) = 12 . Die Punkte P1 und P2 sind
Minima und P3 und P4 Maxima von f unter Nebenbedingung g1 (x, z, y) =
g2 (x, y, z) = 0.
63
4 Kurvenintegrale
4.1 Kurvenintegral eines Skalarfeldes
→ In vielen Situationen (z.B. bei der Berechnung von Längen, Massen, Ladun-
gen, usw.) betrachtet man Kurvenintegrale eines Skalarfeldes.
das Kurvenintegral von f längs w. Dabei bezeichnet kw0 (t)k die euklidische
Norm der Ableitung, d.h.
n
! 21
X
kw0 (t)k = |wi0 (t)|2 .
i=1
→ Die Länge der Kurve ist somit sinngemäß gleich dem Integral von f = 1
entlang der Kurve:
Z Z b
L(w) = ds = kw0 (t)k dt.
w a
→ Stellt ρ(x, y, z) die Massendichte (bzw. die Ladungsdichte) eines Seiles be-
schrieben durch die Kurve w dar, so ist die Gesamtmasse (bzw. die Gesamt-
ladung) gegeben als Z
M (w) = ρ ds.
w
64
wird. Es gilt folgende Aussage:
Seien w : [a, b] → Rn und u : [c, d] → Rn zwei Kurven, die dieselbe Spur
{ w(t) | a ≤ t ≤ b } = { u(t) | c ≤ t ≤ d }
für α, β ∈ R.
65
→ In der Vorlesung “Analysis 1 (EI)” haben wir den Tangenteneinheitsvektor
einer differenzierbaren Kurve T (t) als
1
T (t) = w0 (t)
kw0 (t)k
Somit ist das Kurvenintegral eines Vektorfeldes f entlang der Kurve w gleich
dem Kurvenintegrals der Tangentialkomponente f · T von f entlang von w.
für α, β ∈ R.
66
→ Ist die Kurve w : I = [a, b] → Rn geschlossen, d.h. w(a) = w(b), so verwendet
man die folgende Bezeichnung:
I
f · dx.
w
4.3 Gradientenfelder
Def. Eine Menge D ⊂ Rn heißt wegzusammenhängend, falls es zu je zwei Punkten
x, y aus D eine Kurve w : [a, b] → D mit w(a) = x und w(b) = y gibt.
Def. Eine wegzusammenhängende Menge D ⊂ Rn heißt einfach zusammenhängend,
wenn jede geschlossene doppelpunktfreie Kurve in D stetig auf ein Punkt in
D zusammengezogen werden kann, ohne dass D verlassen wird.
→ Beispiele:
(a) Eine Kreisscheibe D = Br (x0 ) ⊂ R2 ist sowohl wegzusammenhängend
als auch einfach zusammenhängend.
(b) Ein Kreisring D = Br (x0 ) \ Br/2 (x0 ) ⊂ R2 ist wegzusammenhängend
aber nicht einfach zusammenhängend.
Def. Sei D ⊂ Rn eine offene und wegzusammenhängende Menge. Ein stetiges
Vektorfeld f : D → Rn heißt konservativ, Potentialfeld oder Gradientenfeld,
wenn es ein Skalarfeld F : D → R gibt mit
f (x) = ∇F (x) für alle x ∈ D.
67
In diesem Fall heißt F Stammfunktion und U = −F eine Potentialfunktion
(oder ein Potential ) von f .
Daraus folgt:
und
∂x2 F (x) = x1 ⇒ F (x) = x1 x2 + h(x1 )
mit differenzierbaren Funktionen s, h : R → R. Dies ergibt
und somit
s(x2 ) − h(x1 ) = 2x1 x2 ,
was ein Widerspruch ist. Setzt man nämlich x1 = 0 ein, so stellt man fest
s(x2 ) = h(0), somit wäre 2x1 x2 = s(x2 )−h(x1 ) = h(0)−h(x1 ) x2 unabhängig,
was den Widerspruch darstellt.
→ Im folgenden werden wir ein systematisches Kriterium finden, wie man über-
prüfen kann, ob ein Vektorfeld konservativ ist.
→ Ist ein Vektorfeld konservativ und kennt man die Stammfunktion, so kann
man direkt das entsprechende Kurvenintegral bestimmen.
Aus f (x) = ∇F (x) folgt für die zusammengesetzte Funktion g : [a, b] → R,
g(t) = F (w(t)):
Daraus folgt
Z Z b Z b
0
f ·dx = f (w(t))·w (t) dt = g 0 (t) dt = g(b)−g(a) = F (w(b))−F (w(a)).
w a a
68
→ Somit hängt das Kurvenintegral eines Gradientenfeldes nur von den End-
punkten der Kurve ab und nicht von ihrem gesamten Verlauf. Man sagt, das
Integral ist wegunabhängig.
→ Das Kurvenintegral eines Gradientenfeldes über eine geschlossene Kurve ist
somit gleich Null.
Satz 4.1 Sei D ⊂ Rn eine wegzusammenhängende offene Menge und f : D → Rn
sei ein stetiges Vektorfeld. Dann sind folgende Aussagen äquivalent
(a) f ist ein Gradientenfeld.
(b) Für alle stetig differenzierbaren Kurven w in D hängt das Kurvenintegral
Z
f · dx
w
Satz 4.2 Sei D ⊂ Rn eine offene, einfach zusammenhängende Menge und sei
f : D → Rn ein stetig differenzierbares Vektorfeld. Dieses Vektorfeld ist genau
dann ein Gradientenfeld, wenn die sog. Integrabilitätsbedingung
Jf (x) = Jf (x)T für alle x ∈ D (Symmetrie der Jacobi-Matrix)
bzw.
∂xi fj (x) = ∂xj fi (x) für alle x ∈ D und alle 1 ≤ i, j ≤ n
erfüllt ist.
69
→ Beispiel: Wir betrachten das Vektorfeld f : R2 \ {0} → R2
1 −x2
f (x) = 2 .
x1 + x22 x1
Es gilt:
1 2x1 x2 x22 − x21
Jf (x) = 2
(x1 + x22 )2 x22 − x21 −2x1 x2
und somit Jf (x) = Jf (x)T . Man rechnet aber leicht nach, dass
I
f · dx = 2π
w
gilt. Dies liegt daran, dass die Menge R2 \ {0}, auf der das Vektorfeld de-
finiert ist, keine einfach zusammenhängende Menge ist und der obige Satz
nicht anwendbar ist.
→ Wie bestimmt man eine Stammfunktion bzw. ein Potential eines gegebenen
Vektorfeldes?
70
→ Ist die Integrabilitätsbedingung erfüllt und ist D einfach zusammenhängend,
so kann man die Stammfunktion allgemein wie folgt angeben: Man wählt
einen festen Punkt x0 ∈ D und zu jedem weiteren Punkt y ∈ D wählt man
eine Kurve wy : [a, b] → D mit wy (a) = x0 und wy (b) = y. Dann ist eine
Stammfunktion gegeben als
Z
F (y) = f · dx.
wy
71
Somit ist f ein Gradientenfeld. Um eine Stammfunktion F : R3 → R mit
f = ∇F zu finden gehen wir wie folgt vor. Es gilt
∂1 F (x) = ex1 x2 + 1.
Daraus folgt
Z
F (x) = (ex1 x2 + 1) dx1 + G(x2 , x3 ) = ex1 x2 + x1 + G(x2 , x3 )
und andererseits
∂2 F (x) = ex1 + x3 .
Daraus folgt
∂2 G(x2 , x3 ) = x3
und somit
G(x2 , x3 ) = x2 x3 + H(x3 ).
Man erhält
F (x) = ex1 x2 + x1 + x2 x3 + H(x3 ).
Man leitet nach x3 ab und bekommt
F (x) = ex1 x2 + x1 + x2 x3 + c.
72
5 Mehrdimensionale
Integralrechnung
5.1 Parameterabhängige Integrale
→ In diesem Abschnitt betrachten wir Funktionen, die über Integrale definiert
sind. Sei f : R2 → R ein Skalarfeld und seien c, d ∈ R. Wir betrachten die
Funktion F (x) gegeben als
Z d
F (x) = f (x, y) dy.
c
Man kann sich fragen, welche Eigenschaften von f sich auf F übertragen
lassen. Eine typische Frage ist, ob man aus der Stetigkeit von f bzgl. x die
Stetigkeit von F folgern kann. Die Stetigkeit von F an der Stelle x = 0 würde
z. B. bedeuten, dass
Z d Z d
f (0, y) dy = F (0) = lim F (x) = lim f (x, y) dy.
c x→0 x→0 c
→ Das heißt, es geht darum, ob das Integral mit dem Grenzwert vertauscht wer-
den kann. Da das Integral auch durch einen Grenzprozess definiert ist, ist das
ein Beispiel für die Frage, ob zwei Grenzprozesse vertauscht werden können.
Eine ähnliche Frage entsteht, wenn man die Ableitung von F bestimmen
möchte.
→ Die Vertauschbarkeit zweier Grenzprozesse ist immer nur unter gewissen Vor-
aussetzungen möglich!
73
Satz 5.1 Seien I = [a, b] und J = [c, d] zwei Intervalle und sei f : I × J → R
stetig auf I × J. Dann ist die Funktion F : I → R definiert durch
Z d
F (x) = f (x, y) dy
c
stetig auf I.
→ In diesem Satz wird also nicht nur die Stetigkeit bzgl. x sondern die Stetigkeit
von f als Skalarfeld gefordert. Diese Voraussetzung kann etwas abgeschwächt
aber nicht eliminiert werden.
→ Beispiel 1: Wir betrachten die Funktion
Z π
F (x) = x sin y dy.
0
Das Skalarfeld f (x, y) = x sin y ist stetig. Daraus folgt die Stetigkeit von F .
Dies können wir auch direkt überprüfen. Es gilt
Z π Z π
F (x) = x sin y dy = x sin y dy = 2x.
0 0
74
→ Eine weitere natürliche Frage ist die Frage nach der Differenzierbarkeit von
F . Hier geht es auch um Vertauschung zweier Grenzprozesse.
Satz 5.2 Seien I = [a, b] und J = [c, d] zwei Intervalle, sei f : I × J → R ein
stetiges Skalarfeld und sei die partielle Ableitung ∂x f ebenfalls stetig auf I × J.
Dann ist die Funktion F : I → R definiert durch
Z d
F (x) = f (x, y) dy
c
Es gilt:
F (x) = G(x, c(x), d(x)).
Nach der Kettenregel erhalten wir für die Ableitung:
F 0 (x) = ∂x G(x, c(x), d(x)) + ∂a G(x, c(x), d(x))c0 (x) + ∂b G(x, c(x), d(x))d0 (x).
Nach dem obigen Satz gilt (falls ∂x f stetig ist)
Z b
∂x G(x, a, b) = ∂x f (x, y) dy.
a
75
→ Beispiel: Wir betrachten die Funktion
Z 3−x
F (x) = sin(xy) dy.
x2
1 t
Z
F (t) = g(s) sin(ω(t − s)) ds
ω 0
eine Lösung der inhomogenen Differentialgleichung
F (0) = F 0 (0) = 0
Satz 5.3 (Satz von Fubini) Seien I = [a, b] und J = [c, d] zwei Intervalle und
sei f : I × J → R stetig auf I × J. Dann gilt:
Z b Z d Z d Z b
f (x, y) dy dx = f (x, y) dx dy.
a c c a
76
→ Bei dem obigen Beispiel hat der Integrand die Struktur f (x, y) = g(x)h(y).
In so einem Fall erhält man
Z b Z d Z b Z d
g(x)h(y) dy dx = g(x) dx h(y) dy .
a c a c
→ Der Satz von Fubini kann direkt auf mehr als zwei Integrale angewendet
werden. Betrachtet man z. B. ein stetiges Skalarfeld g : R3 → R, so gilt unter
anderem:
Z b Z d Z f Z f Z d Z b
g(x, y, z) dz dy dx = g(x, y, z) dx dy dz.
a c e e c a
Insgesamt führen alle 6 Varianten der Reihenfolge auf das gleiche Ergebnis.
5.2 Bereichsintegrale
Rb
→ Bis jetzt haben wir eindimensionale Integrale a f (x) dx betrachtet. Dabei
war das Integrationsbereich stets ein Intervall I = [a, b]. In diesem Abschnitt
führen wir Integrale von Skalarfeldern über eine große Klasse von möglichen
mehrdimensionalen Integrationsbereichen ein.
soll so definiert werden, dass der Wert V dem Volumen unter dem Graphen
von f entspricht.
und
77
→ Ein Skalarfeld g : Q → R heißt eine Treppenfunktion bzgl. den Zerlegungen
(Z1 , Z2 ), falls
gilt.
Def. Für eine Treppenfunktion g bzgl. den Zerlegungen (Z1 , Z2 ) ist das Integral
definiert als
ZZ n X
X m
g(x, y) d(x, y) = cij (xi − xi−1 )(yj − yj−1 ).
Q i=1 j=1
Def. Für ein beschränktes Skalarfeld f : Q → R definiert man eine Unter- und
eine Obersumme bzgl. den Zerlegungen (Z1 , Z2 ) durch
n X
X m
UZ1 ,Z2 (f ) = mij (xi − xi−1 )(yi − yi−1 )
i=1 j=1
und n X
m
X
OZ1 ,Z2 (f ) = Mij (xi − xi−1 )(yj − yj−1 )
i=1 j=1
mit
Def. Das Unter- und das Oberintegral werden dann wie im Eindimensionalen
definiert als
und
O(f ) = inf { OZ1 ,Z2 (f ) | (Z1 , Z2 ) Zerlegungen von Q } .
78
→ Oft verwendet man auch andere Bezeichnung für das Bereichsintegral.
1. Man schreibt ZZ
f (x, y) dF
Q
um zu verdeutlichen, dass es sich um einen Grenzwert von Summen von
cij Fij mit dem Flächeinhalt Fij = (xi − xi−1 )(yi − yi−1 ) handelt. Dabei
bezeichnet
dF = d(x, y) = dxdy
das sog. Flächenelement.
2. In vielen Situationen schreibt man nur ein Integralzeichen
Z
f (x, y) d(x, y),
Q
→ Beispiel: Wir betrachten das Skalarfeld f (x, y) = x + 3x2 y 2 und das Recht-
eck Q = [0, 1] × [0, 1]. Es gilt
ZZ Z 1 Z 1 Z 1 y=1 !
f (x, y) d(x, y) = (x + 3x2 y 2 ) dy dx = (xy + x2 y 3 ) dx
Q 0 0 0 y=0
Z 1 x=1
1 2 1 3 5
= (x + x2 ) dx = x + x = .
0 2 3 x=0 6
→ Man kann den Integralbegriff direkt auf den dreidimensionalen Fall verallge-
meinern. Für einen Quader Q = [a, b] × [c, d] × [e, f ] ⊂ R3 und ein Skalarfeld
g : Q → R wird absolut analog das Dreifachintegral
ZZZ
g(x, y, z) d(x, y, z)
Q
eingeführt.
79
→ Auch dafür gibt es weitere Bezeichnungen wie
ZZZ
g(x, y, z) dV
Q
→ Der Satz von Fubini ist dafür ebenfalls erfüllt. Es gilt für ein stetiges Skalar-
feld g : Q → R:
ZZZ Z b Z d Z f
g(x, y, z) d(x, y, z) = g(x, y, z) dz dy dx
Q a c e
Z f Z d Z b
= g(x, y, z) dx dy dz = . . .
e c a
→ Beispiel: Wir betrachten das Skalarfeld g(x, y, z) = xyz und den Quader
Q = [0, 1]3 . Es gibt nach dem Satz von Fubini 6 Möglichkeiten dieses Integral
auszurechnen. Es gilt
ZZZ Z 1 Z 1 Z 1
xyz d(x, y, z) = xyz dz dy dx
Q 0 0 0
Z 1 Z 1 Z 1
1 1 1
= xy dy dx = x dx = .
0 0 2 0 4 8
→ Wenn sich der Integrand g (wie beim obigen Beispiel) als Produkt g(x, y, z) =
g1 (x)g2 (y)g3 (z) schreiben lässt, kann man das Integral ebenfalls als Produkt
ausrechnen. Es gilt
ZZZ Z b Z d Z f
g1 (x)g2 (y)g3 (z) d(x, y, z) = g1 (x) dx g2 (y) dy g3 (z) dz .
Q a c e
80
→ Um das Integral über eine Menge Ω ⊂ R2 definieren zu können, braucht man
zuerst einen Flächenbegriff. D. h. man muss Mengen betrachten, für die die
Fläche sinnvoll definiert ist.
→ Eine beschränkte Menge kann man immer in ein Rechteck einbetten, Ω ⊂ Q.
Def. Eine beschränkte Menge Ω ⊂ R2 heißt Jordan messbar, falls Ω ⊂ Q und χΩ
über Q integrierbar ist. Dann ist die Fläche definiert als
ZZ
F (Ω) = χΩ (x, y) d(x, y).
Q
Def. Sei Ω ⊂ R2 eine Jordan messbare Menge und sei Q ein Rechteck mit Ω ⊂
Q. Ein Skalarfeld f : Ω → R heißt integrierbar über Ω, falls f χΩ über Q
integrierbar ist. Das Integral wird definiert als
ZZ ZZ
f (x, y) d(x, y) = f (x, y) χΩ (x, y) d(x, y).
Ω Q
→ Ist F (Ω) = 0, so nennt man Ω eine Nullmenge. Die typischen Beispiele für
Nullmengen sind:
(a) Eine endliche Menge von Punkten in R2 .
(b) Das Bild einer regulären Kurve in R2 .
→ Entsprechend definiert man Jordan messbare Mengen Ω ⊂ R3 , indem man
Ω in ein Quader Q einbettet und das Volumen von Ω als
ZZZ
V (Ω) = χΩ (x, y, z) d(x, y, z)
Q
einführt.
→ Auch das Integral wird ganz analog eingeführt.
Def. Sei Ω ⊂ R3 eine Jordan messbare Menge und sei Q ein Quader mir Ω ⊂
Q. Ein Skalarfeld f : Ω → R heißt integrierbar über Ω, falls f χΩ über Q
integrierbar ist. Das Integral wird definiert als
ZZZ ZZZ
f (x, y, z) d(x, y, z) = f (x, y, z) χΩ (x, y) d(x, y, z).
Ω Q
81
→ Für das Volumen von Ω gilt
ZZZ
V (Ω) = 1d(x, y, z).
Ω
gilt ZZ ZZ
f (x, y) d(x, y) = f˜(x, y) d(x, y).
Ω Ω
→ Es gibt eine Klassen von Mengen, über die man fast genau so einfach inte-
grieren kann, wie über Rechtecke und Quader. Das sind sog. Normalbereiche.
82
d(x)
c(x)
a b
Def. Sei I = [a, b] ein Intervall und seien c, d : I → R zwei stetige Funktionen mit
c(x) ≤ d(x) für alle x ∈ I. Dann heißt die Menge
Ω = (x, y) ∈ R2 a ≤ x ≤ b, c(x) ≤ y ≤ d(x)
Def. Sei I = [c, d] ein Intervall und seien a, b : I → R zwei stetige Funktionen mit
a(y) ≤ b(y) für alle y ∈ I. Dann heißt die Menge
Ω = (x, y) ∈ R2 a(y) ≤ x ≤ b(y), c ≤ y ≤ d
→ Sei
(x, y) ∈ R2 a ≤ x ≤ b, c(x) ≤ y ≤ d(x)
Ω=
ein Normalbereich vom Typ I und sei f : Ω → R ein Skalarfeld. Dann gilt:
!
ZZ Z Z b d(x)
f (x, y) d(x, y) = f (x, y) dy dx.
Ω a c(x)
83
a(y) b(y)
d
siehe Abbildung 5.3. Dies ist ein Normalbereich vom Typ II und es gilt
ZZ Z 1 Z 1+y2 ! Z 1 x=1+y2
1
xy 2 d(x, y) = xy 2 dx dy = y 2 x2 dy
Ω −1 0 −1 2
x=0
Z 1 Z 1
1 2 1 92
= y (1 + y 2 )2 dy = (y 2 + 2y 4 + y 6 ) dy = .
−1 2 2 −1 105
84
1
1 2
−1
für die Menge Ω, deren Rand durch die Geraden y = x und y = 2 sowie den
Graphen der Funktion y = x1 gegeben ist, siehe Abbildung 5.4. Wir zerlegen
diese Menge in zwei Normalbereiche Ω1 und Ω2 vom Typ I gegeben durch
2 1 1
Ω1 = (x, y) ∈ R ≤ x ≤ 1, ≤ y ≤ 2
2 x
und
(x, y) ∈ R2 1 ≤ x ≤ 2, x ≤ y ≤ 2 .
Ω2 =
Es gilt
ZZ ZZ ZZ
2 2
x y d(x, y) = x y d(x, y) + x2 y d(x, y)
Ω Ω Ω
Z 1 Z1 2 Z 2 2Z 2
= x2 y dy dx + x2 y dy dx
1 1
2 x
1 x
Z 1 y=2 Z 2 y=2
1 2 2 1 2 2
= xy dx + xy dx
1
2
2 1 1 2
y= y=x
Z 1 x Z 2
1 1
= 2x2 − dx + 2x2 − x4 dx
1
2
2 1 2
1 47 19
= + = .
3 30 10
85
y=x
2 y=2
1
y=
x
1 2
Man kann erkennen, dass Ω auch ein Normalbereich vom Typ II ist. Man
rechne als Übungsaufgabe das gleiche Integral als Integral über ein Normal-
bereich vom Typ II aus.
→ Wie in R2 lassen sich auch in R3 Normalbereiche definieren, die man in 6
Typen unterteilen kann.
Def. Sei I = (a, b) ein Intervall, seien c, d : I → R zwei stetige Funktionen mit
c(x) ≤ d(x) für alle x ∈ I und sei U ⊂ R2 ein entsprecheder Normalbereich
vom Typ I in R2 :
U = (x, y) ∈ R2 a ≤ x ≤ b, c(x) ≤ y ≤ d(x) .
ein Normalbereich vom Typ I in R3 . Analog kann man weitere 5 Typen von
Normalbereichen in R3 einführen, indem man eine andere Reihenfolge der
Variablen betrachtet, z. B.
Ω = (x, y, z) ∈ R3 a(y) ≤ x ≤ b(y), c ≤ y ≤ d, e(x, y) ≤ z ≤ f (x, y)
oder
(x, y, z) ∈ R3 a(y, z) ≤ x ≤ b(y, z), c(z) ≤ y ≤ d(z), e ≤ z ≤ f .
Ω=
86
→ Analog zu den Integralen über Normalbereiche in R2 rechnet man auch In-
tegrale über Normalbereiche in R3 aus. Für den Fall des Normalbereiches Ω
vom Typ I (siehe oben) gilt:
ZZZ Z b Z d(x) Z f (x,y) ! !
g(x, y, z)d(x, y, z) = g(x, y, z) dz dy dx.
Ω a c(x) e(x,y)
→ In diesem Satz bezeichnet Φ(Ω) das Bild der Menge Ω unter der Transfor-
mation Φ und JΦ (u) ist die Jacobi-Matrix dieser Transformation.
→ Zur Erinnerung: Die Transformation Φ : Ω → Rn heißt im Punkt u regulär,
wenn die sog. Funktionaldeterminante ungleich Null ist, d. h. det JΦ (u) 6= 0.
→ In vielen Situation lassen sich Integrale über komplizierte Gebiete durch
eine geschickte Wahl der Transformation auf Integrale über Normalbereiche
zurückführen.
→ Am häufigsten verwendet man Transformationen auf Polar-, Zylinder- und
Kugelkoordinaten.
→ Für Polarkoordinaten gilt
r cos φ cos φ −r sin φ
Φ(r, φ) = , JΦ (r, φ) =
r sin φ sin φ r cos φ
und |det JΦ (r, φ)| = r.
87
→ Für Zylinderkoordinaten gilt
r cos φ cos φ −r sin φ 0
Φ(r, φ, z) = r sin φ , JΦ (r, φ, z) = sin φ r cos φ 0
z 0 0 1
B = Φ(Ω)
88
5.3 Flächenintegrale
→ Im Kapitel 4 haben wir uns mit Kurvenintegralen befasst. In diesem Ab-
schnitt verallgemeinern wir dieses Konzept auf (Ober)flächenintegrale.
Def. Sei B ⊂ R2 eine messbare Menge. Wir nennen eine (stückweise) differenzier-
bare Funktion (Vektorfeld)
x(u, v)
φ : B → R3 mit φ(u, v) = y(u, v)
z(u, v)
eine Fläche.
→ Wie bei einer Kurve ist die Fläche nicht nur ihr Bild φ(B) sondern die ganze
Funktion φ.
→ Beispiele:
(a) Sei f : B ⊂ R2 → R ein stetig differenzierbares Skalarfeld. Der Graph
dieses Skalarfeldes kann als eine Fläche dargestellt werden. Man setzt
dafür
u
φ(u, v) = v .
f (u, v)
(b) Die Mantelfläche eines Zylinders von Radius R und Höhe h wird durch
R cos u
φ : [0, 2π] × [0, h] → R3 , φ(u, v) = R sin u
v
dargestellt.
(c) Die Oberfläche einer Kugel vom Radius R erhalten wir durch
R cos v sin u
φ : [0, π] × [0, 2π] → R3 , φ(u, v) = R sin v sin u .
R cos u
89
z
mit x(u) > 0 in der (x, z)-Ebene (y = 0) gegeben. Wir betrachten die
Rotationsfläche, die aus der Drehung dieser Kurve um die z-Achse um
den Winkel α0 (mit 0 < α0 ≤ 2π) entsteht. Diese Rotationsfläche, siehe
Abbildung 5.5 kann wie folgt beschrieben werden:
x(u) cos v
φ : [a, b] × [0, α0 ] → R3 , φ(u, v) = x(u) sin v .
z(u)
und
kv : (−ε, ε) → R3 , kv (t) = φ(u0 , v0 + t).
90
∂u φ(u0 , v0 )
φ(u0 , v0 )
∂v φ(u0 , v0 )
φ(B)
Die Tangentenvektoren ku0 (0) und kv0 (0) zu den Kurven ku und kv sind eben-
falls Tangentialvektoren zu der Fläche φ im Punkt φ(u0 , v0 ). Es gilt
∂u x(u0 , v0 )
ku0 (0) = ∂u y(u0 , v0 ) =: ∂u φ(u0 , v0 )
∂u z(u0 , v0 )
und
∂v x(u0 , v0 )
kv0 (0) = ∂v y(u0 , v0 ) =: ∂v φ(u0 , v0 ).
∂v z(u0 , v0 )
Def. Ein Punkt φ(u0 , v0 ) der Fläche φ heißt regulär, falls die Tangentialvektoren
∂u φ(u0 , v0 ) und ∂v φ(u0 , v0 ) linear unabhängig sind. Dies ist genau dann der
Fall, wenn
∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 ) 6= 0
gilt.
Def. Sind alle Punkte einer Fläche regulär, so spricht man von einer regulären
Fläche.
→ In einem regulären Punkt kann man den Normalenvektor zu der Fläche als
∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 )
definieren. Der Einheitsnormalenvektor ist dann
1
n(u0 , v0 ) = ∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 ).
k∂u φ(u0 , v0 ) × ∂v φ(u0 , v0 )k
91
→ Wie bestimmt man den Flächeninhalt einer gegebenen Fläche?
→ Bei einer Kurve k : [a, b] → R3 sind wir wie folgt vorgegangen. Wir haben
das Bild der Kurve durch Polygonzüge approximiert. Dabei war die Länge
der Verbindungsstrecke [k(ti−1 ), k(ti )] approximiert durch
→ Ähnlich kann man die Fläche φ mit Parallelogrammen approximieren (die ge-
naue Konstruktion wird hier nicht durchgeführt). Bekanntlich kann man die
Fläche eines durch zwei Vektoren v, w ∈ R3 aufgespannten Parallelogrammes
P durch
F (P ) = kv × wk
ausrechnen. Nach dem Grenzübergang führt dies zu
ZZ
F (φ) = k∂u φ(u, v) × ∂v φ(u, v)k d(u, v),
B
→ Beispiele:
(a) Sei f : B ⊂ R2 → R ein Skalarfeld. Um die Oberfläche des Graphen von
f zu berechnen, betrachten wir die entsprechende Fläche φ : B → R3
mit
u
φ(u, v) = v .
f (u, v)
Es gilt
1 0
∂u φ(u, v) = 0 , ∂v φ(u, v) = 1
∂u f (u, v) ∂v f (u, v)
und
−∂u f (u, v)
∂u φ(u, v) × ∂v φ(u, v) = −∂v f (u, v) .
1
92
Somit erhält man
p
k∂u φ(u, v) × ∂v φ(u, v)k = 1 + ∂u f (u, v)2 + ∂v f (u, v)2
(b) Wir berechnen den Flächeninhalt der Oberfläche einer Kugel mit Radius
R. Dafür betrachten wir die Fläche
R cos v sin u
φ : [0, π] × [0, 2π] → R3 , φ(u, v) = R sin v sin u .
R cos u
Es gilt
R cos v cos u −R sin v sin u
∂u φ(u, v) = R sin v cos u , ∂v φ(u, v) = R cos v sin u
−R sin u 0
und somit
R2 cos v sin2 u
Man erhält
k∂u φ(u, v) × ∂v φ(u, v)k = R2 sin u
und somit
ZZ Z 2π Z π
2 2
F (φ) = R sin u d(u, v) = R sin u du dv
[0,π]×[0,2π] 0 0
Z 2π
= R2 2 dv = 4πR2 .
0
93
über die Fläche φ einführen. Dieses Integral soll so definiert werden, dass
ZZ
F (φ) = 1 dO
φ
gilt.
Def. Sei f : R3 → R ein beschränktes Skalarfeld und sei φ : B ⊂ R2 → R3 eine
Fläche. Wir definieren das Oberflächenintegral
ZZ ZZ
f dO = f (φ(u, v)) k∂u φ(u, v) × ∂v φ(u, v)k d(u, v),
φ B
94
→ Bei den Kurvenintegralen über eine Kurve k : [a, b] → R3 haben wir zwischen
zwei Typen unterschieden:
(a) Kurvenintegral eines Skalarfeldes f : R3 → R
Z Z b
f ds = f (k(t))kk 0 (t)k dt
k a
95
5.4 Integralsätze
→ In diesem Abschnitt betrachten wir folgende Integralsätze:
– den zweidimensionalen Satz von Green,
– die zwei- und dreidimensionalen Sätze von Gauß,
– den Satz von Stokes.
Satz 5.6 (Satz von Green) Sei Ω ⊂ R2 eine Menge mit Rand ∂Ω wie oben
beschrieben. Sei v : Ω̄ → R2 ein stetig differenzierbares Vektorfeld. Dann gilt
ZZ Z
(∂x v2 − ∂y v1 ) d(x, y) = v · dx.
Ω ∂Ω
→ Der Satz gilt für sehr allgemeine Gebiete Ω ⊂ R2 . Wir werden ihn am Beispiel
des Einheitsquadrats Ω = [0, 1]2 überprüfen. Den Rand ∂Ω kann man dann
wie folgt parametrisieren:
(t, 0)T , für t ∈ [0, 1]
(1, t − 1)T , für t ∈ [1, 2]
γ : [0, 4] → R2 , γ(t) = .
(3 − t, 1)T , für t ∈ [2, 3]
(0, 4 − t)T , für t ∈ [3, 4]
96
Der allgemeine Fall ist absolut analog. Es gilt einerseits
ZZ Z 1 Z 1
(∂x v2 − ∂y v1 ) d(x, y) = − ∂y v1 (x, y) dy dx
Ω 0 0
Z 1
=− (v1 (x, 1) − v1 (x, 0)) dx
0
Z 1
= (v1 (x, 0) − v1 (x, 1)) dx.
0
→ Man kann diesen Satz verwenden, um den Flächeninhalt einer Menge Ω durch
ein Kurvenintegral zu bestimmen. Man betrachtet dafür ein Vektorfeld mit
∂x v2 − ∂y v1 = 1.
→ Beispiel: Wir betrachten eine Ellipse mit den Halbachsen a > 0 und b > 0:
2
y2
2 x
T
Ω = (x, y) ∈ R 2 + 2 ≤ 1 .
a b
97
Der Rand ∂Ω kann wie folgt parametrisiert werden
2 a cos t
γ : [0, 2π] → R , γ(t) = .
b sin t
Man kann den Flächeninhalt von Ω wie folgt berechnen:
T
1 2π −b sin t
Z Z
1 −y
F (Ω) = · d(x, y) = γ 0 (t) dt
2 ∂Ω x 2 0 a cos t
Z 2π T
1 −b sin t −a sin t
= dt
2 0 a cos t b cos t
1 2π
Z
1
= ab(sin2 t + cos2 t) dt = 2πab = πab.
2 0 2
Für den Spezialfall eines Kreises, d. h. a = b = r, erhält man die bekannte
Formel F = πr2 .
→ Der Satz von Gauß liefert einen Zusammenhang zwischen dem Bereichsinte-
gral der Divergenz eines Vektorfeldes und einem entsprechenden Randinte-
gral.
Satz 5.7 (Der zweidimensionale Satz von Gauß) Sei Ω ⊂ R2 eine Menge
mit Rand ∂Ω, der durch eine geschlossene stückweise reguläre Kurve γ = γ(t)
parametrisiert ist. Sei v : Ω̄ → R2 ein stetig differenzierbares Vektorfeld. Dann gilt
ZZ Z
div v d(x, y) = v T n ds,
Ω ∂Ω
wobei n = n(t) den Einheitsnormalenvektor zur Kurve γ beschreibt, der nach außen
zeigt, siehe Abbildung 5.7.
→ Man kann diesen Satz für einen Rechteck Ω = [a, b] × [c, d] direkt (ähnlich
wie den Satz von Green) überprüfen. Der Beweis für ein allgemeines Gebiet
erfolgt mit der Approximation von Ω durch Rechtecke.
→ Dieser Satz kann direkt auf dreidimensionale Gebiete verallgemeinert werden.
Satz 5.8 (Der dreidimensionale Satz von Gauß) Sei Ω ⊂ R3 und sei ∂Ω
durch eine stückweise reguläre geschlossene Fläche beschrieben. Sei v : Ω̄ → R3
ein stetig differenzierbares Vektorfeld. Dann gilt
ZZZ ZZ
div v d(x, y, z) = v T n dO,
Ω ∂Ω
98
n(t)
γ(t)
Ω
→ Diese Formulierung des Satzes ist sehr ähnlich zum zweidimensionalen Fall.
Das Integral auf der rechten Seite kann man auch als ein Integral über das
Vektorfeld beschreiben:
ZZ ZZ
T
v n dO = v · dO.
∂Ω ∂Ω
→ Diesen Satz kann man wie im zweidimensionalen Fall zuerst für einen Quader
überprüfen und dann durch die Approximation eines allgemeines Gebietes Ω
durch Quader beweisen.
→ Der Satz von Gauß liefert eine wichtige Interpretation der Divergenz. Der
Gesamtfluss eines Vektorfeldes
ZZ
v · dO.
∂Ω
durch den Rand ∂Ω ist gleich dem Bereichsintegral über die Divergenz.
99
→ In der Hydrodynamik entspricht die Divergenzfreiheit des Geschwindigkeits-
feldes der Inkompressibilität der Flüssigkeit.
→ Eine direkte Folgerung aus dem Satz von Gauß ergibt sich für den Laplace-
Operator. Bekanntlich gilt für ein zweimal stetig differenzierbares Skalarfeld
u : R3 → R
∆u = div(∇u).
Daraus folgt:
ZZZ ZZZ ZZ
∆u d(x, y, z) = div(∇u) d(x, y, z) = ∇uT n dO.
Ω Ω ∂Ω
Satz 5.9 (Greensche Formel) Seien Ω ⊂ R3 und ∂Ω wie im Satz von Gauß.
Sei φ : Ω̄ → R ein stetig differenzierbares Skalarfeld und u : Ω → R ein zweimal
stetig differenzierbares Skalarfeld. Dann gilt:
ZZZ ZZZ ZZ
∆uφ d(x, y, z) = − ∇u · ∇φ d(x, y, z) + φ∇uT n dO.
Ω Ω ∂Ω
Beweis:
Wir betrachten das Vektorfeld v : Ω → R3 definiert als
v = φ∇u.
100
Abbildung 5.8: Möbiusband
→ Als nächstes betrachten wir den Satz von Stokes. Der Satz von Stokes stellt
eine Verallgemeinerung des Satzes von Green auf zweiseitige Flächen in R3
dar. Wir werden hier nicht auf die anschaulich klare Definition der zwei-
seitigen Flächen eingehen. Das bekannteste Beispiel einer Fläche, die nicht
zweiseitig ist, ist das Möbiusband, siehe Abbildung 5.8.
→ Bei einer zweiseitigen Fläche ist die Oberseite der Fläche durch den Einheits-
normalenvektor
1
n(u, v) = ∂u φ(u, v) × ∂v φ(u, v)
k∂u φ(u, v) × ∂v φ(u, v)k
eindeutig definiert.
101
n
φ(B)
∂φ
→ Wir wollen sehen, dass der Satz von Stokes eine Verallgemeinerung des Satzes
von Green ist. Wir betrachten eine messbare Menge Ω ⊂ R2 mit der regulären
Randkurve γ : [a, b] → R2 . Sowohl die Menge Ω als auch die Kurve γ können
wir in R3 einbetten und dabei die Menge Ω als eine Fläche φ : Ω → R3 mit
u
φ(u, v) = v
0
und die Kurve γ als dreidimensionale Kurve Γ : [a, b] → R3 mit
γ1 (t)
Γ(t) = γ2 (t)
0
darstellen. Es gilt für den Normalenvektor zu φ:
∂u φ × ∂v φ = e 3 .
Wir betrachten ein Vektorfeld F : Ω ⊂ R3 → R3 und ein entsprechendes
Vektorfeld f : Ω ⊂ R2 → R2 mit
f1 (x, y) F1 (x, y, 0)
f (x, y) = = .
f2 (x, y) F2 (x, y, 0)
Es gilt
∂y F3 − ∂z F2
rot F = ∂z F1 − ∂x F3
∂x F2 − ∂y F1
102
und somit ist
ZZ ZZ
rot F · dO = (rot F )(φ(u, v)) · (∂u φ × ∂v φ) d(u, v)
φ Ω
ZZ
= (∂x F2 (u, v, 0) − ∂y F1 (u, v, 0)) d(u, v)
Z ZΩ
= (∂x f2 (x, y) − ∂y f1 (x, y)) d(x, y).
Ω
γ10 (t)
Z Z b Z b
F · dx = F (Γ(t)) · Γ0 (t) dt = F (Γ(t)) · γ20 (t) dt
∂φ a a 0
Z b 0
F1 (γ1 (t), γ2 (t), 0) γ (t)
= · 10 dt
a F (γ
2 1 (t), γ2 (t), 0) γ2 (t)
Z b Z
0
= f (γ(t)) · γ (t) dt = f · ds.
a γ
Somit ist der Satz von Green ein Spezialfall des Satzes von Stokes. Der Beweis
des Satzes von Stokes wird hier nicht geführt.
→ Haben zwei Flächen φ1 und φ2 den gleichen Rand, d. h. ∂φ1 = ∂φ2 , so gilt
nach dem Satz von Stokes
ZZ ZZ
rot v · dO = rot v · dO
φ1 φ2
Es ist relativ schwierig dieses Integral direkt auszurechnen. Nach dem Satz
von Stokes gilt: ZZ Z
rot v · dO = v · dx
φ γ
103
mit
cos t
γ : [0, 2π] → R3 , γ(t) = sin t .
0
Man erhält
cos2 t + sin2 t − 03
Z Z 2π − sin t
v · dx = cos t cos t dt
γ 0 e− sin(cos t) 0
Z 2π
− sin t + cos2 t dt = π.
=
0
104
6 Gewöhnliche
Differentialgleichungen
6.1 Beispiele von Differentialgleichungen
→ Eine Differentialgleichung ist eine Gleichung für die unbekannte Funktion u,
in der auch Ableitungen von u vorkommen.
→ Beispiel 1: Man bestimme alle Funktionen u : [0, 1] → R mit
Die erste Bedingung wird nur von Stammfunktionen von t2 erfüllt. Somit
gilt:
1
u(t) = t3 + c.
3
Die Konstante c wird aus der Anfangsbedingung u(0) = 1 bestimmt. Man
erhält:
u(0) = c = 1
und somit
1
u(t) = t3 + 1.
3
→ Im Allgemeinen sind die Lösungen der Gleichung
u0 (t) = f (t)
mit einer gegebenen Funktion f , die Stammfunktionen von f (t). Mit einer
zusätzlichen (meistens physikalisch motivierten) Anfangsbedingung u(0) =
u0 erhält man die eindeutige Lösung
Z t
u(t) = u0 + f (s) ds.
0
105
mit einem Skalarfeld F : R3 → R. Eine stetig differenzierbare Funktion u
heißt eine Lösung dieser Gleichung auf dem Intervall I = [a, b], wenn
erfüllt ist.
Def. Ist die Gleichung explizit nach u0 aufgelöst, so spricht man von einer expli-
ziten Differentialgleichung. Sie hat dann die Form
u0 (t) = au(t)
mit einer gegebenen Zahl a ∈ R. Alle Lösungen dieser Gleichung haben die
Gestalt
u(t) = ceat
mit einer Konstante c ∈ R. Man überprüft leicht, dass
0
u0 (t) = ceat = caeat = au(t)
gilt. Wir zeigen, dass jede Lösung dieser Differentialgleichung die Form u(t) =
ceat hat. Sei v eine Lösung. Wir bezeichnen
q(t) = v(t)e−at .
Es gilt:
106
→ Wir betrachten die Gleichung
u(t) = u0 eat .
Diese Lösung ist konstant falls a = 0, exponentiell wachsend falls a > 0 und
exponentiell fallend, falls a < 0.
u(t) = etA u0
107
→ Eine Differentialgleichung m-ter Ordnung beinhaltet Ableitungen der unbe-
kannten Funktion u bis zur Ordnung m und ist gegeben als
erfüllt ist.
Lösungen dieser Gleichung sind. Daraus folgt, dass jede Funktion der Form
erhalten wir:
u(0) = A = v0 ,
und
u0 (t) = −Aω sin(ωt) + Bω cos(ωt), u0 (0) = Bω = v1 .
Somit hat die Lösung die Darstellung
v1
u(t) = v0 cos(ωt) + sin(ωt).
ω
→ Diese Lösung ist die eindeutige Lösung der obigen Gleichung mit zwei An-
fangsbedingungen.
108
→ Jede Differentialgleichung m-ter Ordnung kann man als System von m Glei-
chungen erster Ordnung äquivalent umschreiben. Für die Gleichung
mit der gesuchten Lösung u : [0, T ] → R führt man die neue Variable v : [0, T ] →
Rm mit
v1 (t) = u(t), v2 (t) = u0 (t), v3 (t) = u00 (t), . . . , vm (t) = u(m−1) (t)
In diesem System kommen nur die ersten Ableitungen von v vor und somit
ist das ein System von m Gleichungen erster Ordnung.
bzw. 0
v1 (t) 0 1 v1 (t)
= .
v20 (t) −ω 2 0 v2 (t)
Wir betrachten dabei den eindimensionalen Fall. Alle Aussagen können aber
direkt auf Systeme von Differentialgleichungen verallgemeinert werden.
109
→ Seien f und u0 gegeben. Wir stellen uns folgende Fragen:
1. Besitzt die obige Gleichung lokal eine Lösung? Das heißt: Gibt es ein
δ > 0 und eine Funktion u, die auf dem Intervall [t0 , t0 + δ) definiert ist
und die Bedingungen
u0 (t) = f (t, u(t)) für alle t ∈ (t0 , t0 + δ)
u(t0 ) = u0
erfüllt?
2. Ist die Lösung der obigen Gleichung eindeutig?
3. Besitzt die Gleichung eine globale Lösung, d.h. eine Funktion u : [t0 , +∞) →
R, so dass
u0 (t) = f (t, u(t)) für alle t ∈ (t0 , +∞)
u(t0 ) = u0
erfüllt ist?
→ Die Antworten auf diese Fragen hängen von den Eigenschaften der Funktion
f ab.
Satz 6.1 (Satz von Peano) Sei u0 ∈ R gegeben, sei f : D → R ein stetiges
Skalarfeld auf einem Rechteck D = [t0 , t0 +α]×[u0 −β, u0 +β] mit positiven α und β.
Dann gibt es ein δ > 0 und eine Lösung u(t) der obigen Gleichung auf dem Intervall
β
[t0 , t0 + δ]. Man kann δ wählen als δ = min(α, M ), wobei M = max(t,x)∈D |f (t, x)|.
→ Dieser Satz wird durch die Konstruktion einer Folge approximativer Lösun-
gen bewiesen. Wir gehen hier auf den Beweis nicht ein.
→ Der Satz hat als einzige Voraussetzung die Stetigkeit von f liefert aber “nur”
die (lokale) Existenz und keine Eindeutigkeit. D. h. es können im Allgemei-
nen mehrere Lösungen existieren.
→ Beispiel: Wir betrachten das Anfangswertproblem
p
u0 (t) = |u(t)|, t > 0 und u(0) = 0.
p
Es gilt: u0 = 0, f (t, x) = |x| ist stetig auf
D = [0, α] × [−β, β]
für beliebige α, β > 0. Somit erfüllt diese Gleichung die Voraussetzungen des
Satzes von Peano. Es folgt dann
p
M = max |f (t, x)| = β
(t,x)∈D
110
und man kann ein δ mit
β p
δ = min α, √ = min(α, β)
β
wählen. Da α und β hier beliebig groß gewählt werden können, kann auch δ
beliebig groß gewählt werden. Somit liefert der Satz vob Peano die Existens
mindestens einer Lösung auf [0, δ) für jedes δ > 0.
Man kann aber direkt nachrechnen, dass die beiden folgenden Funktionen
Lösungen dieser Gleichung sind:
1
u1 (t) = 0 und u2 (t) = t2 .
4
Somit ist diese Lösung nicht eindeutig.
→ Für weitere (stärkere) Existenzaussagen benötigen wir den Begriff der Lipschitz-
Stetigkeit.
Def. Sei f : D ⊂ R2 → R ein stetiges Skalarfeld.
– Man sagt, f erfüllt eine (globale) Lipschitz-Bedingung bezüglich u auf
D, falls es eine Konstante L ≥ 0 gibt, so dass für alle Paare (t, u1 ) ∈ D
und (t, u2 ) ∈ D gilt
111
mit L = 2R. Die globale Lipschitz-Bedingung auf R2 ist für dieses
Skalarfeld nicht erfüllt. Dies liegt daran, dass die Lipschitz-Konstante
L gegen ∞ gehen würde, wenn |u| → ∞.
p
3. Das Skalarfeld f (t, u) = |u| erfüllt keine lokale Lipschitz-Bedingung
in der Umgebung von u = 0. Für zwei Werte u1 , u2 > 0 gilt
√ √ |u1 − u2 |
|f (t, u1 ) − f (t, u2 )| = | u1 − u2 | = √ √ .
u1 + u2
Da der Nenner für u1 , u2 → 0 gegen Null geht, kann man keine Lipschitz-
Konstante in einer Umgebung von Null finden.
→ Ist f bezüglich u stetig differenzierbar auf D, so erfüllt f die lokale Lipschitz-
Bedingung. Das liegt am Mittelwertsatz. Es gilt
Ist f stetig differenzierbar, so ist die partielle Ableitung ∂u f stetig und somit
auf jeder beschränkten Umgebung beschränkt. Deswegen erfüllt f die lokale
Lipschitz-Bedingung.
112
→ Beispiel: Wir betrachten das Anfangswertproblem
Das Skalarfeld f (t, u) = (1 + sin u)2 ist stetig differenzierbar und für die
partielle Ableitung
∂u f (t, u) = 2(1 + sin u) cos u
gilt
|∂u f (t, u)| ≤ 2(1 + 1) · 1 = 4.
Somit erfüllt f die globale Lipschitz-Bedingung und das Anfangswertproblem
hat eine eindeutige Lösung auf jedem Intervall [0, T ] mit T > 0.
→ Alle Aussagen dieses Abschnittes lassen sich direkt auf Systeme gewöhnlicher
Differentialgleichungen
u0 (t) = f (u)g(t).
Die Variablen u und t kommen in den beiden Faktoren f und g getrennt vor.
113
1. Man schrieb die Gleichung in der Form
du
= f (u)g(t)
dt
und formt sie formal um als
1
du = g(t) dt,
f (u)
falls f (u) 6= 0.
2. Man integriert Z Z
1
du = g(t) dt.
f (u)
3. Mit der Stammfunktion F von f1 und der Stammfunktion G von g erhält
man dann
F (u) = G(t) + c
mit einer Konstante c.
4. Man bestimmt c aus der Anfangsbedingung u(t0 ) = u0 und löst die
obige Gleichung nach u auf.
→ Diese Herleitung ist nur formal, da man nicht ohne weiteres eine Gleichung
mit dt durchmultiplizieren darf. Man kann aber die Formel
F (u) = G(t) + c
für die Lösung der obigen gewöhnlichen Differentialgleichung auch rigoros
beweisen. Sei dafür u(t) eine Lösung. Man betrachtet die Funktion
h(t) = F (u(t)) − G(t).
1
mit einer Stammfunktion F von f
und einer Stammfunktion G von g, d. h.
1
F 0 (u) = und G0 (t) = g(t).
f (u)
Es gilt
1 u0 (t) − f (u(t))g(t)
h0 (t) = F 0 (u(t))u0 (t) − G0 (t) = u0 (t) − g(t) = = 0.
f (u(t)) f (u(t))
Somit gilt h(t) = c mit einer Konstante c und die Lösung u(t) muss die
Gleichung
F (u(t)) − G(t) = c
erfüllen.
114
→ Beispiel 1: Wir betrachten das Anfangswertproblem
u0 = ut, u(0) = 5
und erhalten
du 1
= ut ⇒ du = t dt
dt u
und somit Z Z
1
du = t dt.
u
Die Integration ergibt
1
ln(u) = t2 + c
2
und somit
1 2 1 2
u(t) = e 2 t +c
= e 2 t ec .
Aus der Anfangsbedingung u(0) = 5 erhalten wir ec = 5 und somit ist die
Lösung
1 2
u(t) = 5e 2 t .
Durch Testen
1 2
u0 (t) = 5e 2 t t = u(t)t.
kann man die Korrektheit der Lösung überprüfen.
→ Beispiel 2: Wir betrachten das Anfangswertproblem
u0 = −teu , u(0) = −2
und erhalten
du
= −teu ⇒ e−u du = −t dt
dt
und somit Z Z
−u
e du = − t dt.
115
Variation der Konstanten
→ Wir betrachten die Gleichungen vom Typ
u0 (t) = f (t)u + g(t).
Für den Fall g(t) = 0, d.h. für die Gleichung
u0 (t) = f (t)u
erhalten wir mit Trennung der Variablen
Z Z
1
du = f (t) dt.
u
Sei F (t) eine Stammfunktion von f dann folgt
ln u = F (t) + c1
und somit
u = eF (t)+c1 = ec1 eF (t) = c eF (t)
mit einer Konstanten c = ec1 .
→ Um die Gleichung im Allgemeinen Fall, also g 6= 0 zu lösen, macht man den
folgenden Ansatz:
u(t) = c(t)eF (t)
mit der Stammfunktion F von f und einer t-abhängigen funktion c(t). Da
man hier eine Konstante durch eine Funktion ersetzt, spricht man von Va-
riation der Konstanten.
→ Für diesen Ansatz erhält man mit der Produkt- und der Kettenregel:
u0 (t) = c0 (t)eF (t) + c(t)eF (t) F 0 (t)
= c0 (t)eF (t) + c(t)eF (t) f (t)
= c0 (t)eF (t) + u(t)f (t)
Setzt man für u0 die Gleichung, also u0 = u(t)f (t) + g(t), ein, so erhält man
u(t)f (t) + g(t) = c0 (t)eF (t) + u(t)f (t)
und somit
g(t) = c0 (t)eF (t) ,
bzw.
c0 (t) = g(t)e−F (t) .
Dann bestimmt man c als eine Stammfunktion von g(t)e−F (t) und erhält die
Lösung der ursprünglichen Gleichung u(t) = c(t)eF (t) .
116
→ Beispiel: Man löse das Anfangswertproblem
u
u0 = − + cos t, u(π) = 1.
t
Für die Gleichung
u
u0 = −
t
erhält man
du u
=−
dt t
und somit Z Z
1 1
du = − dt.
u t
Daraus folgt
ln u = − ln t + c1
und somit
c
u = e− ln t+c1 = e− ln t ec1 =
t
c1
mit c = e . Für die ursprüngliche Gleichung machen wir also den folgenden
Ansatz:
c(t)
u(t) = .
t
Es gilt
c0 (t)t − c(t) c0 (t) u
u0 (t) = = − .
t2 t t
Aus der Gleichung hat man
u
u0 = − + cos t.
t
Daraus folgt
c0 (t)
= cos t
t
und somit Z
c(t) = t cos t dt.
117
Wir setzen die Anfangsbedingung ein und erhalten
−1 + d
1 = u(π) = 0 + ⇒ d = π + 1.
π
Die Lösung ergibt sich als
cos t + π + 1
u(t) = sin t + .
t
Die Richtigkeit der Lösung kann man durch Testen überprüfen:
−t sin t − cos t − π − 1 u
u0 (t) = cos t + 2
= cos t −
t t
und
−1 + π + 1
u(π) = 0 + = 1.
π
u(t) = etA u0 .
→ Polynome und rationale Funktionen von Matrizen lassen sich leicht definie-
ren.
und sei A ∈ Rn×n eine Matrix. Wir definieren p(A) ∈ Rn×n durch
118
Def. Sei die rationale Funktion f gegeben als
p(x)
f (x) =
q(x)
mit zwei Polynomen p und q. Sei außerdem A ∈ Rn×n derart gegeben, dass
q(A) invertierbar ist. Dann definieren wir f (A) ∈ Rn×n durch
→ Beispiel: Für
1 + 2x
f (x) =
1 + x2
gilt:
f (A) = (In + A2 )−1 (In + 2A).
– Achtung: Obwohl der Nenner 1 + x2 6= 0 für alle x, gibt es Matrizen A
für die In + A2 nicht invertierbar ist. Man kann sogar Matrizen A mit
In + A2 = 0 angeben, z. B.
0 1 2 −1 0
A= , A = = −I2 .
−1 0 0 −1
kAxk
kAk2 = sup ,
x∈Rn , x6=0 kxk
119
(d) Sei A ∈ Rn×n beliebig, dann gilt
√
µ µ ∈ R+ ∪ {0} ist Eigenwert von AT A .
kAk2 = max
→ Wie bei reellen Zahlen und Vektoren betrachten wir Folgen von Matrizen:
A1 , A2 , . . . , Ak , . . .
Def. Eine Folge {Ak } ⊂ Rn×n konvergiert gegen eine Matrix A ∈ Rn×n , wenn
erfüllt ist.
→ Man kann diesen Konvergenzbegriff auch mit Hilfe einer anderen Matrizen-
norm (z. B. maximale Zeilensummennorm) definieren. Die resultierenden Be-
griffe sind äquivalent.
→ Es gilt: Die Folge {Ak } ⊂ Rn×n konvergiert gegen eine Matrix A ∈ Rn×n
genau dann wenn
erfüllt ist. D. h. die Konvergenz von Matrizen ist äquivalent zur komponen-
tenweisen Konvergenz.
mit α, β ∈ R.
120
(b) Aus Ak → A und Bk → B für k → ∞ folgt
Ak Bk → AB für k → ∞.
Def. Es sei eine Matrizenfolge {Ak } gegeben. Wir definieren die Partialsumme
l
X
Sl = A0 + A1 + A2 + · · · + Al = Ak .
k=0
Ist die Folge {Sl } konvergent, so spricht man von einer konvergenten Reihe:
∞
X
Ak = lim Sl .
l→∞
k=0
→ Beispiele:
(a) Die Reihe
∞ 1
!
X k!
0
Ak mit Ak = 1 1
k=0 2k 5k
konvergiert gegen
! !
e 0 e 0
A= 1 1 = 5
.
1− 12 1− 51 2 4
konvergiert.
Satz 6.3 Ist eine Matrizenreihe absolut konvergent, so ist sie auch konvergent.
→ Dieser Satz wird wie für reelle (oder komplexe) Reihen mit Hilfe des Cauchy-
Kriteriums bewiesen, welches für Matrizenreihen analog zu den reellen Rei-
hen formuliert werden kann.
121
Def. Sei eine Funktion f durch eine Potenzreihe
∞
X
f (x) = ck x k
k=0
→ Mit Hilfe dieser Definition können wir alle Funktionen, die sich durch Po-
tenzreihen darstellen lassen, auch für Matrizen definieren. Da die Reihen für
ex , sin x und cos x für alle x ∈ R konvergieren, sind die Matrizen eA , sin A
und cos A für alle A ∈ Rn×n definiert. Es gilt z. B.
∞
A
X 1 k 1 1
e = A = I + A + A2 + A3 + . . . .
k=0
k! 2 3!
→ Beispiele:
(a) Für
a 0
A=
0 b
gilt: k
a 0
k
A =
0 bk
122
und somit
∞ ∞ a
X
A 1 k X 1 ak 0 e 0
e = A = = .
k=0
k! k=0
k! 0 bk 0 eb
0 . . . 0 an
ea1
0 ... 0
... ..
0 ea2 .
A a1 a2 an
e = diag(e , e , . . . e ) = .
.. ... ...
. 0
0 . . . 0 ean
(b) Für
0 1
A=
0 0
gilt:
2 0 0
A = und Ak = 0 für alle k ≥ 2.
0 0
Somit erhält man:
∞
A
X 1 k 1 1
e = A =I +A= .
k! 0 1
k=0
Def. Eine Matrix A ∈ Rn×n heißt nilpotent, wenn es eine Zahl r ∈ N mit Ar = 0
gibt.
→ Ist eine Matrix A diagonalisierbar, so lässt sich eA direkt mit Hilfe der Ei-
genwerte und Eigenvektoren bestimmen.
123
Satz 6.4 Sei die Matrix A ∈ Rn×n diagonalisierbar, d. h. es existiere eine inver-
tierbare Matrix T und eine Diagonalmatrix
D = diag(λ1 , λ2 , . . . , λn )
Beweis:
Es gilt:
A2 = T DT −1 T DT −1 = T D2 T −1 , A3 = A2 A = T D2 T −1 T DT −1 = T D3 T −1 .
Ak = T Dk T −1 .
→ Analog kann man f (A) für eine diagonalisierbare Matrix A und eine durch
eine Potenzreihe gegebene Funktion f bestimmen. Es gilt dann:
f (λ1 ) 0 ... 0
. ..
0 f (λ2 ) . . . −1
−1
f (A) = T f (D)T = T . . . T .
.. .. .. 0
0 ... 0 f (λn )
124
→ Beispiel: Wir betrachten die Matrix
1 2
A= .
2 1
Es gilt
1−t 2
χA (t) = det = (1 − t)2 − 4 = t2 − 2t − 3 = (t − 3)(t + 1).
2 1−t
Daraus ergeben sich die Eigenwerte λ1 = 3 und λ2 = −1. Für die Eigenvek-
toren gilt:
−2 2 −2 2 1
→ und somit v1 = .
2 −2 0 0 1
Für v2 erhält man analog
2 2 2 2 1
→ und somit v2 = .
2 2 0 0 −1
Daraus ergibt sich die Darstellung
3 0 −1 1 1 −1 1 1 1
A=T T mit T = und T = .
0 −1 1 −1 2 1 −1
Wir erhalten
1 e3 + e−1 e3 − e−1
3
A e 0 −1
e =T T = .
0 e−1 2 e3 − e−1 e3 + e−1
eA+B = eA eB .
Dies kann wie folgt begründet werden: Die Matrizen A und (−A) vertauschen
und deswegen gilt:
eA e−A = eA−A = e0 = In .
125
→ Wie berechnet man eA für nicht diagonalisierbare Matrizen? Jede Matrix
A ∈ Rn×n kann man darstellen als
A = T (D + N )T −1
vom Typ
u0 (t) = Au(t), u(0) = u0
mit einer gegebenen Matrix A ∈ Rn×n und dem Anfangswert u0 ∈ Rn .
Es gilt:
∞ ∞
X 1 k
X 1 k k
g(t) = (tA) = A t .
k=0
k! k=0
k!
126
Diese Funktion ist also als eine Potenzreihe gegeben. Wie für reelle Potenz-
reihen, kann man zeigen, dass sich die Ableitung durch gliedweise Differen-
tiation bestimmen lässt:
∞ ∞
0
X k k k−1 X 1
g (t) = A t =A Ak−1 tk−1 = AetA .
k=0
k! k=1
(k − 1)!
Beweis:
Zuerst zeigen wir, dass u(t) = etA u0 eine Lösung ist. Es gilt
u(0) = e0·A u0 = In u0 = u0
und
u0 (t) = AetA u0 = Au(t).
Die Eindeutigkeit folgt nach dem Satz von Picard-Lindelöf, da das Vektorfeld
f (u) = Au global Lipschitz-stetig ist.
#
→ Beispiele:
(a) Wir betrachten das System
mit
1 2 2
A= und u0 = .
2 1 3
127
Wir haben schon gezeigt, dass die Matrix A zwei reelle Eigenwerte hat
und diagonalisierbar ist. Es gilt
3 0 −1 1 1 −1 1 1 1
A=T T mit T = und T = .
0 −1 1 −1 2 1 −1
Dann folgt
3t 0
tA = T T −1
0 −1t
und somit
1 e3t + e−t e3t − e−t
tA e3t 0 −1
e =T T = .
0 e−t 2 e3t − e−t e3t + e−t
Für die Lösung u(t) erhalten wir
1 e3t + e−t e3t − e−t 1 5e3t − e−t
tA 2
u(t) = e u0 = = .
2 e3t − e−t e3t + e−t 3 2 5e3t + e−t
mit
1 2 2
A= und u0 = .
0 1 3
Es gilt:
χA (t) = (1 − t)2 ,
der einzige (doppelte) Eigenwert ist λ = 1 und der Eigenraum ist
1
Vλ = Lin .
0
Somit ist die Matrix A nicht diagonalisierbar. Wir bestimmen etA auf
einem anderen Wege. Es gilt:
0 2
tA = tI + tB mit B = .
0 0
Wir erhalten
etA = etI etB = et IetB = et etB
(da die Matrizen tI und tB vertauschen) und
128
Insgesamt folgt
tA t 1 2t
e =e
0 1
und die Lösung u(t) ergibt sich als
tA t 1 2t 2 t 2 + 6t
u(t) = e u0 = e =e .
0 1 3 3
129
Daraus folgt
tA atI tB at tB at cos bt − sin bt
e =e e =e e =e
sin bt cos bt
und somit
tA cos bt − sin bt
at 2 at 2 cos bt − 3 sin bt
u(t) = e u0 = e =e .
sin bt cos bt 3 2 sin bt + 3 cos bt
durch
u(t) = etA u0
gegeben ist. Ist die Matrix A über R diagonalisierbar, so erlaubt die Lösung
eine etwas vereinfachte Darstellung. In diesem Fall existiert eine Basis aus
Eigenvektoren
v1 , v2 , . . . , vn
zu den reellen Eigenwerten
λ1 , λ2 , . . . , λn .
130
Für den Vektor c ∈ Rn der Koeffizienten gilt dann
T c = u0 .
Somit erhält man für die Lösung:
u(t) = T etD T −1 u0 = T etD T −1 T c
e λ 1 t c1
λ2 t
e c2
= T etD c = v1 v2 . . . vn ..
.
eλn t cn
= eλ1 t c1 v1 + eλ2 t c2 v2 + . . . eλn t cn vn .
131
→ Jetzt betrachten wir noch den Fall, wenn die Matrix A (wie im Beispiel
(c) oben) nicht-reelle Eigenwerte hat und über C diagonalisierbar ist. Das
Gleichungssystem
Die Eigenwerte und die Eigenvektoren sind hier i.A. komplexwertig, die ge-
samte Darstellung ergibt aber eine reelle Funktion. Im folgenden diskutieren
wir diesen Zusammenhang und leiten eine direkte reellwertige Darstellung
her.
→ Hat eine reelle Matrix A einen komplexen Eigenwert λ, so ist die konjugierte
Zahl λ̄ ebenfalls ein Eigenwert von A. Wir betrachten examplarisch eine
Matrix A ∈ R2×2 mit einem komplexen Eigenwert λ = x + iy, y 6= 0 und
einem weiteren Eigenwert λ̄ = x − iy. Sei ein Eigenvektor zum Eigenwert λ
gegeben als v ∈ C2 , v = q + ip, q, p ∈ R2 . Ein Eigenvektor zu dem Eigenwert
λ̄ ist v̄ = q − ip. Wir betrachten die Darstellung
u0 = c1 v + c2 v̄.
u0 = cv + c̄v̄.
132
Es gilt
etλ cv = et(x+iy) (a + bi)(q + ip) = etx (cos(ty) + i sin(ty)) · ((aq − bp) + i(ap + bq))
= etx (cos(ty)(aq − bp) − sin(ty)(ap + bq))
+ ietx (cos(ty)(ap + bq) + sin(ty)(aq − bp)).
λ1 , λ2 , . . . , λn ∈ C
v1 , v2 , . . . , vn ∈ Cn ,
am etxm (cos(tym )qm −sin(tym )pm )+bm etxm (cos(tym )pm +sin(tym )qm )
133
mit
1 −2 2
A= , und u0 = .
2 1 3
Es gilt:
χA (t) = (1 − t)2 + 4
und somit hat man die Eigenwerte
λ = 1 + 2i und λ̄ = 1 − 2i.
und erhalten
i 0 1
v= =1· +i· .
1 1 0
Wir setzten die Lösung u(t) wie folgt an
t 0 1 t 1 0
u(t) = ae cos(2t) − sin(2t) + be cos(2t) + sin(2t)
1 0 0 1
− sin(2t) cos(2t)
= aet + bet .
cos(2t) sin(2t)
Die Koeffizienten a und b werden mit Hilfe der Anfangsbedingung wie folgt
bestimmt:
2 0 1 b
= u0 = u(0) = a +b = .
3 1 0 a
Daraus folgt a = 3, b = 2 und die Lösung ist gegeben als
t − sin(2t) t cos(2t)
u(t) = 3e + 2e .
cos(2t) sin(2t)
134
→ Um dieses System zu lösen, machen wir folgenden Ansatz:
Es gilt:
u0 (t) − Au(t) − f (t) = AetA (u0 + c(t)) + etA c0 (t) − AetA (u0 + c(t)) − f (t)
= etA c0 (t) − f (t).
Die Funktion c kann also komponentenweise als Stammfunktion von e−tA f (t)
bestimmt werden. Insgesamt ergibt sich die Darstellung
Z t
tA −sA
u(t) = e u0 + e f (s) ds .
0
→ Man kann direkt zeigen, dass dies die eindeutige Lösung des inhomogenen
Systems ist.
mit
1 2 2 1
A= , u0 = und f (t) =
2 1 3 1
Wir haben schon gezeigt:
135
Somit gilt:
e−3s + es e−3s − es
−3s
−sA 1 1 e −3s 1
e f (s) = = −3s = e
2 e−3s − es e−3s + es 1 e 1
und Z t
−sA 1 −3t 1
e f (s) ds = − (e − 1) .
0 3 1
Insgesamt erhält man
Z t
tA −sA
u(t) = e u0 + e f (s) ds
0
1 5e3t − e−t 1 1 − e−3t e3t + e−t e3t − e−t
1
= 3t −t + 3t −t 3t −t
2 5e + e 2 3 e −e e +e 1
−t −3t 3t
3t
1 5e − e (1 − e )e 1
= 3t −t +
2 5e + e 3 1
17 1 1 −1 1 1
= e3t + e−t − .
6 1 2 1 3 1
und erhält
v10 = v2
v20 = v3
...
0
vm−1 = vm
a0 a1 am−1
0
= − v1 − v2 − · · · −
vm
vm
am am am
bzw. v 0 = Av mit der entsprechenden Matrix A. Man kann leicht zeigen, dass
am χA (s) = am sm + am−1 sm−1 + · · · + a1 s + a0
gilt.
136
→ Basierend auf den Überlegungen aus dem letzten Abschnitt kann man her-
leiten, wie die Lösung u(t) von den Nullstellen dieses charakteristischen Po-
lynoms abhängt.
– Für eine k-fache reelle Nullstelle λ betrachtet man die Funktionen
Die allgemeine Lösung der obigen Gleichung ergibt sich dann als eine Line-
arkombination dieser Funktionen.
→ Beispiele:
(a) Wir betrachten die Gleichung
s3 − 6s2 + 11s − 6 = 0
λ1 = 1, λ2 = 2, λ3 = 3.
137
(b) Wir betrachten die Gleichung
u(4) − 4u000 + 5u00 − 4u0 + 4u = 0.
Die charakteristische Gleichung
s4 − 4s3 + 5s2 − 4s + 4 = 0
besitzt die Nullstellen
λ1 = λ2 = 2, λ3 = i, λ4 = −i
Die allgemeine Lösung hat somit die Form
u(t) = c1 e2t + c2 te2t + c3 cos t + c4 sin t, c1 , c2 , c3 , c4 ∈ R.
6.7 Stabilität
→ In diesem Abschnitt beschäftigen wir uns mit der (asymptotischen) Stabilität
stationärer Punkte einer autonomen Differentialgleichung.
Def. Eine Differentialgleichung heißt autonom, wenn sie nicht explizit von der
freien Variable t abhängt. D. h. die Gleichung der Form
u0 = f (u)
ist autonom.
→ Beispiel: Wir betrachten die folgende lineare autonome Gleichung
u0 = f (u), u(0) = u0 ,
mit f (u) = −2u+1. Löst man diese Gleichung mit dem Ansatz der Variation
der Konstanten, so erhält man die allgemeine Lösung
1 2t 1
u(t) = e + c0 e−2t = + c0 e−2t .
2 2
Setzt man die Bedingung u(0) = u0 ein, so erhält man
1 1 −2t
u(t) = + u0 − e .
2 2
Für u0 = 12 ist die Lösung des Anfangswertproblems u(t) = 12 . Man sagt,
dass 12 ein stationärer Punkt oder Gleichgewichtspunkt dieser Gleichung ist.
Ist u0 beliebig, so stellt man fest, dass
1
u(t) → , t → ∞.
2
1
Man sagt, dass 2 attraktiv und stabil ist.
138
Def. Ein Vektor v ∈ Rn heißt stationärer Punkt oder Gleichgewichtspunkt einer
autonomen Differentialgleichung
u0 = f (u),
→ Ist v ein stationärer Punkt der obigen Gleichung, so ist u(t) = v eine Lösung
dieser Gleichung (da u0 = 0 und f (u) = f (v) = 0) und somit eine Lösung
der Anfangswertaufgabe
u0 = f (u), u(0) = v.
u0 = f (u),
heißt
(a) stabil, wenn es zu jedem ε > 0 ein δ > 0 gibt, so dass jede Lösung u
der obigen Differentialgleichung mit
ku(0) − vk < δ
erfüllt;
(b) attraktiv, falls es ein δ > 0 gibt, so dass jede Lösung u der obigen
Differentialgleichung mit
ku(0) − vk < δ
lim u(t) = v.
t→∞
→ Für n = 1 folgt die Stabilität aus der Attraktivität. Fr n > 1 folgt das im
Allgemeinen nicht.
139
→ Für den Fall eines autonomen linearen Systems
u0 (t) = Au(t) + b
kann man die Stabilität der stationären Punkte mit Hilfe der Eigenwerte der
Matrix A charakterisieren.
→ Bei dem obigen Beispiel u0 = −2u + 1 war die Matrix A ∈ R1×1 gegeben als
A = (−2) mit dem einzigen Eigenwert λ = −2. Es gilt Re(λ) = −2 < 0 und
somit ist die Lösung der Gleichung
−2v + 1 = 0,
140
4) instabil
5) stabil, aber nicht assymptotisch stabil, denn
−t
ae
u(t) = .
b
u0 = f (u)
erfüllt ist.
u0 = Jf (v)(u − v) + r(v; u)
betrachten. Es stellt sich heraus, dass für die Stabiltät der lineare Anteil
Jf (v)(u − v) entscheidend ist.
u0 = f (u).
141
(b) Ist Re(λj ) > 0 für ein j, so ist v instabil.
nur hinreichend und nicht notwendig für die asymptotische Stabilität ist.
Sind also alle Eigenwerte λi von Jf (v) nicht-positiv (λi ≤ 0) und ein λj = 0,
so kann man im Allgemeinen keine Aussage über die Stabilität des stati-
onären Punktes treffen.
Es gilt
1 1
Jf (u) =
−2u1 1
und somit
1 1 1 1
Jf (v) = und Jf (w) =
4 1 −2 1
Die Matrix Jf (v) hat die Eigenwerte λ1 = −1 und λ2 = 3. Somit ist der
stationäre
√ Punkt v instabil. Die Matrix Jf (w) hat die Eigenwerte λ1,2 =
1 ± i 2 mit Re(λ1/2 ) = 1 > 0. Somit is der stationäre Punkt w ebenfalls
instabil.
142