10-LinearDiffEq

Scarica in formato pdf o txt
Scarica in formato pdf o txt
Sei sulla pagina 1di 48

1.

Equazioni e Sistemi di Equazioni


Differenziali Lineari

Un altro tipo importante di equazioni di equazioni differenziali è cos-


tituito dalle equazioni lineari. La più semplice equazione lineare può
essere scritta nella forma

y0 ( x ) = a( x )y( x ) + b( x ) (1.1)

Se a, b ∈ C o ( I ), l’equazione 1.1 ammette una ed una soluzione


definita su tutto I; questa è forse una delle più importanti caratter-
istiche di questo tipo di equazioni e si può facilmente verificare, in
questo caso, direttamente.
Sia x0 ∈ I, ed y0 ∈ R, e sia A una primitiva di a in I. L’esistenza
di A è assicurata dalla continuità di a; ad esempio possiamo porre
Rx
A( x ) = xo a(t)dt.
La 1.1 è vera se e solo se

e− A( x ) y0 ( x ) − e− A( x ) a ( x )y ( x ) = b ( x )e− A( x )
e ciò è equivalente a
d  − A( x ) 
e y ( x ) = b ( x )e− A( x ) .
dx
Integrando tra x0 ed x, si ottiene
Z x
e − A ( x ) y ( x ) = y0 + b(t)e− A(t) dt
x0

ed infine
 Z x 
y( x ) = e A( x )
y0 + b(t)e− A( x) dt (1.2)
x0

Quanto abbiamo esposto consente di affermare che tutte le soluzioni


dell’equazione 1.1 si ottengono, al variare di y0 ∈ R, dalla 1.2.
Osserviamo anche che la 1.2 stessa può essere riscritta nella seguente
maniera:
Rx Rx Z x Rt
y ( x ) = y0 e xo a(t)dt
+e xo a(t)dt
b(t)e− xo a(s)ds
dt
x0
2

in accordo con i risultati che proveremo nel seguito per il caso più
generale.
La 1.2 costituisce, al variare di y0 , l’integrale generale dell’equazione
1.1.
I passi successivi consistono nel considerare equazioni lineari di or-
dine superiore oppure sistemi di equazioni del primo ordine.
Un’equazione lineare di ordine n si può scrivere nella forma
n
y(n) ( x ) = ∑ a i y ( i −1) ( x ) + b ( x ) (1.3)
i =1

dove ai , b ∈ C 0 mentre un sistema lineare di ordine n si scrive nella


forma
Y 0 ( x ) = A ( x )Y ( x ) + B ( x ) (1.4)
dove A( x ) = { aij ( x )} e B( x ) = {bi ( x )} sono una matrice ed un vettore
i cui elementi sono funzioni continue su un intervallo I; (scriviamo
A ∈ C k ( I ), B ∈ C k ( I ) quando intendiamo pertanto affermare che aij ∈
C k ( I ), bi ∈ C k ( I ) per i, j = 1, ..., n).
Il sistema può essere riscritto usando le componenti di Y, A, B, nella
seguente maniera

y10 ( x )
      
a11 ( x ) a12 ( x ) . . . a1n ( x ) y1 ( x ) b1 ( x )
 0
 y2 ( x )   a21 ( x ) a22 ( x ) . . . a2n ( x )   y2 ( x )   b2 ( x ) 
     
 . = . .. ..   ..  +  .. 
..
   
 .   .
 .   . . . .  .   . 

y0n ( x ) an1 ( x ) an2 ( x ) ... ann ( x ) yn ( x ) bn ( x )


(1.5)
ed anche, in forma più compatta
n
yi0 ( x ) = ∑ aij (x)y j (x) + bi (x) , i = 1, ..., n (1.6)
j =1

Qualora B ≡ 0 il sistema si dice omogeneo e assume la forma

Y 0 ( x ) = A ( x )Y ( x ) (1.7)

Quando n = 1 il sistema si riduce ad una sola equazione differen-


ziale lineare del primo ordine che, posto A = ( a11 ) = a e B = b1 = b,
si scrive nella forma

y0 ( x ) = a( x )y( x ) + b( x )

L’insieme T di tutte le soluzioni di 1.4 si chiama integrale generale


del sistema .
Quando si associa al sistema o all’equazione differenziale un oppor-
tuno insieme di condizioni iniziali parliamo di problema di Cauchy

Y 0 ( x ) = A ( x )Y ( x ) + B ( x ) , ∀x ∈ I
(1.8)
Y ( x0 ) = Y0
3


y(n) ( x ) = a ( x )y(n−1) ( x ) + .... + a ( x )y( x ) + b( x ) , ∀x ∈ I
n 1
(1.9)
 y ( x 0 ) = y 0 , y 0 ( x 0 ) = y 1 , . . . , y ( n −1) ( x 0 ) = y n −1

sono problemi di Cauchy.


Lo studio di un sistema consente di trovare risultati anche per l’equazione
di ordine n; sia infatti

y ( n ) ( x ) = a n ( x ) y ( n −1) ( x ) + . . . + a 1 ( x ) y ( x ) + b ( x ) (1.10)

una equazione differenziale lineare di ordine n e poniamo

y i ( x ) = y ( i −1) ( x ) , i = 1, . . . , n. (1.11)

(Per chiarire le idee osserviamo che si avrà y1 ( x ) = y( x ) , .... ,


yn ( x ) = y(n−1) ( x ) ).
Possiamo riscrivere l’equazione nella seguente forma



 y10 ( x ) = y2 ( x )

 0
 y2 ( x ) = y3 ( x )



... (1.12)


...





y0 ( x ) = a ( x )y ( x ) + .... + a ( x )y ( x ) + b( x )

n n n 1 1

ed anche come
Y 0 ( x ) = A ( x )Y ( x ) + B ( x )
non appena si sia definito
   
0 1 0 ... 0 0
0 0 1 ... 0   0 
   

A( x ) = 
 .. .. .. .. ..  B( x ) =  . 

 . . . . .   .. 
 

a1 ( x ) a2 ( x ) a3 ( x ) ... an ( x ) b( x )

Vale il seguente teorema di cui è importante in questo contesto solo


l’enunciato.

Teorema 1.1 Siano A: I −→ Mn , B : I −→ Rn continue e siano x0 ∈ I,


Y0 ∈ Rn .
Allora esiste una ed una sola soluzione del problema di Cauchy

Y 0 ( x ) = A ( x )Y ( x ) + B ( x ) , ∀ x ∈ I
(1.13)
Y ( x0 ) = Y0

Il teorema precedente consente di provare un risultato di esistenza


anche per le equazioni differenziali lineari di ordine n.
4

Teorema 1.2 Siano ai , b ∈ C 0 ( I ), i = 1, ..., n e siano x0 ∈ I, yi ∈ R, i =


0, ..., n − 1. Allora esiste una ed una sola soluzione y : I −→ R del problema
di Cauchy 
 y ( n ) ( x ) = ∑ n a ( x ) y ( i −1) ( x ) + b ( x )
i =1 i
(1.14)
 y (i ) ( x0 ) = y i , i = 0, ..., n − 1

Proviamo ora che l’insieme delle soluzioni di un sistema differen-


ziale lineare, cioè l’integrale generale di un sistema differenziale omo-
geneo del primo ordine è uno spazio vettoriale avente dimensione
uguale al numero di equazioni del sistema stesso.

Teorema 1.3 Sia A ∈ C 0 ( I ) e consideriamo il sistema differenziale lineare


del primo ordine
Y 0 ( x ) = A ( x )Y ( x ) ;
sia S il suo integrale generale. Allora S è uno spazio vettoriale di dimensione
n.

Dimostrazione. E’ immediato verificare che S è uno spazio vettori-


ale in quanto si vede subito che se y e z sono soluzioni del sistema
assegnato tali risultano anche αy + βz ove α, β sono scalari.
Per provare che dim S = n è sufficiente osservare che, per il teorema
di esistenza ed unicità della soluzione l’applicazione lineare

Γ : S −→ Rn

definita da
Γ (Y ) = Y ( x 0 ) , x0 ∈ I
è un isomorfismo. 2
In base al teorema precedente è possibile affermare che ogni soluzione
di un sistema differenziale lineare omogeneo di n equazioni in n incog-
nite può essere espressa mediante un combinazione lineare di n soluzioni
linearmente indipendenti del sistema stesso.
Siano esse Y1 , ..., Yn e sia (yi ) j la componente j-esima della i-esima
soluzione.
Possiamo allora costruire la matrice
 
( y1 )1 ( y2 )1 . . . ( y n )1
 ( y1 )2 ( y2 )2 . . . ( y n )2 
 
G=  .. .. .. ..  (1.15)
 . . . . 

( y1 ) n ( y2 ) n ... (yn )n
che indicheremo spesso come

G = (Y1 , Y2 , ....., Yn )

considerando gli Yi come vettori colonna, e che si chiama matrice fon-


damentale del sistema assegnato.
5

È possibile verificare che se G è una matrice fondamentale del sis-


tema omogeneo 1.7 allora si ha

G0 ( x ) = A( x ) G ( x ) (1.16)

Il sistema 1.16 è un sistema differenziale lineare di n2 equazioni in n2


incognite.
Ogni soluzione del nostro sistema potrà allora essere scritta nella
forma
Y ( x ) = G ( x ) C , C ∈ Rn
ovvero, considerando le componenti,
n
yi ( x ) = ∑ ( y j )i c j .
j =1

Anche lo spazio delle soluzioni di un sistema differenziale lineare


ordinario del primo ordine non omogeneo è strutturato in maniera
molto precisa.

Teorema 1.4 Siano A ∈ C 0 ( I ) B ∈ C 0 ( I ) e consideriamo il sistema dif-


ferenziale lineare non omogeneo del primo ordine

Y 0 ( x ) = A ( x )Y ( x ) + B ( x )

Sia T l’integrale generale del sistema assegnato e sia S l’integrale generale


del sistema omogeneo ad esso associato

Y 0 ( x ) = A ( x )Y ( x )

sia ancora z ∈ C 0 ( I ) tale che

Z0 ( x ) = A( x ) Z ( x ) + B( x )

Allora
T = Z+S
e T è uno spazio lineare affine di dimensione n.

Dimostrazione. E’ evidente che T ⊃ Z + S ; sia viceversa Y ∈ T ,


è facile verificare che Y − Z soddisfa il sistema omogeneo associato e
pertanto Y − Z ∈ S da cui Y ∈ Z + S . 2

Definizione 1.1 Siano Y1 , Y2 , ....., Yn n soluzioni del sistema differenziale


lineare omogeneo
Y 0 ( x ) = A ( x )Y ( x )
Chiamiamo determinante wronskiano, o più semplicemente wronskiano,
associato alle n soluzioni assegnate il determinante della matrice

(Y1 , Y2 , ....., Yn )
6

In altri termini
 
(y1 ( x ))1 (y2 ( x ))1 ... (yn ( x ))1
 (y1 ( x ))2 (y2 ( x ))2 ... (yn ( x ))2 


W ( x ) = det  .. .. .. ..  (1.17)
. . . .
 
 
(y1 ( x ))n (y2 ( x ))n . . . (yn ( x ))n

Proviamo ora una interessante proprietà del wronskiano.

Teorema 1.5 Siano verificate le ipotesi del teorema di esistenza ed unicità


per il sistema differenziale lineare omogeneo

Y 0 ( x ) = A ( x )Y ( x )

e siano Y1 ,Y2 ,...,Yn n soluzioni del sistema stesso.


Sono fatti equivalenti:

1. Y1 , ..., Yn sono linearmente indipendenti;

2. W ( x ) 6= 0 per ogni x ∈ I

3. esiste x0 ∈ I tale che W ( x0 ) 6= 0.

Dimostrazione. Consideriamo, per ogni x fissato in I l’applicazione


lineare
Γ x : S −→ Rn
definita da Γ x (Y ) = Y ( x ). Per il teorema di esistenza ed unicità Γ x è
un isomorfismo.

• (1) ⇒ (2)
Se Y1 , ..., Yn sono linearmente indipendenti in S , allora

Γ x (Y1 ), ..., Γ x (Yn )

sono linearmente indipendenti in Rn e perciò

0 6= det (Γ x (Y1 ), ..., Γ x (Yn )) = det (Y1 ( x ), ..., Yn ( x )) = W ( x )

per ogni x ∈ I

• (2) ⇒ (3)
È ovvio.

• (3) ⇒ (1)
W ( x0 ) 6= 0 implica che Y1 ( x0 ), ..., Yn ( x0 ) sono linearmente indipen-
denti in Rn e perciò

Y1 = Γ− 1 −1
x0 (Y1 ( x0 )) , ..., Yn = Γ x0 (Yn ( x0 ))

sono linearmente indipendenti in S


7

2
Per il teorema precedente è essenziale che Y1 , ..., Yn siano soluzioni
del sistema; se ciò non fosse, sarebbe vero solo che (2) ⇒ (3) ⇒ (1)
Che le altre implicazioni siano false è facilmente visto se si considera
il wronskiano associato alle funzioni Y1,2 : R −→ R2 definite da

Y1 ( x ) = ( x2 , 2x ) , Y2 ( x ) = (2x, 2)

oppure

 
( x2 , 2x ) x≥0 ( x2 , 2x ) x≤0
Y1 ( x ) = , Y1 ( x ) =
0 x<0 0 x>0

Altrettanti risultati possono essere ottenuti per le equazioni di or-


dine n.

Teorema 1.6 Siano ai , b ∈ C 0 ( I ) , i = 1, ..., n, e consideriamo l’equazione


differenziale lineare di ordine n
n
y(n) ( x ) = ∑ a i ( x ) y ( i −1) ( x )
i =1

Sia S il suo integrale generale, allora S è uno spazio vettoriale di dimen-


sione n.
Sia
n
y(n) ( x ) = ∑ a i y ( i −1) ( x ) + b( x )
i =1

la corrispondente equazione differenziale lineare di ordine n non omogenea, e


sia T il suo integrale generale.
T è uno spazio lineare affine di dimensione n ed inoltre

T = z+S

dove z è una soluzione della equazione non omogenea.

Il teorema precedente consente di affermare che ogni soluzione dell’equazione


differenziale lineare omogenea di ordine n si può esprimere come
combinazione lineare di n soluzioni y1 , ..., yn dell’equazione stessa che
siano linearmente indipendenti.
L’insieme y1 , ..., yn si chiama sistema fondamentale di soluzioni per
l’equazione data; in altre parole ogni soluzione y può essere espressa
mediante la
n
y( x ) = ∑ ci yi ( x )
i =1

dove ci ∈ R
8

Definizione 1.2 Siano y1 , ..., yn n soluzioni dell’equazione differenziale lin-


eare di ordine n, omogenea
n
y(n) ( x ) = ∑ a i ( x ) y ( i −1) ( x )
i =1

Chiamiamo wronskiano associato alle soluzioni y1 , ..., yn il determinante


 
y1 ( x ) y2 ( x ) ... yn ( x )

 y10 ( x ) y20 ( x ) ... y0n ( x ) 

W ( x ) = det  .. .. .. ..  (1.18)

 . . . .


( n −1) ( n −1) ( n −1)
y1 ( x ) y2 ( x ) . . . yn (x)

Teorema 1.7 Siano verificate le ipotesi del teorema di esistenza ed unicità e


siano y1 , ..., yn n soluzioni dell’equazione differenziale omogenea di ordine n
n
y(n) ( x ) = ∑ a i ( x ) y ( i −1) ( x )
i =1

Sono fatti equivalenti:

1. y1 , ..., yn sono linearmente indipendenti;

2. W ( x ) 6= 0 per ogni x ∈ I;

3. esiste x0 ∈ I tale che W ( x0 ) 6= 0.

Come in precedenza, usando lo stesso esempio, si vede che, qualora


y1 , ..., yn non siano soluzioni dell’equazione, le uniche implicazioni an-
cora vere sono (2) ⇒ (3) ⇒ (1)
I risultati precedenti assicurano la possibilità di trovare l’integrale
generale di un sistema non omogeneo non appena siano noti l’integrale
generale del sistema omogeneo ad esso associato ed una soluzione del
sistema non omogeneo; è pertanto molto importante avere a dispo-
sizione uno strumento che consenta, noto l’integrale generale del sis-
tema omogeneo, di trovare una soluzione del sistema non omogeneo.

Sia G una matrice fondamentale del sistema lineare omogeneo

Y 0 ( x ) = A ( x )Y ( x )

e x0 ∈ I. Una soluzione del sistema non omogeneo

Y 0 ( x ) = A ( x )Y ( x ) + B ( x )

è data da Z x
Z(x) = G(x) G −1 (t) B(t)dt.
x0
9

Infatti se cerchiamo soluzioni del sistema non omogeneo della forma

Z ( x ) = G ( x )λ( x )

dove λ : I −→ Rn è derivabile, dovrà aversi

Z0 ( x ) = A( x ) Z ( x ) + B( x )

e pertanto, poiché si può verificare che la regola di derivazione del


prodotto può essere estesa anche al prodotto righe per colonne, si ha

Z 0 ( x ) = G 0 ( x )λ( x ) + G ( x )λ0 ( x )

deve essere

G 0 ( x )λ( x ) + G ( x )λ0 ( x ) = A( x ) G ( x )λ( x ) + B( x )

Ma G è una matrice fondamentale e quindi,

G ( x ) λ 0 ( x ) = B ( x ) e λ 0 ( x ) = G −1 ( x ) B ( x ).

Se ne deduce che se
Z x
λ( x ) = G −1 (t) B(t)dt
x0

Z è soluzione del sistema completo.


Osserviamo inoltre che, essendo G ( x )λ0 ( x ) = B( x ), per il teorema
di Cramer si ha
W (x)
λi0 ( x ) = i
W (x)
essendo
 
( y1 )1 ( y2 )1 ... ( y i −1 )1 b1 ( y i +1 )1 ... ( y n )1
 ( y1 )2 ( y2 )2 ... ( y i −1 )2 b2 ( y i +1 )2 ... ( y n )2 


Wi = det 
 .. .. .. .. .. .. .. .. 
 . . . . . . . . 

( y1 ) n ( y2 ) n ... ( y i −1 ) n bn ( y i +1 ) n ... (yn )n


(1.19)
e una soluzione del sistema non omogeneo è data da
n
Y(x) = ∑ λi (x)Yi (x).
i =1

Come conseguenza se G è una matrice fondamentale del sistema


lineare omogeneo
Y 0 ( x ) = A ( x )Y ( x )

l’integrale generale del sistema lineare non omogeneo

Y 0 ( x ) = A ( x )Y ( x ) + B ( x )
10

è dato da
x
 Z 
Y(x) = G(x) C + G −1 (t) B(t)dt , C ∈ Rn
x0

Dove x0 ∈ I mentre la soluzione del problema di Cauchy relativo ai


dati Y ( x0 ) = Y0 è
 Z x 
−1 −1
Y(x) = G(x) G ( x0 )Y0 + G (t) B(t)dt
x0

Il metodo esposto si chiama della metodo di Lagrange di variazione


delle costanti arbitrarie e può ovviamente essere applicato anche alle
equazioni differenziali di ordine n non appena le si sia trasformate
in un sistema. Tuttavia per le equazioni è più conveniente procedere
direttamente; illustriamo qui di seguito, il caso di una equazione del
secondo ordine.
Siano a, b, c ∈ C 0 ( I ) e consideriamo l’equazione lineare del secondo
ordine
y00 ( x ) = a( x )y0 ( x ) + b( x )y( x ) + c( x ).
Supponiamo note due soluzioni linearmente indipendenti dell’equazione
differenziale omogenea associata; avremo allora a disposizione l’integrale
generale dell’equazione omogenea nella forma

y ( x ) = c1 y1 ( x ) + c2 y2 ( x )

Cerchiamo soluzioni per l’equazione non omogenea nella forma

z ( x ) = λ1 ( x ) y1 ( x ) + λ2 ( x ) y2 ( x )

Avremo
z0 = λ10 y1 + λ20 y2 + λ1 y10 + λ2 y20
e posto
λ10 y1 + λ20 y2 = 0
si ha
z00 = λ10 y10 + λ20 y20 + λ1 y100 + λ2 y200 .
Sostituendo si ottiene

λ10 y10 + λ20 y20 + λ1 y100 + λ2 y200 = λ1 ay10 + λ2 ay20 + λ1 by1 + λ2 by2 + c

e, tenuto conto che y1 e y2 sono soluzioni dell’omogenea,

λ10 y10 + λ20 y20 = c.

Ne viene che λ10 e λ20 devono soddisfare il seguente sistema



λ0 y + λ0 y = 0
1 1 2 2
(1.20)
λ0 y0 + λ0 y0 = c
1 1 2 2
11

da cui si possono ricavare λ10 e λ20 e per integrazione λ1 e λ2 .


Ricordiamo infine, per sommi capi, un metodo che consente di
ridurre l’ordine di una equazione differenziale lineare, qualora sia nota
una soluzione dell’equazione stessa.
Ci occuperemo qui di mostrare come esso funziona nel caso di una
equazione del secondo ordine, essendo l’estensione del metodo del
tutto ovvia per equazioni lineari di ordine superiore.
Consideriamo pertanto a, b ∈ C 0 ( I ) e l’equazione differenziale di
ordine 2
y00 ( x ) = a( x )y0 ( x ) + b( x )y( x ).

Supponiamo nota una soluzione z dell’equazione, tale che z( x ) 6= 0


∀ x ∈ I.
Cerchiamo soluzioni dell’equazione nella forma y( x ) = u( x )z( x )
Derivando e sostituendo nell’equazione otteniamo che

u00 z + 2u0 z0 + uz00 = au0 z + auz0 + buz

e, tenuto conto che z è soluzione,

u00 z + 2u0 z0 − au0 z = 0

Posto v = u0 si ha
v0 z + v(2z0 − az) = 0

e quindi, poiché z 6= 0,

z0
v 0 + v (2 − a) = 0.
z
Se ne deduce che deve essere
Rx z0 (t) Rx
− xo 2 z(t) dt+ xo a(t)dt
v( x ) = e

e quindi
 2
z ( x0 ) Rx
a(t)dt
v( x ) = e xo .
z( x )
Pertanto una soluzione sarà
Rx
1 x0 a(t)dt
v( x ) = e
(z( x ))2
e Z x
1 Rt
xo a ( s ) ds dt
u( x ) = e
x0 (z(t))2
da cui si può ricavare la soluzione cercata.
La soluzione trovata risulta linearmente indipendente da z. Se in-
fatti Z x
1 Rt
xo a ( s ) ds dt = 0
c1 z ( x ) + c2 z ( x ) e
x0 ( z ( t ))2
12

per ogni ∀ x si ha, per x = x0

c1 z ( x0 ) = 0 e c1 = 0

Ne viene anche che


Z x
1 Rt
xo a ( s ) ds dt = 0
c2 z ( x ) e
x0 (z(t))2
e c2 = 0 in quanto il secondo fattore non può mai annullarsi, se x 6= x0 .
Possiamo pertanto scrivere l’integrale generale dell’equazione data
come  Z x Rt 
1 x0 a ( s ) ds
y ( x ) = z ( x ) c1 + c2 e dt .
x0 ( z ( t ))2

Ci occupiamo ora della soluzione di equazioni e sistemi differenziali


lineari a coefficienti costanti della forma

Y 0 ( x ) = AY ( x ) + B( x )
Y 0 ( x ) = AY ( x )
n
y(n) ( x ) = ∑ a k y ( k −1) ( x ) + b ( x )
k =1
n
y(n) ( x ) = ∑ a k y ( k −1) ( x )
k =1
In pratica l’integrale generale di un’equazione differenziale lineare
di ordine n
n
y(n) ( x ) = ∑ a k y ( k −1) ( x )
k =1
si può determinare come segue

1. si considera il polinomio caratteristico associato all’equazione data


n
P(λ) = λn − ∑ a k λ k −1
k =1

che si ottiene sostituendo formalmente la quantità algebrica λk ad


y(k) ( x )

2. si trovano le n soluzioni, reali o complesse e coniugate, dell’equazione


(a coefficienti reali)
P(λ) = 0
Consideriamo ogni soluzione λ1 , .., λr con la sua molteplicità µ1 , .., µr

3. in corrispondenza ad ogni valore λ, avente molteplicità µ,

• se λ è reale si considerano le funzioni

y1 ( x ) = eλx y2 ( x ) = xeλx ··· yµ ( x ) = x µ−1 eλx (1.21)


13

• se λ = α + ıβ è complesso, allora anche il suo complesso coniu-


gato λ = α − ıβè autovalore in quanto i coefficienti dell’equazione
sono reali, e si considerano le funzioni
u1 ( x ) = eαx sin βx u2 ( x ) = xeαx sin βx ··· uµ ( x ) = x µ−1 eαx sin βx
(1.22)
v1 ( x ) = eαx cos βx v2 ( x ) = xeαx cos βx ··· vµ ( x ) = x µ−1 eαx cos βx
(1.23)
Si verifica che le soluzioni trovate sono tra loro linearmente indipen-
denti.

4. Si trovano così

• in corrispondenza di ogni soluzione reale λ, µ soluzioni del sis-


tema linearmente indipendenti
• in corrispondenza di ogni soluzione complessa e della sua coni-
ugata, 2µ soluzioni del sistema linearmente indipendenti

5. siano
y1 , y2 , y3 , . . . , y n
le soluzioni trovate nei punti precedenti.
Avremo che le soluzioni sono proprio n in quanto la somma del
numero delle soluzioni, contate con la loro molteplicità, è proprio n
per il teorema fondamentale dell’algebra.
La soluzione dell’equazione sarà pertanto

n
y( x ) = ∑ ci yi ( x )
i =1

In pratica l’integrale generale del sistema Y 0 = AY si può deter-


minare come segue
1. si trovano gli autovalori della matrice A, λ1 , .., λr e la loro molteplic-
ità µ1 , .., µr ;

2. in corrispondenza ad ogni valore λ di A, avente molteplicità µ,

• se λ è reale si considerano le funzioni


y1 ( x ) = eλx y2 ( x ) = xeλx ··· yµ ( x ) = x µ−1 eλx (1.24)

• se λ è complesso, allora anche il suo complesso coniugato è au-


tovalore in quanto i coefficienti del sistema sono reali, e si con-
siderano le funzioni
u1 ( x ) = eαx sin βx u2 ( x ) = xeαx sin βx ··· uµ ( x ) = x µ−1 eαx sin βx
(1.25)
v1 ( x ) = eαx cos βx v2 ( x ) = xeαx cos βx ··· vµ ( x ) = x µ−1 eαx cos βx
(1.26)
14

Si verifica che le soluzioni trovate sono tra loro linearmente indipen-


denti.

3. Si trovano così

• in corrispondenza di ogni autovalore reale λ, µ soluzioni del sis-


tema linearmente indipendenti
• in corrispondenza di ogni autovalore complesso e del suo coniu-
gato, 2µ soluzioni del sistema linearmente indipendenti

4. siano
y1 , y2 , y3 , . . . , y n

le soluzioni trovate nei punti precedenti.


Avremo che le soluzioni sono proprio n in quanto la somma del nu-
mero delle soluzioni, contate con la loro molteplicità, è proprio n per
il teorema fondamentale dell’algebra e possiamo cercare soluzioni

Y = (Yj )

del sistema omogeneo che abbiano come componenti delle combi-


nazioni lineari delle funzioni yi cioè

n
Yj ( x ) = ∑ ci,j yi (x)
i =1

5. Le costanti introdotte ci,j sono in numero di n2 e quindi superi-


ore al numero di costanti n necessario e sufficiente per descrivere
l’integrale generale del sistema differenziale lineare omogeneo di
ordine n; onde determinare solo n costanti si procede quindi sos-
tituendo nel sistema ed usando le uguaglianze trovate per ridurre il
numero di costanti libere ad n

Abbiamo con ciò gli strumenti per risolvere ogni equazione dif-
ferenziale ed ogni sistema differenziale lineare omogeneo, a coeffici-
enti costanti; per risolvere i corrispondenti problemi non omogenei
sarà sufficiente trovare una soluzione particolare dei problemi non
omogenei stessi. Ciò può essere fatto, in generale, usando il metodo
di variazione delle costanti di Lagrange, ma, nel caso dei coefficienti
costanti, possiamo, se inoltre il termine noto è di forma particolar-
mente semplice, trovare una soluzione particolare di forma similmente
semplice.
Più precisamente possiamo affermare che:

1. Se consideriamo l’equazione differenziale non omogenea 1.3 e se

b( x ) = q( x )eλx
15

dove λ ∈ C e q è un polinomio di grado m a coefficienti complessi,


si può trovare un polinomio r di grado al più m tale che, se µ è la
molteplicità di λ come radice del polinomio caratteristico P ,

y( x ) = x µ r ( x )eλx

sia soluzione dell’equazione 1.3.

2. Se consideriamo il sistema differenziale non omogeneo 1.4 e se

B( x ) = Q( x )eλx

dove Q è un vettore colonna i cui elementi sono polinomi a coeffi-


cienti complessi, di grado minore o uguale ad m, si può trovare un
vettore colonna R i cui elementi sono polinomi a coefficienti comp-
lessi di grado al più m + µ, dove µ è la molteplicità di λ come radice
del polinomio caratteristico P della matrice A, tale che

Y ( x ) = R( x )eλx

risolve il sistema 1.4.

Si può inoltre provare che, nel caso in cui i coefficienti siano reali,

1. Se
b( x ) = eαx [q1 ( x ) cos( βx ) + q2 ( x ) sin( βx )]

dove q1 e q2 sono polinomi a coefficienti reali di grado massimo m


e α ± iβ è radice del polinomio caratteristico P di molteplicità µ, si
possono trovare due polinomi r1 , r2 di grado al più m tali che

y( x ) = x µ eαx [r1 ( x ) cos( βx ) + r2 ( x ) sin( βx )]

sia soluzione della 1.3.

2. Se
B( x ) = eαx [ Q1 ( x ) cos( βx ) + Q2 ( x ) sin( βx )]

dove Q1 e Q2 sono vettori colonna i cui elementi sono polinomi a


coefficienti reali di grado al più m e α ± i β è radice del polinomio
caratteristico della matrice A con molteplicità µ, si possono trovare
R1 ed R2 , vettori colonna i cui elementi sono polinomi a coefficienti
reali di grado al più m + µ, tali che

Y ( x ) = eαx [ R1 ( x ) cos( βx ) + R2 ( x ) sin( βx )]

sia soluzione del sistema 1.4.


16

1.1 La matrice esponenziale

Per studiare le soluzioni del sistema

Y 0 ( x ) = A ( x )Y ( x )

è quindi essenziale conoscere la matrice fondamentale G che possiamo


individuare come l’unica soluzione del problema

 G 0 ( x ) = AG ( x )
 G (0) = I

Possiamo verificare, mediante sostituzione, che, se definiamo


+∞ N
An tn An tn
e At = ∑ n!
= lim ∑
N 0 n!
0

e At soddisfa il problema assegnato e quindi, per il teorema di unicità

G (t) = e At

Pertanto per conoscere la matrice fondamentale G è sufficiente calco-


lare e At .
Allo scopo osserviamo che se D ( x ) e S( x ) sono polinomi di grado
n e maggiore di n, rispettivamente, si ha

S( x ) = D ( x ) Q( x ) + R( x )

dove Q ed R sono polinomi e il grado di R è inferiore ad n.


Tenendo conto che e x = ∑0+∞ xn! = lim N ∑0N xn! possiamo allora
n n

affermare che
e x = Q( x ) D ( x ) + R( x )

dove il grado di R è inferiore ad n.


Ora, se
D (λ) = det( A − λI )

è il polinomio caratteristico della matrice A,


possiamo scrivere che

eλ = Q(λ) D (λ) + R(λ)

e calcolando per λ = λi dove λi è autovalore di A e quindi D (λi ) =


0 otteniamo

e λi = Q ( λ i ) D ( λ i ) + R ( λ i ) = R ( λ i )

Otteniamo così tante equazioni algebriche di grado n − 1 quanti


sono gli autovalori distinti di A; inoltre possiamo osservare che, se λi
17

è un autovalore con molteplicità 2, oltre a D si annulla in λi anche la


sua derivata prima e quindi si ha

eλ = Q0 (λ) D (λ) + Q(λ) D 0 (λ) + R0 (λ)

per cui

e λi = R 0 ( λi )

Con simili argomenti si trovano quindi esattamente n equazioni al-


gebriche da cui ricavare i coefficienti del polinomio R.
Poichè, per il teorema di Cayley-Hamilton possiamo affermare che
A soddisfa il suo polinomio caratteristico, cioè che

D ( A) = 0

possiamo dedurre che anche

e At = R( At)

e quindi ricavare l’espressione di e At

1.2 L’oscillatore armonico

Un esempio molto importante di modello matematico che utilizza la


teoria delle equazioni differenziali lineari è costituto dall’oscillatore
armonico.
Si consideri l’equazione del secondo ordine

x”(t) + 2hx 0 (t) + ω 2 x (t) = K sin(αt) (1.27)

dove h, K, α > 0.
Essa può descrivere il comportamento di diversi sistemi reali quali,

1. un punto materiale soggetto ad una forza di richiamo proporzionale


alla distanza ed ad forza di attrito proporzionale alla velocità, sol-
lecitato da una forza esterna sinusoidale di ampiezza K e di fre-
quenza α.

2. l’intensità di corrente che circola in un circuito RLC alimentato da


una forza elettromotrice sinusoidale.

Le soluzioni dell’equazione sono date da:

1. Se h > ω
x (t) = c1 e(−h+θ )t + c2 e(−h−θ )t + x̂ (t)

I grafici di possibili soluzioni sono riportati nelle figure


18

Figure 1.1: Soluzioni del polinomio


caratteristico reali distinte una positiva
ed una negativa

Figure 1.2: Soluzioni del polinomio


caratteristico reali distinte una positiva
ed una negativa

Figure 1.3: Soluzioni del polinomio


caratteristico reali distinte entrambe pos-
itive
19

Figure 1.4: Soluzioni del polinomio


caratteristico complesse e coniugate con
parte reale negativa

2. Se h = ω
x (t) = c1 e−ht + c2 te−ht + x̂ (t)

I grafici di possibili soluzioni sono riportati nelle figure

3. Se h < ω

x (t) = e−ht (c1 sin(θt) + c2 cos(θt)) + x̂ (t)

I grafici di possibili soluzioni sono riportati nelle figure

Figure 1.5: Soluzioni del polinomio


caratteristico reali coincidenti negative

dove
x̂ (t) = α sin(αt) + b cos(αt) = A sin(αt − φ)

ed inoltre si è posto
θ = |h2 − ω 2 |1/2
ω 2 − α2
a=K
4h2 α2 + (ω 2 − α2 )2
20

2hα
b = −K
4h2 α2 + ( ω 2 − α2 )2
K
A= p
4h2 α2 + (ω 2 − α2 )2
a
φ = arccos
A
Nel caso in cui h = 0 l’equazione diventa

x”(t) + ω 2 x (t) = K sin(αt)

con k, α > 0 e rappresenta un oscillatore armonico non smorzato sol-


lecitato da una forza esterna sinusoidale.
Le soluzioni in questo caso sono

1. Se α 6= ω
K
x (t) = c1 sin(ωt) + c2 cos(ωt) + sin(αt)
ω 2 − α2
2. Se α = ω
K
x (t) = c1 sin(ωt) + c2 cos(ωt) − t cos(ωt)

Figure 1.6: Grafico di A in funzione di α


ed ω

K
A= =
(4h2 α2 + (ω 2 − α2 )2 )1/2
K/ω 2
= (1.28)
(4(h/ω )2 (α/ω )2 + (1 − (α/ω )2 )2 )1/2
con
K/ω 2 = .5
2. Esistenza ed Unicità per Problemi
di Cauchy Lineari

Lemma 2.1 Siano A : I −→ Mn e B : I −→ Rn , continue e siano x0 ∈ I ,


Y0 ∈ Rn . Sono problemi equivalenti:
trovare Y : I −→ Rn derivabile, tale che

Y 0 ( x ) = A ( x )Y ( x ) + B ( x )
Y ( x0 ) = Y0

trovare Y : I −→ Rn continua, tale che


Z x
(2) Y ( x ) = Y0 + ( A(t)Y (t) + B(t))dt.
x0

Dimostrazione. E’ intanto ovvio che, se vale (1), per integrazione si


ottiene subito (2). Se viceversa (2) è vera, Y è derivabile ed anche (1)
vale come si constata derivando e calcolando in x0 . 2

Teorema 2.1 Siano A: I −→ Mn , B : I −→ Rn continue e siano x0 ∈ I,


Y0 ∈ Rn .
Allora esiste una ed una sola soluzione del problema di Cauchy

Y 0 ( x ) = A ( x )Y ( x ) + B ( x ) , ∀x ∈ I
Y ( x0 ) = Y0

Dimostrazione. Proveremo l’esistenza di una funzione Y soddis-


facente il problema (2) del lemma precedente. Troveremo Y come lim-
ite della successione di funzioni definita da

Y0 ( x ) ≡ Y0

Z x
Yk ( x ) = Y0 + ( A(t)Yk−1 (t) + B(t))dt.
x0

Occorrerà pertanto provare innanzittutto che Yk ( x ) è convergente per


ogni x ∈ I.
22

Fissato un intervallo limitato I 0 ⊂ I si ha

sup{k A( x )k : x ∈ I 0 } = L0 ∈ R , sup{k B( x )k : x ∈ I 0 } = N ∈ R

e pertanto

sup{k A( x )Y0 + B( x )k : x ∈ I 0 } ≤ LkY0 k + N = M ∈ R

essendo L = nL0 .
Proviamo per induzione che

L k | x − x 0 | k +1
kYk+1 ( x ) − Yk ( x )k ≤ M , k ≥ 0.
( k + 1) !

Si ha infatti
Z x
kY1 ( x ) − Y0 ( x )k = ( A(t)Y0 + B(t))dt ≤
x0
Z x
≤ k A(t)Y0 + B(t)kdt ≤ M| x − x0 |
x0

ed inoltre

Z x
kYk+1 ( x ) − Yk ( x )k = A(t)(Yk (t) − Yk−1 (t))dt ≤
x0
Z x
≤ nk A(t)kkYk (t) − Yk−1 (t)kdt ≤
x0

L k −1 | t − x 0 | k
Z x
≤L M dt =
x0 k!
L k | x − x 0 | k +1
=M
( k + 1) !

Pertanto è lecito affermare che


p
kYk+ p ( x ) − Yk ( x )k ≤ ∑ kYk+i (x) − Yk+i−1 (x)k ≤
i =1
p
M L k +i | x − x0 | k +i
≤ ∑ L (k + i )!
=
i =1
k+ p
M ( L| x − x0 |)i
=
L ∑ i!
i = k +1

Ora si ha
k+ p
M ( Lδ)i
kYk+ p ( x ) − Yk ( x )k ≤
L ∑ i!
, ∀x ∈ I 0
i = k +1

essendo δ scelto in modo che | x − x0 | ≤ δ per x ∈ I 0 .


23

Ma
k
( Lδ)i ( Lδ)k+1
e Lδ = ∑ i!
+ eξ
( k + 1) !
, 0 < ξ < Lδ
i =0
e pertanto
k+ p
( Lδ)i ( Lδ)k+ p+1 ( Lδ)k+1
∑ i!
= e Lδ − eξ 1
( k + p + 1) !
− e Lδ + eξ 2
( k + 1) !

i = k +1
( Lδ)k+1 ( Lδ)k+1
≤ eξ 2 ≤ e Lδ = Ek0
( k + 1) ! ( k + 1) !
Quindi
M
kYk+ p ( x ) − Yk ( x )k ≤ Ek0 = Ek , ∀x ∈ I 0 .
L
e
lim Ek = 0 .
Quanto provato, assieme al criterio di convergenza di Cauchy, per-
mette di concludere che

lim Yk ( x ) = Y ( x ) , ∀x ∈ I 0 ;

passando poi al limite per p → +∞ si ha

kY ( x ) − Yk ( x )k ≤ Ek , ∀x ∈ I 0 .

Proviamo ancora che Y è continua in I 0 e che per essa risulta


Z x
Y ( x ) = Y0 + ( A(t)Y (t) + B(t))dt , ∀x ∈ I 0 .
x0

A questo scopo ricordiamo che è facile provare, per induzione, che


Yk è continua su I e quindi anche su I 0 . Vediamo come da ciò discende
che Y è continua su I 0 .
Sia x̂ ∈ I 0 e sia k ε tale che, se k ≥ k ε , Ek < ε/3; per | x − x̂ | < δε si ha
kYkε ( x ) − Ykε ( x̂ )k < ε/3 e perciò

kY ( x ) − Y ( x̂ )k ≤ kY ( x ) − Ykε ( x )k + kYkε ( x ) − Ykε ( x̂ )k+


+ kYkε ( x̂ ) − Y ( x̂ )k ≤ 2Ekε + kYkε ( x ) − Ykε ( x̂ )k ≤
≤ 2ε/3 + ε/3 = ε
Inoltre

Z x Z x
lim ( A(t)Yk (t) + B(t))dt = ( A(t)Y (t) + B(t))dt , ∀x ∈ I 0 .
x0 x0

Infatti
Z x Z x
( A(t)Yk (t) + B(t))dt − ( A(t)Y (t) + B(t))dt ≤
x0 x0
Z x
≤ nk A(t)kkYk (t) − Y (t)kdt ≤ LδEk → 0
x0
24

Ciò prova che, essendo


Z x
Yk+1 ( x ) = Y0 + ( A(t)Yk (t) + B(t))dt , ∀ x ∈ I 0 ,
x0

si ha Z x
Y ( x ) = Y0 + ( A(t)Y (t) + B(t))dt , ∀x ∈ I 0 .
x0
Quanto abbiamo fatto per I 0 può essere ripetuto per ogni intervallo
limitato contenuto in I e ciò consente di affermare che la Y è definita e
continua in I ed ivi risolve il problema assegnato.
Si è con ciò provata l’esistenza della soluzione cercata; per quanto
concerne l’unicità, siano Y e Z due soluzioni del problema assegnato,
si ha
Z x
kY ( x ) − Z ( x )k = A(t)(Y (t) − Z (t))dt ≤
x0
Z x
≤ LkY (t) − Z (t)kdt
x0

e per il corollario 16.6, kY ( x ) − Z ( x )k = 0 . 2


Il teorema che abbiamo appena dimostrato consente di provare,
senza fatica, un risultato di esistenza anche per le equazioni differen-
ziali lineari di ordine n.
Sia infatti

y ( n ) ( x ) = a n ( x ) y ( n −1) ( x ) + . . . + a 1 ( x ) y ( x ) + b ( x )

una equazione differenziale lineare di ordine n e poniamo

y i ( x ) = y ( i −1) ( x ) , i = 1, . . . , n.

(Per chiarire le idee osserviamo che si avrà y1 ( x ) = y( x ) , .... , yn ( x ) =


y(n−1) ( x ) ).
Possiamo allora riscrivere la nostra equazione nella seguente forma

0
 y1 ( x ) = y2 ( x )



 0
 y2 ( x ) = y3 ( x )



...


...





y0 ( x ) = a ( x )y ( x ) + .... + a ( x )y ( x ) + b( x )

n n n 1 1

ed anche come
Y 0 ( x ) = A ( x )Y ( x ) + B ( x )
non appena si sia definito
   
0 1 0 ... 0 0
 0 0 1 ... 0   0 
   
A( x ) = 
 .. .. .. .. ..  B( x ) = 
 .. 

 . . . . .   . 

a1 ( x ) a2 ( x ) a3 ( x ) ... an ( x ) b( x )
25

Ci occuperemo qui di mostrare come esso funziona nel caso di una


equazione del secondo ordine, essendo l’estensione del metodo del
tutto ovvia per equazioni lineari di ordine superiore.
Consideriamo pertanto a, b ∈ C o ( I ) e l’equazione differenziale di
ordine 2
y00 ( x ) = a( x )y0 ( x ) + b( x )y( x ).

Supponiamo nota una soluzione z dell’equazione, tale che z( x ) 6= 0


∀ x ∈ I.
Cerchiamo soluzioni della nostra equazione nella forma y( x ) =
u( x )z( x ) .
Derivando e sostituendo nell’equazione otteniamo che

u00 z + 2u0 z0 + uz00 = au0 z + auz0 + buz

e, tenuto conto che z è soluzione,

u00 z + 2u0 z0 − au0 z = 0.

Posto v = u0 si ha
v0 z + v(2z0 − az) = 0

e quindi, poiché z 6= 0,

z0
v 0 + v (2 − a) = 0.
z
Se ne deduce che deve essere
Rx z0 (t) Rx
− xo 2 z(t) dt+ xo a(t)dt
v( x ) = e

e quindi
 2
z ( x0 ) Rx
a(t)dt
v( x ) = e xo .
z( x )
Pertanto una soluzione sarà
1 Rx
xo a ( t ) dt
v( x ) = e
(z( x ))2
e Z x
1 Rt
xo a ( s ) ds dt
u( x ) = e
x0 (z(t))2
da cui si può ricavare la soluzione cercata.
Proviamo che tale soluzione risulta linearmente indipendente da z.
Se infatti
Z x
1 Rt
xo a ( s ) ds dt = 0
c1 z ( x ) + c2 z ( x ) e ∀x
x0 (z(t))2

si ha, per x = x0
c1 z( x0 ) = 0 e c1 = 0.
26

Ne viene anche che


Z x
1 Rt
c2 z ( x ) 2
e xo a(s)ds dt = 0
x0 (z(t))
e c2 = 0 in quanto il secondo fattore non può mai annullarsi, se x 6= x0 .
Possiamo pertanto scrivere l’integrale generale dell’equazione data
come  Z x 
1 Rt
a(s)ds
y ( x ) = z ( x ) c1 + c2 e x o dt .
x0 ( z ( t ))2
Osservazione. Notiamo che i risultati fin qui ottenuti possono essere
provati anche nel caso in cui i coefficienti siano complessi.
In particolare si può provare che lo spazio delle soluzioni della
versione complessa del sistema omogeneo (17.2) è uno spazio vetto-
riale di dimensione n su C e di dimensione 2n su R. Rimandiamo
all’appendice per precisazioni sulla struttura dello spazio vettoriale S .
Ci occupiamo ora della soluzione di equazioni e sistemi differenziali

lineari a coefficienti costanti della forma

(17.8) Y 0 ( x ) = AY ( x ) + B( x )

(17.9) Y 0 ( x ) = AY ( x )

n
(17.10) y(n) ( x ) = ∑ a k y ( k −1) ( x ) + b ( x )
k =1

n
(17.11) y(n) ( x ) = ∑ a k y ( k −1) ( x ).
k =1

La possibilità di scrivere esplicitamente l’integrale generale di un


sistema differenziale lineare omogeneo a coefficienti costanti (17.9)
dipende dalla conoscenza della decomposizione canonica di Jordan
della matrice A. In particolare, con argomenti di calcolo matriciale si
prova che (si veda L.S.Pontryagin, Ordinary differential equations):

Teorema 2.2 - di decomposizione di Jordan - Sia A una matrice n × n a


coefficienti complessi e siano

λ1 , ..., λr ∈ C

i suoi autovalori; per m = 1, .., r esistono s(m) ∈ N, q1 , .., qs(m) ∈ N e


s(m) s(m)
h11 , .., h1q1 ; h21 , .., h2q2 ; ...; h1 , .., hqs(m)

vettori linearmente indipendenti tali che


r s(m)
∑ ∑ qi = n
m =1 i =1
27

ed inoltre

Ah1i = λm h1i , Ah2i = λm h2i + h1i

(17.12) ... , Ahiqs(m) = λm hiqs(m) + hiqs(m) −1

m = 1, ..., r , i = 1, ..., s(m)

Osserviamo esplicitamente che ad ogni autovalore λ può corrispon-


dere più di una serie di vettori h.
Ora, fissati m = 1, .., r; i = 1, .., s(m) e t = 1, .., qi possiamo consid-
erare il polinomio
t
x t− j
Pmt,i ( x ) = ∑ hi .
(t − j)! j
j =1

Come si verifica facilmente si ha


d t,i
P ( x ) = Pmt−1,i ( x )
dx m
e
APmt,i ( x ) = λm Pmt,i ( x ) + Pmt−1,i ( x )

Per cui le funzioni

Ymt,i ( x ) = Pmt,i ( x )eλm x

sono soluzioni del sistema assegnato.


Pertanto, dal momento che

Ymt,i (0) = Pmt,i (0) = hit

avremo che
s (r ) s (r )
W (0) = [h11 , .., h1q1 , h21 , .., h2q2 , ....., h1 , .., hqs(r) ] 6= 0

in quanto i vettori considerati sono linearmente indipendenti.


Pertanto le funzioni Ymt,i sono in numero di n, risultano linearmente
indipendenti e costituiscono una base per lo spazio delle soluzioni del
sistema assegnato.
In pratica l’integrale generale del sistema Y 0 = AY si può deter-
minare come segue

1. si trovano gli autovalori della matrice A, λ1 , .., λr e la loro molteplic-


ità µ1 , .., µr ;
28

2. in corrispondenza ad ogni valore λ di A, avente molteplicità µ, oc-


corre trovare le serie di autovettori associate; ciò può essere fatto
nella seguente maniera: si trovano i vettori h tali che

( A − λI )h = 0.

Tali vettori generano uno spazio vettoriale V1 di dimensione ν1 ≤ µ;


siano h1 , .., hν1 i vettori di una base di V1 ; se ν1 = µ non occorre
proseguire; se invece ν1 < µ, in corrispondenza di ogni vettore hi ,
i = 1, .., ν1 , si cercano i vettori h tali che

( A − λI )h = hi .

Sia V2i lo spazio affine delle soluzioni trovate e sia ν2i = dimV2i ,
avremo che
ν1
∑ ν2i + ν1 ≤ µ.
i =1
Se vale l’uguaglianza non occorre proseguire, altrimenti, in cor-
rispondenza di ognuno dei vettori di una base di V2i si procede come
sopra.

3. Si trovano così le serie di Jordan corrispondenti ad ogni autovalore


λ e si costruiscono le soluzioni del sistema come è stato visto in
precedenza.

Osserviamo infine che, con le notazioni usate nel teorema di decom-


posizione di Jordan, l’integrale generale del sistema Y 0 = A Y, è dato
da
r s ( m ) q (i )
∑ ∑ ∑ ct,i t,i
m Pm ( x ) e
λm x
.
m =1 i =1 t =1
Passiamo ora a considerare il caso di una equazione differenziale
lineare di ordine n a coefficienti costanti
n
y(n) ( x ) = ∑ a k y ( k −1) ( x )
k =1

e chiamiamo
n
P(λ) = λn − ∑ a k λ ( k −1)
k =1
polinomio caratteristico associato all’equazione assegnata.
Osserviamo che, se definiamo,
 
0 1 0 0 ... 0
0 0 1 0 ... 0 
 
0 0 0 1 ... 0 
 
A=
 .. .. .. .. . . .. 
 
. . . . . .
a1 a2 a3 a4 . . . a n
29

e se poniamo

yk ( x ) = y(k−1) ( x ) , Y = (y1 , y2 , ....., yn )

l’equazione data è equivalente al sistema differenziale lineare

Y 0 ( x ) = AY ( x )

e
P(λ) = det( A − λI ).
E’ possibile pertanto usare i risultati ottenuti per i sistemi allo scopo
di risolvere l’equazione assegnata; tuttavia ciò non risulta conveniente:
è infatti molto più facile, data la particolarità della matrice A, seguire
una via più diretta e specifica.
Sia λ una radice di molteplicità µ dell’equazione P(λ) = 0; provi-
amo che
eλx , xeλx , x2 eλx , ..... , x µ−1 eλx
sono soluzioni dell’equazione data.
Definiamo, allo scopo, L : C n (R) −→ C o (R) mediante la:
n
L(y)( x ) = y(n) ( x ) − ∑ a k y ( k −1) ( x );
k =1

è immediato verificare che l’equazione assegnata si può riscrivere come:

L(y)( x ) = 0

e che

dr λx dr dr
 
r λx λx
L( x e ) = L e = L ( e ) = ( P(λ)eλx ) =
dλr dλr dλr
r d λx dr−k
r   k
= ∑ e P(λ) =
k =0
k dλk dλr−k
r  
r k (r − k )
=e ∑λx
x P (λ) = 0
k =0
k

se si sceglie r ≤ µ − 1 , non appena si tenga conto che λ è soluzione di


P(λ) = 0 con molteplicità µ.
E’ inoltre immediato verificare, usando il Wronskiano, che le µ soluzioni
ottenute sono tra di loro linearmente indipendenti.
Si può con ciò concludere che se λ1 , λ2 , ...., λ p sono soluzioni
dell’equazione algebrica P(λ) = 0 con molteplicità µ1 , µ2 , ...., µ p es-
sendo µ1 + µ2 + .... +µ p = n, si avrà che

eλk x , xeλk x , . . . x µk −1 eλk x , k = 1, 2, ...., p,

sono n soluzioni linearmente indipendenti dell’equazione assegnata il


cui integrale generale può pertanto essere scritto come:
30

p µ k −1
y( x ) = ∑ ∑ cr,k xr eλk x .
k =1 r =0

Se i coefficienti sono reali, qualora

x m eλx = x m e<e λx
[cos(=m ˘x) + i sin(=m ˘x)]

sia soluzione dell’equazione assegnata, anche

x m e <e λx
[cos(=m λx ) − i sin(=m λx )]

è soluzione (si ricordi che se un polinomio a coefficienti reali ammette


una soluzione complessa, ammette anche la soluzione complessa coni-
ugata).
Pertanto se ne deduce che, dette

λ1 , .., λk , α1 ± iβ 1 , .., αh ± iβ h

le radici del polinomio caratteristico, aventi rispettivamente molteplic-


ità µ1 , .., µk , ν1 , .., νh , una base di S è data da

eλi x , xeλi x , . . . , x µi −1 eλi x , i = 1, 2, ...., k

eαi x cos( β i x ), eαi x sin( β i x ), ...., x νi −1 eαi x cos( β i x ), x νi −1 eαi x sin( β i x )

i = 1, ..., h.

Qualora il sistema sia di forma generale, e non generato da un’equazione,


dette
φ1 , ...., φn

le n soluzioni linearmente indipendenti precedentemente trovate, si


potranno cercare soluzioni della forma

Y ( x ) = (y1 ( x ), ...., yn ( x ))

ove
n
yi ( x ) = ∑ cij φj ( x ) , cij costanti.
j =1

Ovviamente le cij sono in numero di n2 ; per ridurle ad n, come è


necessario, si sostituiscono le yi nel sistema e si eliminano le costanti
superflue. La struttura dello spazio delle soluzioni reali di un sistema
differenziale lineare a coefficienti reali può anche essere studiata a par-
tire dai risultati sopra esposti per le equazioni non appena si sia in
grado di ridurre ogni sistema ad n equazioni indipendenti. Ciò verrà
fatto successivamente nell’appendice. Sempre usando la riduzione ci-
tata si possono provare i risultati che enunciamo qui di seguito per
equazioni e sistemi, ma proviamo solo nel caso delle equazioni.
31

Abbiamo con ciò gli strumenti per risolvere ogni equazione dif-
ferenziale ed ogni sistema differenziale lineare omogeneo, a coeffici-
enti costanti; per risolvere i corrispondenti problemi non omogenei
sarà sufficiente trovare una soluzione particolare dei problemi non
omogenei stessi. Ciò può essere fatto, in generale, usando i risultati
del teorema 17.16, ma, nel caso dei coefficienti costanti, possiamo, se
inoltre il termine noto è di forma particolarmente semplice, trovare
una soluzione particolare di forma similmente semplice.
Più precisamente possiamo affermare che:

1. Se consideriamo l’equazione differenziale non omogenea (17.10) e


se
b( x ) = q( x )eλx

dove λ ∈ C e q è un polinomio di grado m a coefficienti complessi,


si può trovare un polinomio r di grado al più m tale che, se µ è la
molteplicità di λ come radice del polinomio caratteristico P ,

y( x ) = x µ r ( x )eλx

sia soluzione dell’equazione (17.10).

2. Se consideriamo il sistema differenziale non omogeneo (17.8) e se

B( x ) = Q( x )eλx

dove Q è un vettore colonna i cui elementi sono polinomi a coeffi-


cienti complessi, di grado minore o uguale ad m, si può trovare un
vettore colonna R i cui elementi sono polinomi a coefficienti comp-
lessi di grado al più m + µ, dove µ è la molteplicità di λ come radice
del polinomio caratteristico P della matrice A, tale che

Y ( x ) = R( x )eλx

risolve il sistema (17.8).

Si può inoltre provare che, nel caso in cui i coefficienti siano reali,

1. Se
b( x ) = eαx [q1 ( x ) cos( βx ) + q2 ( x ) sin( βx )]

dove q1 e q2 sono polinomi a coefficienti reali di grado massimo m


e α ± iβ è radice del polinomio caratteristico P di molteplicità µ, si
possono trovare due polinomi r1 , r2 di grado al più m tali che

y( x ) = x µ eαx [r1 ( x ) cos( βx ) + r2 ( x ) sin( βx )]

sia soluzione della (17.10).


32

2. Se
B( x ) = eαx [ Q1 ( x ) cos( βx ) + Q2 ( x ) sin( βx )]

dove Q1 e Q2 sono vettori colonna i cui elementi sono polinomi a


coefficienti reali di grado al più m e α ± i β è radice del polinomio
caratteristico della matrice A con molteplicità µ, si possono trovare
R1 ed R2 , vettori colonna i cui elementi sono polinomi a coefficienti
reali di grado al più m + µ, tali che

Y ( x ) = eαx [ R1 ( x ) cos( βx ) + R2 ( x ) sin( βx )]

sia soluzione del sistema (17.8).

Ci limitiamo a verificare la (1) e la (1’), essendo (2) e (2’) con-


seguenza di (1) ed (1’) e dei risultati provati in appendice, in cui si
mostra come ridurre un sistema ad n equazioni indipendenti.
Sarà sufficiente provare che se

b( x ) = x m eλx

e λ è radice dell’equazione caratteristica associata P(λ) = 0 di molteplic-


ità µ, si può trovare un polinomio q di grado al più m tale che

y( x ) = x µ q( x )eλx

sia soluzione dell’equazione (17.10).


Si ha
m
xµ q( x ) = ∑ q j x j+µ
j =0

e
!
m m
d j+µ λx
 
∑ qj x j+µ λx
e = ∑ qj L dλ j+µ
e =
j =0 j =0
m
d j+µ
= ∑ q j dλ j+µ L(eλx ) =
j =0
m
d j+µ
= ∑ q j dλ j+µ P(λ)eλx =
j =0
j+µ 
m
j + µ d j+µ−k λx (k)

= ∑ qj ∑ k dλ j+µ−k
e P (λ) =
j =0 k =0
m j+µ  
j + µ j+µ−k λx (k)
= ∑ qj ∑ x e P (λ) =
j =0 k =0
k

dal momento che λ è radice di P con molteplicità µ


33

m j+µ  
j + µ j+µ−k (k)
=e λx
∑ qj ∑ k
x P (λ) =
j =0 k=µ
m j  
j+µ
=e λx
∑ qj ∑ j+µ−h
x h P( j+µ−h) (λ ) =
j =0 h =0

e definito α jh = P( j+µ−h) (λ)( j+j+ µ


µ−h
)

m j
= eλx ∑ q j ∑ α jh xh =
j =0 h =0
m m
= eλx ∑ xh ∑ α jh q j
h =0 j=h

(essendo l’ultima uguaglianza evidente se si somma prima per righe


anziché per colonne).
Dovrà pertanto risultare, affinché L(y( x )) = x m eλx

αmm qm = 1
e
m
∑ α jh q j = 0 , h = 0, 1, ..., m − 1.
j=h

Ciò equivale a risolvere un sistema algebrico di m + 1 equazioni in


m + 1 incognite la cui matrice associata è
 
α00 α10 ... αm0
 0 ...
 
α11 αm1 
c=
 .. .. .. .. 
 . . . . 

0 0 ... αmm
Poiché C è triangolare si ha det C = ∏ αhh ed essendo

αhh = P(µ) (λ) (µ + hµ) 6= 0

perché P ha radice λ di molteplicità µ e non µ + 1 tale sistema ammette


una ed una sola soluzione.
Proviamo infine la (1’); sarà sufficiente verificare che, se

b( x ) = x m eαx sin( βx )
e se α +i β è radice dell’equazione caratteristica associata P(λ) = 0 di
molteplicità µ, si possono trovare due polinomi q ed r, di grado al più
m, tali che

y( x ) = x m eαx [q( x ) cos( βx ) + r ( x ) sin( βx )]


34

è soluzione dell’equazione (17.10).


Sia infatti z una funzione a valori complessi tale che

L(z( x )) = x m e(α+iβ) x ;

per quanto dimostrato al punto (1) si può asserire che

z( x ) = x µ q( x )e(α+iβ) x =

= x µ eαx [<e q( x ) cos( βx ) − =m q( x ) sin( βx )]+

+ix µ eαx [<e q( x ) sin( βx ) + =m q( x ) cos( βx )] =

= z1 ( x ) + iz2 ( x ) .
Si avrà pertanto

L(z1 ( x ) + iz2 ( x )) = L(z1 ( x )) + iL(z2 ( x )) =


= x m eαx cos( βx ) + ix m eαx sin( βx )

e la (1’) è verificata.
3. Ancora su Sistemi Ed Equazioni
Differenziali Lineari.

3.1 Qualche preliminare sugli spazi Euclidei.

Per il trattare i sistemi differenziali ci occorrono alcune nozioni che


riguardano gli spazi vettoriali e le funzioni a valori vettoriali (reali e
complessi).
Allo scopo ricordiamo qui, sommariamente, le proprietà e le definizioni
di cui faremo uso.
Denotiamo con Rn lo spazio euclideo ad n dimensioni, per cui ogni
elemento x ∈ Rn è individuato da una n − pla ordinata di numeri reali
i cui elementi saranno indicati con xi , i = 1, ..., n.
Denotiamo inoltre con Mn lo spazio delle matrici n × n e se A ∈
Mn individueremo A scrivendo

A = ( aij )

e intendendo con ciò che aij è l’elemento della i − esima riga e della
j − esima colonna di A, e che i, j = 1, ..., n.
2
E’ pertanto naturale stabilire che Mn è isomorfo ad Rn .
Sia V uno spazio vettoriale su R (C). Definiamo in V una funzione
che chiamiamo norma ed indichiamo con

k · k : V −→ R+

soddisfacente le seguenti proprietà:

1. k x k ≥ 0 ∀ x ∈ V ; k x k = 0 ⇔ x = 0

2. kαx k = |α|k x k ∀ x ∈ V , ∀α ∈ R (C)

3. k x + yk ≤ k x k + kyk ∀ x, y ∈ V .

Se ad esempio V = Rn , possiamo definire

k x k = max {| xi | : i = 1, ..., n } ;

tale scelta non è l’unica possibile, né la più usuale, ma è quella di cui


faremo uso nel perché è la più semplice per i nostri scopi.
36

Analogamente si può definire in Mn la norma come

k Ak = max {| aij | : i, j = 1, ..., n } .

E’ evidente che quando n = 1 si ha Rn = R e k x k = | x |.


Se A ∈ Mn e x ∈ Rn definiamo
n
( Ax )i = ∑ aij x j
j =1

e
n
( xA) j = ∑ aij xi .
i =1

Osserviamo che, mentre xA è un vettore riga, Ax è un vettore


colonna; in altre parole xA è una matrice ad una riga ed n colonne,
mentre Ax è una matrice ad n righe ed una colonna.
Ci è indispensabile provare il seguente risultato
Lemma A8.1 - Sia A ∈ Mn e sia x ∈ Rn , allora

k Ax k ≤ nk Akk x k .

Dimostrazione. Si ha

n
k Ax k = max{| ∑ aij x j | : i = 1, ..., n } ≤
j =1
n
≤ max{k x k ∑ | aij | : i = 1, ..., n } ≤ nk Akk x k
j =1

Ricordiamo anche alcuni risultati e definizioni.


Sia xk una successione a valori in Rn . diciamo che

lim xk = x
k

e scriviamo anche
x k → x , x ∈ Rn

se
lim k xk − x k = 0.
k

E’ immediato dimostrare che:


Lemma A8.2 - Se xk ∈ Rn è una successione, limk xk = x se e solo
se limk ( xk )i = xi . Dimostrazione. |( xk )i − xi | ≤ k xk − x k , per ogni

i = 1, ..., n e pertanto è provato che se xk → x si ha ( xk )i → xi , i = 1, ..., n.


Se viceversa ( xk )i → xi , per k > kεi si ha |( xk )i − xi | ≤ ε; ora se
k > k ε = max{ kεi : i = 1, ..., n} si ha k xk − x k < ε e la tesi.
37

Se x : R → Rn , per a, b ∈ R, si definisce in modo ovvio


Z b Z b
d d
( x (t)dt)i = xi (t)dt e ( x (t))i = x ( t ).
a a dt dt i
Queste poche considerazioni permettono di vedere come per studiare le fun-
zioni definite su R a valori in Rn o le successioni a valori in Rn , ci si possa
generalmente ricondurre alle funzioni e alle successioni reali che sono definite
dalle componenti delle funzioni o successioni stesse.
Un ultimo cenno sulle funzioni e sulle successioni complesse: C, come
spazio vettoriale, è isomorfo ad R2 (ma si ricordi e si tenga presente che di
più C è un’algebra). Pertanto quanto detto sopra può essere riscritto per le
funzioni e le successioni a valori complessi.
Ricordiamo soltanto che, nel caso in cui x ∈ C, indicheremo con <ex e
=mx la sua parte reale e la sua parte immaginaria; avremo pertanto che
x = <e x + i =m x .

Richiamiamo infine alcune nozioni sugli spazi vettoriali.


Sia V uno spazio vettoriale su R o C. Siano v1 , v2 .., vn ∈ V , diciamo che
v1 , ..., vn sono linearmente dipendenti se esistono n scalari αi ∈ K non tutti
nulli tali che
n
∑ αi vi = 0 .
i =1
Al contrario n vettori si dicono linearmente indipendenti se non sono lin-
earmente dipendenti.
Chiamiamo base di uno spazio vettoriale un insieme massimale di elementi
linearmente indipendenti. Si prova che comunque si scelgano due basi di V,
esiste una corrispondenza biunivoca tra di loro. Pertanto, se V ammette una
base costituita da un numero finito di elementi, diciamo che V ha dimensione
finita e chiamiamo dimensione di V ( dim V ) il numero di elementi della base
stessa.

3.2 Equazioni e sistemi differenziali lineari a coefficienti costanti.

Ci occuperemo qui della soluzione di equazioni e sistemi differenziali lineari a


coefficienti costanti.
A questo scopo è più utile considerare, sia dal punto di vista pratico che da
quello teorico, equazioni e sistemi i cui coefficienti siano complessi e pertanto
bisognerà cercare soluzioni a valori, esse pure, complessi.
Ciò non è concettualmente molto complicato e riposa sui risultati ottenuti
nel caso reale, a meno dell’usuale isomorfismo di spazi vettoriali che si può
definire tra Cn ed R2n mediante la corrispondenza che ad ogni elemento a +
ib ∈ Cn associa ( a, b) ∈ R2n .
Per quanto ci riguarda portiamo avanti questo argomento solo nel caso in
cui i coefficienti siano costanti, ma le idee e i metodi usati sono per lo più
validi anche nel caso di coefficienti non costanti.
38

Per tutto il seguito avremo a che fare con due problemi che enunciamo
qui per la prima, ed unica, volta ed a cui faremo riferimento d’ora innanzi.
Ricordiamo anche alcune notazioni di cui faremo abbondante uso.
Sia A una matrice n × n a valori complessi e sia B ∈ Cn ; indichiamo con
<e A ed =m A la parte reale e la parte immaginaria di A, e cioè le matrici i
cui elementi sono, rispettivamente, la parte reale e la parte immaginaria degli
elementi di A.
Avremo ovviamente
A = <e A + i =m A
ed in maniera del tutto analoga

B = <e B + i =m B .

Consideriamo il sistema differenziale lineare

( A8.1) Y 0 ( x ) = AY ( x ) + B( x )

dove ovviamente Y è cercato a valori in Cn e consideriamo l’equazione dif-


ferenziale lineare di ordine n
n
( A8.2) y(n) ( x ) = ∑ a k y ( k −1) ( x ) + b ( x )
k =1

dove ak ∈ C, b è a valori complessi ed y è cercato esso pure a valori complessi.


Tanto l’equazione (A8.2) che il sistema (A8.1) possono essere facilmente
ridotte al caso reale e quindi possono avvalersi dei risultati provati nel caso
reale.
Provvediamo qui di seguito a studiare il sistema (A8.1) nel nuovo ambito
scelto. Indichiamo, in accordo con quanto sopra, Y = <eY + i =mY ; avremo
che il sistema (A8.1) è equivalente a

<eY 0 + i =mY 0 = (<e A + i =m A)(<eY + i =mY ) + <e B + i =m B

e tenuto conto che un numero complesso è nullo se e solo se sono nulle la sua
parte reale e la sua parte immaginaria, si ha che il sistema (A8.1) è equivalente
al seguente sistema reale:

<eY 0 = <e A <eY − =m A =mY + <e B
=mY 0 = =m A <eY + <e A =mY + =m B

la cui matrice dei coefficienti è di dimensione 2n × 2n.


Se ora poniamo Z = (<eY, =mY ) ∈ R2n e definiamo
! !
<e A −=m A <e B
D= E=
=m A <e A =m B
avremo D ∈ M2n , E ∈ R2n ed il sistema in questione si può riscrivere, nel
campo reale, come
Z 0 = DZ + E
39

o più esplicitamente come


! ! ! !
<eY 0 <e A −=m A <eY <e B
( A8.3) = +
=mY 0 =m A <e A =mY =m B

non appena si ricordino le regole di calcolo per le matrici a blocchi.


Consideriamo ora il problema di Cauchy

Y 0 ( x ) = AY ( x ) + B( x )
Y ( x0 ) = Y0 x0 ∈ R , Y0 ∈ Cn

Tale problema risulta equivalente al problema di Cauchy reale


   
 < eY
0 < eA −= mA


  = 


 = mY
0 = mA < eA

   
< eY < eB

  + 
= mY = mB






(<eY ( x0 ), =mY ( x0 )) = (<eY0 , =mY0 )

e pertanto è conseguenza del teorema di esistenza ed unicità (17.7) che


la soluzione dei problemi (A8.4) e (A8.5) esiste ed è unica in Cn ed R2n
rispettivamente.
A seguito di ciò si può facilmente provare che lo spazio Σ delle soluzioni
della versione omogenea del sistema (A8.1) è uno spazio vettoriale di dimen-
sione n su C e di dimensione 2n su R.
Siano ora Y1 , ..., Yn n soluzioni a valori complessi di tale sistema che
risultino linearmente indipendenti su C; chiameremo matrice fondamentale
del sistema omogeneo (A8.1) la matrice
 
(Y1 )1 (Y2 )1 ... (Yn )1
 (Y1 )2 (Y2 )2 ... (Yn )2 


G= ..

 ... ... . ... 
 

(Y1 )n (Y2 )n . . . (Yn )n


Ora se consideriamo

(<eY1 , =mY1 ), (<eY2 , =mY2 ), . . . , (<eYn , =mYn )

è ovvio che esse risultino linearmente indipendenti su R e risolvano il sistema


omogeneo corrispondente ad (A8.3), ma di più si può osservare che anche

(−=mY1 , <eY1 ), (−=mY2 , <eY2 ), . . . , (−=mYn , <eYn )


sono soluzioni dello stesso sistema. Infatti è facile verificare che si ha
! ! !
−=mY 0 <e A −=m A −=mY
=
<eY 0 =m A <e A <eY
40

in quanto ciò equivale a dire



−=mY 0 = −<e A=mY − =m A <eY
<eY 0 = −=m A =mY + <e A <eY

Di più si può verificare che le nuove soluzioni sono linearmente indipen-


denti dalle prime; infatti supponiamo che esistano αk , β k ∈ R, k = 1, ..., n
tali che
! !
n n
<eYk −=mYk
∑ αk =mYk
+ ∑ βk <eYk
=0
k =1 k =1
Si avrebbe 
∑n (αk <eYk − β k =mYk ) = 0
k =1
∑n (αk =mYk + β k <eYk ) = 0
k =1
e pertanto
n
∑ (αk + iβ k )(< k + i= e Yk ) = 0
m

k =1
da cui αk = β k = 0 perché Y1 , ..., Yn sono linearmente indipendenti su C.
Pertanto una matrice fondamentale del sistema omogeneo associato ad (A8.3)
sarà dato da

 
(<eY1 )1 ... (<eYn )1 (−=mY1 )1 ... (−=mYn )1
 .. .. .. .. .. .. 

 . . . . . . 

 (<eY1 )n ... (<eYn )n (−=mY1 )n ... (−=mYn )n
 

 
 
F=



 
 (=mY1 )1 ... (=mYn )1 (<eY1 )1 ... (<eYn )1
 

.. .. .. .. .. ..
 
. .
 
 . . . . 
(=mY1 )n ... (=mYn )n (<eY1 )n ... (<eYn )n
 

F=
 

ed avremo che F può essere scritta (a blocchi)


!
<eG −=mG
F=
=m G <e G
Pertanto l’integrale generale del sistema omogeneo associato ad (A8.1) può
essere scritto, per λ ∈ Cn ,

Y = Gλ = (<eG + i =mG )(<eλ + i =mλ) =


= (<eG <eλ − =mG =mλ) + i (=mG <eλ + <eG =mλ)
41

mentre l’integrale generale del sistema omogeneo ad esso equivalente (A8.3)


si può scrivere, per (λ1 , λ2 ) ∈ R2n

! ! !
λ1 <e G − =m G λ1
Z=F = =
λ2 =m G <e G λ2
= <e G λ1 + =m G λ2 − =m G λ1 + <e G λ2

il che mostra, a meno del solito isomorfismo tra Cn e R2n , come i risultati
ottenuti siano equivalenti.
Senza maggiormente indagare il sistema reale omogeneo (A8.3) ricordiamo
che, detto W ( x ) il determinante associato ad n soluzioni del sistema omogeneo
(A8.1) come nel caso reale, si può affermare che sono fatti equivalenti

1. Y1 , ..., Yn sono linearmente indipendenti su C;

2. W ( x ) 6= 0 ∀ x ∈ R ;

3. ∃ x0 ∈ R tale che W ( x0 ) 6= 0.

Diamo infine uno sguardo a quanto accade se cerchiamo soluzioni comp-


lesse di un sistema i cui coefficienti siano reali.
In tal caso il sistema omogeneo omogeneo associato ad (A8.3) assumerà la
forma, tenuto conto che =m A = 0,

<eY 0 = <e A <eY
=mY 0 = <e A =mY

Risulta pertanto essere costituito di due equazioni completamente indipen-


denti tra di loro e relative alla stessa matrice <e A = A; quindi ogni sua
soluzione complessa sarà della forma

Y ( x ) = <eY ( x ) + i <eY ( x ) = =mY ( x ) + i =mY ( x ) .

Lo spazio vettoriale Σ delle soluzioni complesse avrà dimensione n su C e


sarà della forma
Σ = S + iS

dove S è lo spazio vettoriale su R, di dimensione n, delle soluzioni reali del


sistema a coefficienti reali considerato.
In particolare, se

( A8.6) ρ1 + iσ1 , ...., ρn + iσn

è una base di Σ su C, avremo che

( A8.7); ρ1 , ..., ρn , σ1 , ..., σn ∈ S


42

poiché dim S = n avremo che al più n tra essi sono linearmente indipendenti.
D’altro canto almeno n tra essi sono linearmente indipendenti perché, dal
momento che i vettori della (A8.6) formano una base di Σ, i vettori della
(A8.7) generano S .
Infatti sia s ∈ S , esistono α1 , .., αn , β 1 , .., β n ∈ R tali che
n
is = ∑ (αk + iβk )(ρk + iσk )
k =1

e pertanto si ha
n n
∑ (αk ρk − βk σk ) = 0 e ∑ (αk σk + βk ρk ) = s .
k =1 k =1

Si può inoltre affermare che, se ρ + iσ ∈ Σ , ρ, σ, −ρ, −σ ∈ S , per cui


ρ − i σ ∈ Σ.

3.3 Riduzione dei sistemi a coefficienti costanti ad equazioni


indipendenti

Nostro scopo in questa parte è mostrare come ogni sistema lineare a coefficienti
costanti può essere ricondotto ad un insieme di equazioni di ordine superiore
che coinvolgono una sola delle variabili in gioco.
Questo risultato riposa su alcuni fatti che riguardano la teoria delle matrici
a coefficienti polinomiali.
Consideriamo una matrice A, n × n, a coefficienti complessi e supponiamo
di voler risolvere il sistema differenziale lineare

Y 0 ( x ) = AY ( x ) + B( x ) ;

indicando con D il simbolo di derivazione, possiamo formalmente riscrivere il


sistema assegnato nella forma

( DI )Y = AY + B

ed anche come
( DI − A)Y = B .
Pertanto, osservando che il simbolo D può essere trattato formalmente
come una variabile numerica, possiamo ridurre il nostro sistema ad una forma
più semplice, con trasformazioni elementari sulla matrice DI − A .
Chiamiamo trasformazioni elementari su una matrice le seguenti:

1. scambio di due righe o due colonne;

2. moltiplicazione di una riga o di una colonna per un polinomio non nullo;

3. addizione ad una riga o ad una colonna di un’altra riga od un’altra colonna.


43

Ciascuna delle trasformazioni si può ottenere moltiplicando a destra, se la


trasformazione è sulle colonne, o a sinistra, se è sulle righe, per una opportuna
matrice non singolare.
Si può provare (si veda A. Maltsev,Fondamenti di algebra lineare) che,
mediante trasformazioni elementari, è possibile ridurre la matrice DI − A
alla matrice diagonale
 
f1 (D) 0 ... 0
 0 f2 (D) . . . 0 
 
N (D) =   .. .. .. .. 
 . . . . 

0 0 ... f n (D)
dove f i è un polinomio che divide f i+1 ; gli f i si chiamano invarianti della
matrice A e si può provare che f n ( D ) è il polinomio minimo della matrice A
che, come è noto, divide il polinomio caratteristico det ( DI − A).
Più precisamente si può provare l’esistenza di due matrici non degeneri a
coefficienti polinomiali S( D ) e T ( D ) tali che

S( D )( DI − A) T ( D ) = N ( D ) ,

essendo S( D ) il prodotto delle matrici che generano le trasformazioni sulle


righe e T ( D ) il prodotto delle matrici che generano le trasformazioni sulle
colonne, operate per passare da ( DI − A) ad N ( D ).
Ora, se Z soddisfa

N ( D ) Z ( x ) = S( D ) B( x )

avremo che
S( D )( DI − A) T ( D ) Z ( x ) = S( D ) B( x )
e
Y(x) = T (D)Z(x)
soddisfa
S( D )( DI − A)Y ( x ) = S( D ) B( x )
ed anche
( DI − A)Y ( x ) = B( x ) .
Osserviamo che, per poter ricondurre i risultati provati per le equazioni al
caso dei sistemi, è sufficiente osservare che:
• se Z ( x ), B( x ) sono della forma Q( x )eλx , dove Q è un vettore colonna
i cui elementi sono polinomi di grado al più m, tali restano S( D ) B( x ) e
T ( D ) Z ( x );

• i polinomi caratteristici delle n equazioni ottenute sono

f i (λ) , i = 1, .., n,

e pertanto hanno come radici tutte e sole le radici di P(λ) = 0 con


molteplicità minore o uguale a quella con cui ivi compaiono.
44

3.4 Dipendenza dai dati iniziali e stabilità dei sistemi differen-


ziali lineari.

Ci occupiamo ora di un problema di estremo interesse applicativo. I sistemi


differenziali sono di grande utilità per simulare modelli di fenomeni fisici e
prevederne l’evoluzione futura; la costruzione del modello però dipende dalla
determinazione dei dati del sistema, nel nostro caso la matrice A, il vettore B
ed il dato iniziale Y0 , e la sua affidabilità è collegata alla precisione con cui i
dati sono stati rilevati.
Poiché deve prevedersi un errore nella determinazione dei dati, la soluzione
fornita dal sistema rappresenterà non tanto l’evoluzione del fenomeno cui
siamo interessati, bensì l’evoluzione di un fenomeno del tutto analogo relativo
a dati che differiscono di poco, l’errore con cui si effettuano i rilevamenti, dai
dati effettivi.
E’ pertanto importante conoscere come variano le soluzioni dei sistemi dif-
ferenziali in funzione delle variazioni dei dati inziali.
Lo studio di questo problema viene indicato come studio della dipendenza
dai dati iniziali nel caso in cui si consideri l’evoluzione del fenomeno in un
intervallo finito, mentre si definisce studio della stabilità del sistema se ci
interessa il comportamento della soluzione per grandi valori della variabile
indipendente, cioè su un intervallo infinito. Cominciamo col dare alcuni risul-

tati che precisano la dipendenza dai valori iniziali della soluzione dei sistemi
lineari.

Teorema 3.1 Sia I = [ x0 , x0 + a] , a > 0 , e siano A : I −→ Mn , B :


I −→ Rn continue; siano inoltre Y0 , Z0 ∈ Rn .
Consideriamo le soluzioni dei seguenti problemi di Cauchy:
 
Y 0 ( x ) = A ( x )Y ( x ) + B ( x )  Z0 ( x ) = A( x ) Z ( x ) + B( x )
Y ( x0 ) = Y0  Z ( x0 ) = Z0

allora Rx
n k A(t)kdt
kY ( x ) − Z ( x )k ≤ kY0 − Z0 ke x0
.

Dimostrazione. Si ha
Z x
kY ( x ) − Z ( x )k ≤ kY0 + Z0 k + nk A(t)kkY (t) − Z (t)kdt
x0

e si può concludere usando il lemma di Gronwall. 2

Teorema 3.2 Sia I = [ x0 , x0 + a], a > 0 , siano A1 , A2 : I −→ Mn , B1 , B2 :


I −→ Rn , continue e sia Y0 ∈ Rn .
Consideriamo le soluzioni Y e Z dei problemi di Cauchy
 
Y 0 ( x ) = A ( x )Y ( x ) + B ( x ) Z0 (x) = A (x)Z(x) + B (x)
1 1 2 2
Y ( x0 ) = Y0  Z ( x0 ) = Y0
45

Si ha allora

kY ( x ) − Z ( x )k ≤
x
Z
≤ k( A1 (t) − A2 (t)) Z (t)kdt+
x0
Z x  Rx
n k A (t)kdt
+ k B1 (t) − B2 (t)kdt e x0 1
x0

Dimostrazione. Si ha

kY ( x ) − Z ( x )k ≤
Z x
≤ k A1 (t)Y (t) − A2 (t) Z (t) + B1 (t) − B2 (t)kdt ≤
x0
Z x
≤ (k A1 (t)(Y (t) − Z (t))k+
x0

+ k( A1 (t) − A2 (t)) Z (t)k + k B1 (t) − B2 (t)k)dt ≤


Z x
≤n k A1 (t)kkY (t) − Z (t)kdt+
x0
Z x
+ k( A1 (t) − A2 (t)) Z (t)kdt+
x0
Z x
+ k B1 (t) − B2 (t)kdt
x0

e si può concludere usando il lemma di Gronwall. 2

Corollario 3.1 Nelle condizioni del teorema A8.3, ∀ε > 0 ∃δε > 0 tale che,
se kY0 − Z0 k < δε si ha kY ( x ) − Z ( x )k < ε per ogni x ∈ I.

Corollario 3.2 Nelle condizioni del teorema ., ∀ε > 0 ∃δε > 0 tale che, se
sup{k A1 ( x ) − A2 ( x )k : x ∈ I } < δε e sup{k B1 ( x ) − B2 ( x )k : x ∈ I } <
δε , si ha kY ( x ) − Z ( x )k < ε

Possiamo infine discutere brevemente la stabilità dei sistemi differenziali


lineari.

Definizione 3.1 Supponiamo che I = [ x0 , +∞) ; A: I −→ Mn , B : I −→


Rn continue, e consideriamo il sistema differenziale lineare

Y 0 ( x ) = A ( x )Y ( x ) + B ( x ) .

Diciamo che la soluzione Y è stabile per il sistema se, detta Z un’altra sua
soluzione, ∀ε > 0 ∃δε > 0 tale che, se kY ( x0 ) − Z ( x0 )k < δε si ha kY ( x ) −
Z ( x )k < ε ∀ x ≥ x0 .
Diciamo che Y è asintoticamente stabile per il sistema se è stabile ed inoltre
lim x→+∞ kY ( x ) − Z ( x )k = 0.

Dal momento che Y e Z sono soluzioni di un sistema lineare non omoge-


neo si ha, per i precedenti risultati, che Y − Z è soluzione del sistema lineare
46

omogeneo corrispondente. E’ pertanto evidente che studiare la stabilità di Y


per il sistema assegnato è equivalente a studiare la stabilità della soluzione
identicamente nulla per il sistema lineare omogeneo ad esso associato. Solita-
mente inoltre ci si limita a studiare, per quanto riguarda la stabilità, il caso
autonomo; di conseguenza considereremo soltanto sistemi lineari a coefficienti
costanti.
In tal caso si può provare il seguente risultato.

Teorema 3.3 Si consideri il sistema Y 0 ( x ) = AY ( x ) . Se la matrice A ha


tutti gli autovalori con parte reale negativa, allora la soluzione identicamente
nulla è asintoticamente stabile.
Se la matrice A ha tutti gli autovalori con parte reale negativa o nulla, ed
inoltre gli autovalori con parte reale nulla hanno molteplicità 1, la soluzione
identicamente nulla è stabile.
Negli altri casi la soluzione identicamente nulla non è stabile.

3.5 L’oscillatore armonico.

Si consideri l’equazione differenziale lineare del secondo ordine

x”(t) + 2hx 0 (t) + ω 2 x (t) = K sin(αt) h, K, α > 0.

Essa descrive il comportamento di un oscillatore armonico smorzato, cioè


di un punto materiale soggetto ad una forza di richiamo proporzionale alla
distanza ed ad forza di attrito proporzionale alla velocità, sollecitato da una
forza esterna sinusoidale di ampiezza K e di frequenza α.
Le soluzioni dell’equazione sono date da:

1. h > ω
x (t) = c1 e(−h+θ )t + c2 e(−h−θ )t + x̂ (t)

2. h = ω
x (t) = c1 e−ht + c2 te−ht + x̂ (t)

3. h < ω
x (t) = e−ht (c1 sin(θt) + c2 cos(θt)) + x̂ (t)

dove
x̂ (t) = α sin(αt) + b cos(αt) = A sin(αt − φ)

ed inoltre si è posto
θ = |h2 − ω 2 |1/2
ω 2 − α2
a=K
4h2 α2 + (ω 2 − α2 )2
2hα
b = −K
4h2 α2 + ( ω 2 − α2 )2
47

K
A= p
4h2 α2
+ ( ω 2 − α2 )2
a
φ = arccos .
A
Nel caso in cui h = 0 l’equazione diventa

x”(t) + ω 2 x (t) = K sin(αt) k, α > 0

e rappresenta un oscillatore armonico non smorzato sollecitato da una forza


esterna sinusoidale.
Le soluzioni in questo caso sono

1. α 6= ω
K
x (t) = c1 sin(ωt) + c2 cos(ωt) + sin(αt)
ω2 − α2
2. α = ω
K
x (t) = c1 sin(ωt) + c2 cos(ωt) − t cos(ωt) .

Il comportamento delle soluzioni di queste due equazioni è illustrato nelle


figure A.8.1-A.8.2-..-A.8.11. Più precisamente le figure A.8.1-A.8.2-A.8.3-
A.8.4-A.8.5 riguardano la funzione

K
A= =
(4h2 α2 + (ω 2 − α2 )2 )1/2
K/ω 2
=
(4(h/ω )2 (α/ω )2 + (1 − (α/ω )2 )2 )1/2
con
K/ω 2 = .5 .
Le figure A.8.1-A.8.2-A.8.3-A.8.4 rappresentano, da diversi punti di vista, il
grafico di A in funzione di ωh e ωα , mentre la figura A.8.5 ne rappresenta le
curve di livello.
E’ facile vedere come per valori di ωα vicini ad 1 e di ωh vicini a 0, la
funzione diventi molto grande (risonanza).
Le figure A.8.6-A.8.7 riguardano la funzione
K
x (t, α) = (α sin(ωt) − ω sin(αt))
ω ( α2 − ω 2 )
che è la soluzione dell’equazione dell’oscillatore armonico non smorzato sod-
disfacente le condizioni iniziali x (0) = x 0 (0) = 0.
Le costanti K ed ω sono fissate: K = 2, ω = 2 ed i grafici mostrano
l’andamento di x in funzione di t e di α.
Le figure A.8.8-A.8.9 riguardano la funzione
K
x (t, ω ) = (ωt cos(ωt) − sin(ωt))
2ω 2
48

che è la soluzione dell’oscillatore armonico non smorzato, nel caso α = ω


(risonanza) soddisfacente le condizioni iniziali x (0) = x 0 (0) = 0.
Le figure A.8.9 e A.8.10 riguardano la funzione x (t, h), soluzione dell’equazione
dell’oscillatore armonico smorzato, per valori di K e ω fissati: K = 2, ω = 3,
soddisfacente i dati iniziali x (0) = 4, x 0 (0) = 0.
E’ evidente l’effetto dello smorzamento al crescere di h .

Potrebbero piacerti anche