Sistemas Acoplados Edp PDF
Sistemas Acoplados Edp PDF
Sistemas Acoplados Edp PDF
SOLUCIONES NUMÉRICAS
ESTABLES DE SISTEMAS
ACOPLADOS MIXTOS DE
ECUACIONES EN DERIVADAS
PARCIALES
TESIS DOCTORAL
Presentada por:
Marı́a Consuelo Casabán Bartual
Dirigida por:
Dr.D. Lucas Jódar Sánchez
P. Puig Adam
Agradecimientos
Cuando hace unos años empecé mi andadura por el difı́cil camino de la investigación, siendo
becaria de este departamento y dirigida por mi apreciado profesor Dr. Lucas Jódar, nunca
imaginé, que tal dı́a como hoy, llegarı́a a escribir estas letras, que de algún modo concluyen
mis estudios de tercer ciclo y que serán el principio de una nueva etapa.
No sin antes terminar, quisiera hacer constar en estas lı́neas, mi más sincero agradecimiento
al Dr. Lucas Jódar, mi director de tesis, por su ayuda y constancia en la realización de la
misma, y por transmitirme sus innumerables conocimientos sobre cómo investigar y ser un
buen docente.
Ası́ también, agradezco a mis amigos Dolors, Lola y Emilio su constante apoyo y ánimo.
i
Resumen
Las condiciones de contorno de los problemas aquı́ tratados son acopladas y de tipo no-
Dirichlet.
Las técnicas de desacoplamiento no son aplicables salvo para hipótesis excesivamente res-
trictivas. Aún desacoplando la ecuación en derivadas parciales, las condiciones de contorno
no tienen porqué estarlo, por lo que las técnicas de desacoplamiento son poco convenientes.
Los problemas tratados modelizan, entre otros, problemas de difusión, conducción nerviosa
y problemas del armamento (capı́tulo 2), calentamiento por microondas, óptica, cardiologı́a
y flujos del suelo (capı́tulo 3).
iii
Resum
Les condicions de contorn dels problemes acı́ tractats són acoblades i de tipus no-Dirichlet.
El nostre enfocament metodològic és alternatiu front al tractament algebraic més tradi-
cional que escriu l’esquema matricialment, i ofereix l’avantatge de no haver de resoldre
els sistemes algebraics de gran tamany amb blocs matricials que apareixen en el mètode
de diferències finites estàndard, gràcies a l’ ús d’un mètode de separació de variables discret.
Les tècniques de desacoblament no són aplicables excepte per a hipòtesis excessivament res-
trictives. Fins i tot desacoblant l’equació en derivades parcials, les condicions de contorn no
tenen per què estar-ho, per la qual cosa les tècniques de desacoblament són poc convenients.
Els problemes tractats modelen, entre altres, problemes de difusió, conducció nerviosa i
problemes de l’armament (capı́tol 2), calfament per microones, òptica, cardiologia i fluixes
del sòl (capı́tol 3).
v
Abstract
This memory deals with the construction of stable numerical solutions of coupled parabolic
and hyperbolic systems. The characteristic stages of this memory are: the construction of
discrete solutions using difference schemes and a discrete separation of variables method,
the study of the stability and the consistency of the calculated solution, and the use of a
method of projections in order to extend the obtained results to a more general class of
initial value functions.
The boundary conditions of the problems which have been dealt here are coupled and of
non-Dirichlet type.
The uncoupled techniques aren’t applied except for excessively restrictive hypotheses. Even
uncoupling the partial differential equation, the boundary conditions don’t necessarily have
to be so, hence the uncoupled techniques aren’t very suitable.
The treated problems model, among others, diffusion problems, nerve conduction and ar-
mament models (chapter 2), microwave heating processes, optics, cardiology and soil flows
(chapter 3).
vii
Índice general
2. Sistemas parabólicos 17
2.1. Caso particular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2. La discretización del problema . . . . . . . . . . . . . . . . . . . . . 18
2.1.3. El problema de contorno discreto . . . . . . . . . . . . . . . . . . . . 19
2.1.4. Consistencia y estabilidad de las soluciones . . . . . . . . . . . . . . 26
2.1.5. El problema mixto discreto . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.6. El método de las proyecciones . . . . . . . . . . . . . . . . . . . . . . 40
2.1.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.2. El problema de contorno discreto . . . . . . . . . . . . . . . . . . . . 62
2.2.3. El problema mixto discreto . . . . . . . . . . . . . . . . . . . . . . . 72
2.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3. Sistemas hiperbólicos 85
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2. La discretización del problema . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.3. El problema de contorno discreto . . . . . . . . . . . . . . . . . . . . . . . . 86
3.4. El problema mixto discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.5. Consistencia y estabilidad de las soluciones . . . . . . . . . . . . . . . . . . 98
3.6. El método de las proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Bibliografı́a 109
ix
Capı́tulo 1
Introducción, motivación y
preliminares
0.4pt0.4pt 0pt0.4pt
En este sentido, la memoria es una continuación de las tesis [28, 41], aunque en este trabajo
la ecuación matricial en derivadas parciales de los sistemas parabólicos considerados es más
general y además se incluye el estudio de sistemas hiperbólicos.
1
2 1.1 Introducción y motivación
ut (x, t) − Auxx (x, t) − Bu(x, t) = 0, 0 < x < 1, t > 0,
u(0, t) = 0, t > 0,
, (1.1)
Cu(1, t) + Dux (1, t) = 0, t > 0,
u(x, 0) = F (x), 0 ≤ x ≤ 1,
ut (x, t) − Auxx (x, t) − Bu(x, t) = 0, 0 < x < 1, t > 0,
A1 u(0, t) + B1 ux (0, t) = 0, t > 0,
, (1.2)
A2 u(1, t) + B2 ux (1, t) = 0, t > 0,
u(x, 0) = F (x), 0 ≤ x ≤ 1,
Los sistemas mixtos difusivos de ecuaciones en derivadas parciales acoplados del tipo (1.1)
y (1.2) aparecen en el estudio de muchos campos de la ciencia tales como, geomecánica
[42]; fı́sica-quı́mica; mecánica [36]; en problemas de dispersión de mecánica cuántica [2, 31];
en la modelización termoelastoplástica; en problemas de conducción nerviosa [30, 17, 30];
en modelos del armamento [14]; en el encendido de una única componente de un gas no
reactivo en un recipiente cilı́ndrico cerrado con conservación de masa [27]; o en el estudio
de la muerte cardı́aca repentina como consecuencia de la fibrilación ventricular [48].
considerándose las mismas condiciones de contorno que en los problemas (1.1) y (1.2), han
sido tratadas en [26], y sus soluciones analı́tico-numéricas en [23].
La enorme profusión de los procesos de difusión se debe en parte, a la gran sencillez de las
dos ecuaciones que se requieren para poder establecer la ecuación de difusión. La primera
de ellas, denominada Primera ley de difusión, afirma que“la materia tiende a repartirse
de forma natural en el interior del sistema que lo contiene”. Aquı́ el concepto de materia
debe entenderse en su sentido más amplio, ya que nos referiremos por igual a las moléculas
de una sustancia, que tienden a desplazarse de las zonas de mayor concentración hacia las
zonas de menor concentración; o a las cargas, que se desplazan en contra de un gradiente
de potencial eléctrico; o al calor, que se reparte en un sólido.
La segunda ecuación de difusión, denominada Ley de la conservación de la materia/energı́a,
o también Ecuación de continuidad, es una ecuación de cumplimiento más general que la
Capı́tulo 1. Introducción, motivación y preliminares 3
anterior pues afirma que, “dado un volumen arbitrario, la variación de la cantidad de ma-
teria es igual a lo que entra en el volumen, menos lo que sale, más lo que se crea en su
interior, menos lo que se destruye”.
Como consecuencia de lo que se ha comentado, se concluye que un problema de difusión es
de naturaleza intrı́nsecamente escalar, debido a que no concierne más que a la descripción
de una determinada sustancia cuya caracterización se realiza por medio de una magni-
tud escalar como puede ser la concentración. A pesar de que no existe ninguna magnitud
conocida que verifique la ecuación de difusión, sı́ que existe relación entre la difusión de
distintas magnitudes en un mismo medio. Esto nos va a permitir expresar el modelo de
un problema mediante una ecuación de difusión matricial, donde cada entrada del vector
incógnita será una de las magnitudes cuya difusión simultánea estamos estudiando.
El acoplamiento entre varios problemas escalares se puede expresar de forma más elegante
mediante una formulación matricial. Atendiendo a [42, 34, 46] podemos modelar diferentes
fenómenos de conducción mediante el siguiente sistema general, transcrito en su versión
unidimensional:
∂ ∂ ∂ ∂U
(AU ) + (BU ) − D + EU + F = 0 , (1.4)
∂t ∂x ∂x ∂x
x ∈ Ω, t > 0.
El vector incógnita U es el vector de variables de estado, que en el caso más general con-
tendrá la temperatura, el potencial eléctrico, etc. A, B, D y E son matrices de coeficientes
y F es un vector de términos fuente.
Notemos que si A es invertible, D no depende de x, B = 0 y F = 0, entonces la ecuación
de difusión matricial (1.4) se transforma en la ecuación de los problemas (1.1) y (1.2) que
se estudian en el capı́tulo 2 de esta memoria, pero particularizada a la matriz A−1 D. Estas
condiciones corresponden a problemas fı́sicos en los que no tenemos convección (B = 0), no
hay términos fuente (F = 0), existen especies que se transforman en otras especies (E 6= 0),
y el medio es homogéneo (D es constante). Estas condiciones son las que se estudian en la
presente memoria.
Esta memoria concluye con el capı́tulo 3 en el que construyen soluciones numéricas estables
de sistemas hiperbólicos acoplados del tipo:
Auxx (x, t) − utt (x, t) = 0, 0 < x < 1, t > 0,
u(0, t) = 0, t > 0,
Bu(1, t) + Cux (1, t) = 0, t > 0, , (1.5)
u(x, 0) = F (x), 0 ≤ x ≤ 1,
ut (x, 0) = V (x), 0 ≤ x ≤ 1.
1.2. Preliminares
A lo largo del trabajo vamos a utilizar una serie de definiciones, notación y resultados que
creemos conveniente enunciar en este apartado de preliminares para facilitar su lectura.
1/2
Definición 1.1 Si v es un vector en Cm , denotamos por kvk2 = v H v la norma
euclı́dea usual de v. Si A es una matriz en Cn×m , su norma 2 la denotamos por kAk,
y está definida por [13, pág. 56]
kA vk2
kAk = sup .
v6=0 kvk2
Definición 1.3 Una matriz A se dice convergente si la sucesión {An } tiende a la matriz
nula cuando n −→ ∞.
El conjunto de todos los valores propios de una matriz A en Cm×m lo denotaremos por
σ(A), y el radio espectral de A definido por el conjunto
Una caracterización del concepto de matriz convergente nos la proporciona el lema 5.2 de
[4, pág. 163]:
LEMA 1.1
A es convergente ⇐⇒ ρ(A) < 1 .
Definición 1.4 [3]. Dadas dos sucesiones {an } y {bn } tales que bn ≥ 0 para todo n, escri-
biremos
an = O(bn ) ,
si existe una constante M > 0 tal que |an | ≤ M bn para todo n. Por tanto, una ecuación de
la forma
an = cn + O(bn )
significa que
an − cn = O(bn ) .
Ax = b, A ∈ Cm×n , x ∈ Cn , b ∈ Cm . (1.6)
Capı́tulo 1. Introducción, motivación y preliminares 5
(i) AA† A = A
(ii) A† AA† = A†
H
(iii) AA† = AA†
H
(iv) A† A = A† A
Un estudio más detallado de las propiedades y aplicaciones de este concepto se puede ver
en [6] y [39].
Para calcular las soluciones de (1.6) necesitaremos métodos eficaces para el cálculo de A† ,
como por ejemplo el programa Matlab, véase [16].
TEOREMA 1.1 (Teorema de Mitra) [39]. Sea A ∈ Cm×n y sea AG ∈ Cn×m una
inversa generalizada de A. Sea b ∈ Cm , entonces el sistema
Ax = b ,
AAG b = b .
x = AG b + (I − AG A)z ,
Observación 1.1 [6]. Los siguientes resultados relacionan el núcleo y la imagen de una
matriz:
Nuc B = Im I − B † B ; Im B = Nuc I − BB † .
Observación 1.3 Como consecuencia de la observación 1.1 se obtienen las siguientes equi-
valencias:
Nuc B subespacio invariante por la matriz A ⇐⇒ BA I − B † B = 0 ,
Im B subespacio invariante por la matriz A ⇐⇒ I − BB † AB = 0 .
Nuc M ∩ Nuc N
h i† h i
† † †
= Im I −M M I − N I −M M N I −M M .
Demostración.
⊂
Si v ∈ Nuc M ∩ Nuc N entonces M v = 0 y N v =0. Por el teorema 2.3.2 de [1, pág. 24]
† †
obtenemos que M v = 0 implica v ∈ Im I − M M , i.e., v = I − M M d, donde d es un
vector arbitrario en Cs . Multiplicando v por N obtenemos:
0 = N v = N I − M †M d ,
Multiplicando d por I − M † M :
v = I − M †M d
h i† h i
† † †
= I −M M I − N I −M M N I −M M c,
Por tanto:
Nuc M ∩ Nuc N
h i† h i
† † †
⊂ Im I −M M I − N I −M M N I −M M .
⊃ n n † oo
Sea v ∈ Im I − M † M I − N I − M † M N I − M †M
.
s
Entonces para algún z ∈ C se tiene:
h i† h i
† † †
v = I −M M I − N I −M M N I −M M z.
Capı́tulo 1. Introducción, motivación y preliminares 7
M = M M † M,
√
En todo el trabajo denotaremos por i a la unidad imaginaria, i = −1.
AH
k = Ak , para k = 1, 2.
kP k = ρ(P ) .
ρ(A) ≤ kAk .
Observación 1.5 Sea P una matriz diagonalizable y
Q una matriz invertible tal que
Q−1 P Q es una matriz diagonal, entonces kP k ≤
Q−1
kQkρ(P ).
TEOREMA 1.3 (Teorema de Bromwich) [33, pág. 389]. Sea A cualquier matriz com-
pleja. Sean µ y M el menor y el mayor valor propio de la matriz hermı́tica 12A + AH ,
1
y ν y N el menor y el mayor valor propio de la matriz hermı́tica 2i A − AH . Si λ es
cualquier valor propio de A, entonces,
µ ≤ Re(λ) ≤ M , ν ≤ Im(λ) ≤ N .
8 1.2 Preliminares
ei ≥ λi + µn ,
λ i = 1, . . . , n .
TEOREMA 1.5 (Teorema de Gershgorin) [4, pág. 127]. Dada una matriz A = [aij ]
se verifica que σ(A) está contenido en la unión de los discos
X
Fi = z ∈ C : |z − aii | ≤ |aij | , 1 ≤ i ≤ n ,
j6=i
es decir,
n n
! !
[ \ [
σ(A) ⊂ Fi Gi .
i=1 i=1
Definición 1.8 Sea f : C −→ C y A una matriz, diremos que f pertenece al espacio F(A)
si existe un entorno V de σ(A) sobre el cual f es analı́tica.
Observación 1.6 (Complemento de Schur) [4, pág. 92]. Sea A una matriz cuadrada
de orden n, con una partición en bloques
E F
A= ,
G H
W = H − GE −1 F .
Capı́tulo 1. Introducción, motivación y preliminares 9
A1 u(0, t) + B1 ux (0, t) = 0
, (1.10)
A2 u(1, t) + B2 ux (1, t) = 0
donde Ak , Bk , k = 1, 2 son matrices cuadradas en Cm×m . Las condiciones de (1.10) son
un caso particular de las dadas en (1.8). Por tanto, en vista de la condición (1.9) se tiene
que verificar:
A1 B1
A = rango = 2m , (1.11)
A2 B2
i.e., A es una matriz invertible (ya que A es una matriz cuadrada de tamaño 2m × 2m) .
Los bloques de condiciones de contorno que aparecen en los problemas (1.1), (1.2) y (1.5)
son:
I 0 A1 B1 I 0
I) , II) , III) ,
C D A2 B2 B C
que por (1.11) tienen que ser invertibles. Por tanto, bajo la hipótesis de que A1 es invertible
y utilizando el complemento de Schur, véase la observación 1.6, obtenemos las siguientes
condiciones equivalentes:
I) invertible ↔ D invertible
II) invertible ↔ B2 − A2 A−1
1 B1 invertible
III) invertible ↔ C invertible .
10 1.2 Preliminares
Definición 1.10 Sea q(λ) el polinomio anulador de A de grado mı́nimo. Entonces a q(λ)
se le llama polinomio minimal de A.
Para calcular el polinomio minimal de una matriz será suficiente tener en cuenta la defini-
ción 1.10 y el teorema 1.7.
Observación 1.8 El teorema 1.7 nos proporciona un método fácil para expresar cualquier
polinomio en A como otro, también en A, de grado menor que el del polinomio caracterı́stico
de A.
En efecto, si p(λ) es cualquier polinomio de grado mayor que n, entonces por el algoritmo
de la división, existen polinomios c(λ) y r(λ) no nulos tales que:
p(λ) = c(λ)ϕ(λ) + r(λ) (1.12)
donde ϕ(λ) es el polinomio caracterı́stico de A de grado n y r(λ) tiene grado menor que n.
Por tanto, aplicando el teorema 1.7 y utilizando (1.12) se tiene:
p(A) = c(A)ϕ(A) + r(A) = r(A) ,
i.e., el polinomio en A de grado mayor que n, p(A), se expresa como otro polinomio en A
de grado menor que n.
Notar que el mismo argumento también es válido si en lugar de considerar el polinomio
caracterı́stico de A se toma su polinomio minimal.
Definición 1.11 Se dice que los polinomios R1 (x), R2 (x), . . ., Rk (x) son primos 2 a 2
(coprimos), si Ri (x) y Rj (x) no tienen ningún divisor común, i 6= j. Se dice que son
primos entre sı́, si no tienen ningún divisor común a todos ellos.
Observación 1.9 En general, ser primos 2 a 2 implica ser primos entre sı́, pero ser primos
entre sı́ no implica ser primos 2 a 2.
TEOREMA 1.8 (Teorema de Bezout) [12]. Si Q1 (x) y Q2 (x) son dos polinomios pri-
mos entre sı́, entonces existen dos polinomios H1 (x) y H2 (x) de forma que se satisface la
relación:
1 = H1 (x)Q1 (x) + H2 (x)Q2 (x) .
TEOREMA 1.10 [11, pág. 567]. Si P ∈ Cs×s , f (w) es una función holomorfa definida en
un conjunto abierto Ω del plano complejo y σ(P ) está en Ω, el cálculo funcional matricial
holomórfico define a f (P ) como una matriz que puede ser calculada como un polinomio en
P de grado más pequeño que el polinomio minimal de P .
√
Observación 1.10 Si JP es la forma canónica
√ de Jordan de P , P = SJP S −1 y JP es
la raı́z cuadrada de JP , entonces Q = S JP S −1 es una raı́z cuadrada de P .
El método de diferencias finitas es uno de los métodos más utilizados para resolver proble-
mas de valores frontera. Dicho método consiste en reemplazar cada una de las derivadas de
la ecuación diferencial por el cociente incremental adecuado. A la ecuación discreta resul-
tante se le llama esquema en diferencias finitas.
Para poder realizar esta aproximación necesitamos definir una red (mallado) de puntos
en el plano (x, t). Tomando h (paso espacial) y k (paso temporal) números positivos, el
mallado estará formado por los puntos (xm , tn ) = (mh, nk) siendo m y n números enteros
arbitrarios.
La propiedad más básica que un esquema en diferencias finitas debe tener para ser útil es
la de ser un esquema convergente.
P φ − Pk,h φ −→ 0 , cuando k, h → 0,
Definición 1.14 (Esquema en diferencias estable) Sea v(mh, nk) una solución del es-
quema Pk,h v = f . Diremos que el esquema es estable si para un h0 (paso espacial) fijado,
la solución v(mh0 , nk) permanece acotada cuando n → ∞.
Definición 1.15 (Estabilidad en el sentido de estación fija) [43, pág. 109] Conside-
remos una solución v(mh, nk) del esquema Pk,h v = f . Diremos que el esquema es estable
m
si dado un punto del mallado (X, T ), donde X = mh0 = M siendo h0 fijo y T = Jk finito,
entonces la solución v(mh0 , Jk) permanece acotada a medida que el paso temporal k decrece
(k → 0), i.e., a medida que n crece, dependiendo del valor de k, hasta tomar el valor J
donde se alcanza el tiempo T .
Obviamente, los problemas de valores frontera lineales homogéneos pueden tener soluciones
no triviales. Si los coeficientes de la ecuación en diferencia y/o los de las condiciones de
frontera dependen de un parámetro, entonces uno de los problemas pioneros de la fı́sica
matemática es determinar el/los valor(es) del parámetro para el cual tales soluciones no tri-
viales existan. Esos valores especiales del parámetro se llaman autovalores o valores propios
y las correspondientes soluciones no triviales se llaman autofunciones o funciones propias.
N (0, K) = {a ∈ N / 0 ≤ a ≤ K} ,
N (1, K) = {b ∈ N / 1 ≤ b ≤ K} .
En las condiciones de frontera (1.14), α y β son constantes conocidas.
Los siguientes resultados, en los cuales se asume tácitamente la existencia de los valores
propios del P.S.L.D. (1.13)-(1.14), son fundamentales.
TEOREMA 1.11 Los autovalores del P.S.L.D. (1.13)-(1.14) son simples, i.e., si λ es
un autovalor de (1.13)-(1.14) y φ1 (k) y φ2 (k) son sus respectivas autofunciones, entonces
φ1 (k) y φ2 (k) son linealmente dependientes en N (0, K + 1).
Definición 1.16 El conjunto de funciones {φm (k) / m = 1, 2, . . .} cada una de las cuales
está definida en N = N ∪ {0} se dice ortogonal en N con respecto a la función no negativa
r(k), k ∈ N si X
r(l)φµ (l)φν (l) = 0 , ∀µ 6= ν .
l∈N
TEOREMA 1.13 Sean λ1 y λ2 dos autovalores del P.S.L.D. (1.13)-(1.14) y sean φ1 (k)
y φ2 (k) las correspondientes autofunciones. Entonces φ1 (k) y φ2 (k) son linealmente depen-
dientes en N (0, K + 1) si y sólo si λ1 = λ2 .
Si denotamos s(k) = p(k) + p(k − 1) − q(k), con k ∈ N (1, K), entonces la ecuación (1.15)
se puede reescribir ası́
y
− p(K − 1)u(K − 1) + s(K)u(K) − p(K)u(K + 1) = λr(K)u(K) , (1.18)
las cuales en vista de las condiciones de contorno (1.14) toman la forma
A
eu = λ R u , (1.21)
e es la matriz real, K × K, simétrica y tridiagonal de la forma HK (F, G), con
donde A
y
G = (−p(1), −p(2), . . . , −p(K − 1)) ;
R es la matriz diagonal K × K definida como R = diag(r(1), . . . , r(K)), y la incógnita
u = (u(1), u(2), . . . , u(K)).
Ya que p(k) > 0, k ∈ N (0, K) y r(k) > 0, k ∈ N (1, K) se sigue que:
y entonces
b
P
r(k)φm (k)u(k)
k=a
cm = b
, a ≤ m ≤ b. (1.23)
r(k)φ2m (k)
P
k=a
b
X
cm = r(k)φm (k)u(k) , a ≤ m ≤ b.
k=a
Definición 1.17 La relación (1.22) se llama la serie de Fourier discreta, y las constantes
cm definidas en (1.23) son los correspondientes coeficientes de Fourier discretos.
Capı́tulo 2
Sistemas parabólicos
2.1.1. Introducción
Este capı́tulo trata sobre la construcción de soluciones numéricas convergentes de problemas
mixtos con condiciones de contorno acopladas del tipo:
17
18 2.1 Caso particular
buscarán condiciones suficientes para garantizar que las soluciones construidas sean esta-
bles. De esta forma aseguraremos la convergencia de las soluciones. En el apartado 2.1.5,
se construirán soluciones para el problema mixto (2.1)–(2.4) discretizado. En el apartado
2.1.6, utilizaremos un método de proyecciones que nos permitirá extender los resultados
del apartado 2.1.5 a clases más amplias de funciones de valores iniciales F (x). Finalmente,
en el apartado 2.1.7 desarrollaremos algunos ejemplos para aplicar los resultados teóricos
obtenidos.
{xm = mh, m = 0, 1, . . . , M, } ,
por otra parte, se toma un paso temporal k > 0 (también fijo por la misma razón), y se
discretiza el tiempo, [0, +∞[, considerando la sucesión de puntos:
{tn = nk, n = 0, 1, . . .} .
Con esto hemos construido una red rectangular del dominio [0, 1]×[0, +∞[, formada por los
puntos (xm , tn ) = (mh, nk). En cada uno de ellos utilizaremos un esquema en diferencias
finitas progresivas en el que se reemplazarán las derivadas parciales ut y uxx , de la ecuación
(2.1), convirtiendo el problema continuo en uno discreto. Para reemplazar ut desarrollamos
u(mh, (n + 1)k) en serie de Taylor, en t, alrededor del punto (mh, nk) obteniendo:
rA [U (m + 1, n) + U (m − 1, n)]
rB
+ I + 2 − 2rA U (m, n) − U (m, n + 1) = 0 , 0 < m < M, n > 0 (2.7)
M
donde
k 1
r= , h= , f (m) = F (mh) . (2.11)
h2 M
2
2r+ρ
entonces 2r ≤ 1. Por tanto la ecuación algebraica
2 2r + ρ
z − z+1=0, (2.18)
r
y observamos que
Ya que la ecuación vectorial (2.16) tiene coeficientes escalares, sus soluciones pueden escri-
birse de la forma
Por (2.8) y (2.12), teniendo en cuenta que {G(n)} no puede ser idénticamente cero, se sigue
que H(0) = 0 y por (2.20) obtenemos
Como estamos interesados en soluciones no nulas, el vector d debe ser no nulo y por tanto
es suficiente que
D es invertible , (2.27)
véase la observación 1.7, los valores de θ para los cuales se verifica (2.26) deben satisfacer
que el sen(M θ) 6= 0 y podemos escribir (2.26) de la forma
d
porque dθ (cot(M θ)) = − sen2M(M θ)
< 0. Para buscar las raı́ces de la ecuación (2.31) distin-
guiremos los siguientes casos sobre el valor propio real µ de la matriz −D−1 C.
CASO 1. µ<0
M
es continua, negativa y tiene un máximo en θ = arc cos M −µ a lo largo de ]0, π[.
CASO 2. µ=0
(2` − 1) (2` − 1)
L(θ` ) = 2M D sen π cos π
2(2M − 1) 2
2` − 1
+ C sen M π
2M − 1
`−M
= (−1)` C sen π , 1 ≤ ` ≤ M − 1.
2M − 1
Por tanto, por lo visto en los Casos 1 y 2, se obtiene que si µ ≤ 0 existe una única raı́z,
θ` ∈ J` de la ecuación (2.31) para 1 ≤ ` ≤ M − 1, es decir, existen M − 1 soluciones θ` de
la ecuación (2.31) en ]0, π[.
D−1 L(θ` )
G(µ) = = D−1 C + µI , (2.34)
sen(M θ` )
Capı́tulo 2. Sistemas parabólicos 23
G(µ)
G(µ) (A + w` B)
G(µ) (A + w` B)2
−1
G
e (µ, θ` ) = , w` = , (2.35)
.. 4M 2 sen2 θ`
. 2
G(µ) (A + w` B)p` −1
donde p` es el grado del polinomio minimal de la matriz A + w` B. Se observa que utilizando
la matriz G
e (µ, θ` ), la condición (2.25) toma la forma
θ` 2M − 1
C sen (M θ` ) + 2M D sen cos θ` (A + w` B)n d` = 0,
2 2
0 ≤ n < p` ,
es decir,
L(θ` ) (A + w` B)n d` = 0 , 0 ≤ n < p` , (2.36)
que es equivalente a la condición
G
e (µ, θ` ) d` = 0, d ` ∈ Cs . (2.37)
y por el teorema de Mitra, véase el teorema 1.1, bajo la hipótesis (2.38) el conjunto de
soluciones de la ecuación algebraica (2.37) viene dado por
d` = I − G e (µ, θ` )† G
e (µ, θ` ) S` , S` ∈ Cs ∼ {0}. (2.39)
Resumiendo, bajo las hipótesis (2.27) y (2.29), si θ` son las soluciones de (2.31) y G
e (µ, θ` ) la
matriz definida por (2.35), el conjunto de soluciones no triviales del problema de contorno
(2.7)–(2.9) viene dado por
n
U` (m, n) = I − r 4 sen2 θ2` A − B
M2
sen(mθ` ) d`
1 ≤ m ≤ M − 1, n > 0
, (2.40)
e (µ, θ` )† G
d` = I − G e (µ, θ` ) S` , S` ∈ Cs ∼ {0}
z 2 − 2z + 1 = (z − 1)2 = 0,
24 2.1 Caso particular
H(m) = 1m c + m 1m d1 = c + m d1 , c, d1 ∈ Cs , 1 ≤ m ≤ M − 1. (2.41)
Sabı́amos que era necesario que H(0) = 0 para no tener soluciones triviales del problema
de frontera discreto (2.7)–(2.9). Por tanto, de (2.16) para m = 1 y ρ = 0, y de (2.41) para
m = 1, 2, se sigue que c = 0. Por otro lado, de (2.16) para m = M − 1 y ρ = 0, y de (2.41)
para m = M − 2, M − 1, obtenemos H(M ) = M d1 . De esta forma se llega a que
H(m) = m d1 , d 1 ∈ Cs , 1 ≤ m ≤ M. (2.42)
r n
C I + 2 B M d1
M h r n r n i
+ MD I+ B M d 1 − I + B (M − 1) d 1 = 0, n > 0,
M2 M2
o equivalentemente
r n
(C + D) I + 2 B d1 = 0, d1 ∈ Cs , n > 0. (2.44)
M
Por el teorema de Cayley-Hamilton, véase el teorema 1.7, si t es el grado del polinomio
minimal de B entonces para n ≥ t, las potencias B n pueden ser expresadas en términos de
las matrices I, B, B 2 , . . . , B t−1 . Como Mr 2 = k 6= 0, para que se cumpla (2.44) es suficiente
considerar:
(C + D)B n d1 = 0, d1 ∈ Cs , 0 ≤ n < t. (2.45)
Como D es invertible, la ecuación (2.45) equivale a
D−1 C + I B n d1 = 0, d1 ∈ Cs ,
0 ≤ n < t. (2.46)
Puesto que d1 ∈ Cs debe ser no nulo, para que se verifique (2.46) es suficiente que se
cumpla:
D−1 C + I singular . (2.47)
La condición (2.47) es equivalente a que µ = 1 ∈ σ −D−1 C . Supongamos que ∃ µ = 1 ∈
donde la matriz G(1) ha sido definida en (2.34). Observamos que utilizando R(1),
e la con-
dición (2.46) es equivalente a :
R(1)
e d1 = 0, d 1 ∈ Cs . (2.49)
y bajo esta condición, por el teorema de Mitra, véase el teorema 1.1, el conjunto solución
de (2.49) viene dado por:
e † R(1)
d1 = I − R(1) e S1 , S1 ∈ Cs ∼ {0}. (2.50)
Por tanto, para µ = 1 obtenemos la solución no trivial del problema de frontera (2.7)–(2.9):
n
U (m, n) = m I + Mr 2 B d1 , 1 ≤ m ≤ M − 1, n > 0
. (2.51)
e † R(1)
d1 = I − R(1) e S1 , S1 ∈ Cs ∼ {0}
(i) Si µ ∈ R, existen valores θ ∈ ]0, π[ tales que la matriz L(θ) definida por (2.26) es
singular. Bajo la hipótesis (2.26)
el problema
(2.7)–(2.9) tiene soluciones no triviales
de la forma (2.12) si rango G e (µ, θ) < s.
2`−1
(ii) Si C es singular, se toma el valor propio µ = 0 entonces θ` = 2M −1 π para 1 ≤
` ≤ M − 1 son soluciones de (2.31). Si rango Ge (0, θ` ) < s entonces {U` (m, n)}M −1
`=1
dadas por (2.40) define M − 1 soluciones no triviales del problema de contorno (2.7)–
(2.9).
2 3
Φ(m, n+1) = Φ(m, n)+kΦt(m, n)+ k2! Φtt(m, n)+ k3! Φttt(m, n)+ O(k 4 )
2 3
Φ(m+1, n) = Φ(m, n)+hΦx(m, n)+ h2! Φxx(m, n)+ h3! Φxxx(m, n)+ O(h4 ) (2.54)
2 3
Φ(m−1, n) = Φ(m, n)−hΦx(m, n)+ h2! Φxx(m, n)− h3! Φxxx(m, n)+ O(h4 )
k k2
Λk,h [φ] = Φt (m, n) + Φtt (m, n) + Φttt (m, n)
2 6
h2
−A Φxx (m, n) + Φxxxx (m, n)
12
−BΦ(m, n) + O(k 3 ) + O(h4 ) . (2.55)
Teniendo en cuenta la expresión de Λ[φ], dada por (2.52), y la expresión (2.55) se sigue que
k h2
Λ[φ] − Λk,h [φ] = − Φtt (m, n) + A Φxxxx (m, n) + O(k 2 + h4 ) . (2.56)
2 12
Tomando normas en (2.56) obtenemos
r 2 r 2 r 2 r2 2r
1 − 2 z = 1 − 2 Re(z) + − 2 Im(z) = 1 + 4 |z|2 − 2 Re(z) . (2.63)
M M M M M
Por (2.62), (2.63) la matriz dada en (2.60) es convergente si
r 2 Re(z)
para todo z ∈ σ −B + α2 A .
Re(z) > 0 y 2
< 2
(2.64)
M |z|
A = A1 + i A 2 , B = B1 + i B2 ,
B + BH B − BH A + AH A − AH
B1 = ; B2 = ; A1 = ; A2 = , (2.65)
2 2i 2 2i
entonces
−B + α2 A = −B1 + α2 A1 + i −B2 + α2 A2 .
(2.66)
28 2.1 Caso particular
para todo z ∈ σ −B + α2 A ,
Re(z) > 0 (2.71)
es decir, imponiendo condición (2.70), tenemos garantizada una de las condiciones suficien-
tes para la convergencia de la matriz (2.60). Bajo la condición (2.70), se obtiene
2 mı́n Re(z) : z ∈ σ −B + α2 A
2 Re(z)
mı́n = . (2.72)
z∈σ(−B+α2 A) |z|2 máx {|z|2 : z ∈ σ (−B + α2 A)}
Por (2.71) y (2.72) la condición (2.64) se satisface si
2 mı́n Re(z) : z ∈ σ −B + α2 A
r
< . (2.73)
M2 máx {|z|2 : z ∈ σ (−B + α2 A)}
Puesto que Ak y Bk , k = 1, 2, son matrices hermı́ticas, por el teorema de Gershgorin, véase
el teorema 1.5, si denotamos σ(Ak ) = {λj (Ak ); 1 ≤ j ≤ s}, k = 1, 2, y
se sigue que
s
[
2
σ −Bk + α Ak ⊂ Gj (k) , 1 ≤ k ≤ 2. (2.74)
j=1
Por tanto
se obtiene
2 2
|z|2 ≤ 4M 2 λmáx (A1 ) + ρ(B1 ) + 4M 2 λmáx (A2 ) + ρ(B2 )
. (2.78)
z ∈ σ −B + α2 A
Por (2.64), (2.69), (2.73) y (2.78) se concluye que la matriz dada en (2.60) es convergente
si h i
M 2 4M 2 sen2 θ2` λmı́n (A1 ) − λmáx (B1 )
r< . (2.79)
[4M 2 λmáx (A1 ) + ρ(B1 )]2 + [4M 2 λmáx (A2 ) + ρ(B2 )]2
B+B H
TEOREMA 2.2 Sea r > 0 y A, B matrices en Cs×s tales que si B1 = 2 , A1 =
A+AH H A−AH
2 , B2 = B−B
2i , A2 = 2i se cumple
Ahora estudiaremos cuándo la expresión matricial dada por (2.59) es convergente, es decir
qué condiciones se han de verificar para que
r
ρ I + 2B < 1 . (2.81)
M
En efecto,
r 2 r r 2
1 + 2 z = 1 + 2 Re(z) + i 2 Im(z)
M M M
r 2 r 2
= 1 + 2 Re(z) + Im(z)
M M2
r 2 2r
= 1 + 4 [Re(z)]2 + [Im(z)]2 + 2 Re(z)
M M
r2 2r
= 1 + 4 |z|2 + 2 Re(z)
M M
r2 2r
≤ 1 + 4 (ρ(B))2 + 2 Re(z) , ∀z ∈ σ(B) .
M M
por tanto, para que se cumpla (2.82) será suficiente imponer las condiciones
2M 2 Re(z)
r<− y Re(z) < 0 , ∀z ∈ σ(B) . (2.83)
(ρ(B))2
Resumiendo, hemos obtenido que las soluciones proporcionadas por el teorema 2.1 son
estables, es decir, permanecen acotadas cuando n → ∞, si los vectores {d` } están acotados,
si se verifican las hipótesis del teorema 2.2 y además se satisfacen las condiciones dadas en
(2.83).
n n #
I − r 4 sen2 θ2` A − B
M2
, I+ r
M2
B , cuando k −→ 0,
. (2.84)
i.e., n crece, dependiendo del valor de k, con 0 ≤ n ≤ J
n
n
#
I − r 4 sen2 θ` A − B
y I + r
B
acotadas cuando k −→ 0,
2 M2
M2 ,(2.86)
i.e., n crece, dependiendo del valor de k, con 0 ≤ n ≤ J
ya que
n
n
I − r 4 sen2 θ` A − B
≤
I − r 4 sen2 θ` A − B
≤ (1 + O(k))n
2 M2
2 M2
≤ (1 + O(k))J ≤ eJ O(k) ≤ eJck = eT c = O(1),
r n
r
n n
I + 2 B
≤
I + 2 B
≤ (1 + O(k))
M M
≤ (1 + O(k))J ≤ eJ O(k) ≤ eJsk = eT s = O(1),
Hemos visto que las condiciones que aparecen en (2.85) son suficientes para garantizar que
las potencias dadas en (2.84) estén acotadas cuando n crece, a medida que decrece k, hasta
tomar el valor J donde se alcanza el tiempo T , (T = Jk). Por tanto las soluciones dadas
en el teorema 2.1 son estables en el sentido de estación fija.
ρ
−H(m + 1) + 2H(m) − H(m − 1) = − H(m)
r
H(0) = 0 . (2.87)
CH(M ) + M D [H(M ) − H(M − 1)] = 0
ρ
−H(m + 1) + 2H(m) − H(m − 1) = − H(m) ,
r (2.88)
M
H(0) = 0, H(M ) = H(M − 1) , 1 ≤ m ≤ M − 1
M −µ
32 2.1 Caso particular
donde −4r < ρ ≤ 0, entonces por el apartado 2.1.3, las soluciones del problema (2.88) son
ρ
−h(m + 1) + 2h(m) − h(m − 1) = − h(m) ,
r (2.90)
M
h(0) = 0 ; h(M ) = h(M − 1) , 1 ≤ m ≤ M − 1
M −µ
Por el apartado 1.2, el problema (2.90) puede escribirse como un problema de valores
propios matricial
2 −1 0 0 ··· 0
h(1) h(1)
−1 2 −1 0 ··· 0
h(2)
h(2)
0 −1 2 −1 ··· 0 h(3) ρ h(3)
.. .. . . .. = − .
.. .. .. ..
. . . r
. . .
.
.
0 0 · · · −1 2 −1 h(M −2) h(M −2)
M −2µ
0 0 ··· 0 −1 M −µ h(M −1) h(M −1)
` M −1
El problema (2.90) tiene exactamente M − 1 valores propios reales dados por −ρ
r `=1
,
2 θ` −ρ`
donde ρ` = −4r sen 2 y θ` verifica (2.89). Para cada valor propio r existe una función
propia {h` (m)} = {sen(mθ` )}. Estas funciones propias son ortogonales en
N (1, M − 1) = {k ∈ N : 1 ≤ k ≤ M − 1} ,
M −1 n
θ` B
4 sen2
P
U (m, n) = I −r 2 A− M2
sen (mθ` ) d` ,
`=1
(2.91)
d` e (0, θ` )† G
= I −G e (0, θ` ) S` , S` ∈ Cs ∼ {0}
es una solución del problema (2.7)–(2.9). Imponiendo la condición inicial (2.10) a la solución
(2.91) obtenemos que los vectores d` deben verificar
M
X −1
f (m) = sen (mθ` ) d` , 1 ≤ m ≤ M − 1. (2.92)
`=1
Denotemos por fq (m) la q-ésima componente del vector f (m) ∈ Cs y d`,q la q-ésima com-
ponente del vector d` . De (2.92) se sigue que
M
X −1
fq (m) = sen (mθ` ) d`,q , 1 ≤ m ≤ M − 1. (2.93)
`=1
−1
La expresión (2.93) es una serie de Fourier discreta, y {sen (mθ` )}M `=1 son las funciones
propias del problema de Sturm-Liouville discreto (P.S.L.D.) escalar (2.90). Para determinar
las constantes d`,q , i.e., los coeficientes de Fourier de (2.93), multiplicaremos ambos lados
de (2.93) por sen (mθγ ) para 1 ≤ γ ≤ M − 1, sumaremos el resultado desde m = 1 hasta
m = M − 1 y utilizaremos la ortogonalidad de las funciones propias del P.S.L.D., véase el
apartado 1.2. Es decir:
M −1 M −1 M −1
!
X X X
sen (mθγ ) fq (m) = sen (mθγ ) sen (mθ` ) d`,q
m=1 m=1 `=1
M
X −1
= sen mθγ sen (mθ1 ) d1,q + · · ·
m=1
· · · + sen (mθγ) sen (mθM −1 ) dM −1,q )
M
X −1
= sen2 (mθγ ) dγ,q
m=1
M
X −1
=dγ,q sen2 (mθγ ) , 1 ≤ γ ≤ M − 1,
m=1
34 2.1 Caso particular
y entonces
M −1
P 2`−1
sen m 2M −1 π fq (m)
m=1
d`,q = M −1
2`−1
sen2 m 2M
P
−1 π
m=1
M −1
4 X 2` − 1
= sen m π fq (m) , 1 ≤ q ≤ s ,
2M − 1 2M − 1
m=1
M −1 n
I − r 4 sen2 θ2` A − B
P
U (m, n) = M2
sen (mθ` ) d` ,
`=1
, (2.96)
4 M −1
P 2`−1
d` = sen (νθ` ) f (ν) , θ` = 2M −1 π
2M − 1 ν=1
1 ≤ m ≤ M − 1, n > 0 1 ≤ ` ≤ M − 1
es una solución del problema (2.7)–(2.10). Por la expresión (2.35) la condición (2.95) se
satisface si
CASO 2. µ<0
Sea µ ∈ σ(−D−1 C) y supongamos que rango G(µ, e θ` ) < s donde {θ` }M −1 vienen dadas
`=1
por el teorema 2.1-(iii). Bajo las hipótesis
y
Nuc G(µ) es subespacio invariante por A + w` B , 1 ≤ ` ≤ M − 1. (2.101)
−1
donde {w` }M
`=1 se han definido en (2.35), o equivalentemente
G(µ) (A + w` B) I − G(µ)† G(µ) = 0 , 1 ≤ ` ≤ M − 1, (2.102)
−1
M n
θ` B
4 sen2
P
U (m, n) = I −r 2 A− M2
sen (mθ` ) d` ,
`=1
MP−1
sen (νθ` ) f (ν) .
(2.103)
d` = ν=1 ,
M −1
sen2 (νθ` )
P
ν=1
1 ≤ m ≤ M − 1, n > 0, 1 ≤ ` ≤ M − 1
CASO 3. µ=1
Supongamos que rango G e (1, θ` ) < s, 2 ≤ ` ≤ M − 1 y rango R(1)
e < s, entonces por
el teorema 2.1-(iv) la sucesión vectorial
M −1
θ`
n n
A −MB2 r
I − r 4sen2
P
U (m, n)= 2 sen(mθ` )d` + m I + M2 B d1
`=2 , (2.104)
d` ∈ Nuc G(1,
e θ` ) , d1 ∈ Nuc R(1)
e
1 ≤ m ≤ M − 1, n > 0, 2 ≤ ` ≤ M − 1
es una solución del problema de contorno (2.7)–(2.9). Imponiendo la condición inicial (2.10)
−1
a la solución (2.104) obtenemos que los vectores {d` }M
`=1 deben verificar
M
X −1
f (m) = sen (mθ` ) d` + md1 , 1 ≤ m ≤ M − 1. (2.105)
`=2
Denotemos por fq (m) la q-ésima componente del vector f (m) ∈ Cs y d`,q la q-ésima com-
−1
ponente del vector {d` }M
`=1 . De (2.105) se sigue que
36 2.1 Caso particular
M
X −1
fq (m) = sen (mθ` ) d`,q + md1,q , 1 ≤ m ≤ M − 1. (2.106)
`=2
−1
Para poder identificar los coeficientes {d` }M
`=1 necesitamos tener la ortogonalidad de las
funciones propias
−1
h` (m) = {sen(mθ` )}M
`=2 , (2.107)
y
h1 (m) = m , (2.108)
las cuales son las soluciones de los problemas de Sturm-Liouville (2.90) para los valores
n ρ oM −1 n oM −1
`
propios − = 4 sen2 θ2` y 0 respectivamente. Observemos que los M − 1
r `=2 `=2
valores propios son distintos entre sı́.
Por la teorı́a de Sturm-Liouville, véase el apartado 1.2, sabemos que las funciones propias
dadas en (2.107) son ortogonales en N (1, M − 1) respecto a la función peso 1, por tanto
para garantizar que el conjunto de las funciones propias:
m, para ` = 1
h` (m) =
sen(mθ` ) , para 2 ≤ ` ≤ M − 1
ρ
m sen (mθ` ) = −m [sen ((m + 1)θ` ) + sen ((m − 1)θ` ) − 2 sen (mθ` )] .
r
1≤m≤M −1
M −1 M −1 M −1 M −1
!
X X X X
sen (mθγ ) fq (m) = sen (mθγ ) sen (mθ` ) d`,q +d1,q m sen (mθγ )
m=1 m=1 `=2 m=1
M
X −1
= dγ,q sen2 (mθγ ) , 1 ≤ γ ≤ M − 1,
m=1
es decir
MP−1
sen (mθ` ) fq (m)
m=1
d`,q = M −1
, 1 ≤ q ≤ s,
sen2 (mθ` )
P
m=1
Por tanto
M −1
1 X
d1,q = m fq (m) 1 ≤ q ≤ s,
M3 M2 M
3 − 2 + 6 m=1
(2.89) y h(M ) = MM−µ h(M −1) siendo h(m) = sen(mθ` ) son la misma, se garantiza que en
π
el primer subintervalo, ]0, M [, también hay solución para la ecuación (2.89) y por tanto
existen M − 1 soluciones para el problema de contorno (2.7)–(2.9). Por superposición de
las M −1 soluciones y bajo las hipótesis
rango G(µ,
e θ` ) < s ,
f (m) ∈ Nuc G(µ) , 1 ≤ ` ≤ M − 1 , 1 ≤ m ≤ M − 1,
†
G(µ)(A + w` B) I − G(µ) G(µ) = 0
−1
M n
θ` B
4 sen2
P
U (m, n) = I −r 2 A− M2
sen (mθ` ) d` ,
`=1
MP−1
sen (νθ` ) f (ν) .
d` = ν=1 ,
M −1
sen2 (νθ` )
P
ν=1
1 ≤ m ≤ M − 1, n > 0, 1 ≤ ` ≤ M − 1
Notemos que las condiciones que se han exigido para la existencia de solución del problema
mixto (2.7)–(2.10) son las mismas que para el caso µ < 0, al igual que sucede con la solución
construida.
Capı́tulo 2. Sistemas parabólicos 39
Observación 2.2 A la vista de los resultados obtenidos para cualquier valor propio real,
µ, de la matriz −D−1 C, podemos establecer una cota más concreta del parámetro r que la
dada en (2.79). Utilizando que sen θ es creciente en 0, π2 concluimos que
2 2 θ` 2 2 θ1
4M sen λmı́n (A1 ) − λmáx (B1 ) ≥ 4M sen λmı́n (A1 ) − λmáx (B1 )
2 2
(si µ 6= 1)
2 2 θ` 2 2 θ2
4M sen λmı́n (A1 ) − λmáx (B1 ) ≥ 4M sen λmı́n (A1 ) − λmáx (B1 )
2 2
(si µ = 1)
Por tanto obtenemos las siguientes cotas de r:
• Si µ 6= 1 h i
M 2 4M 2 sen2 θ21 λmı́n (A1 ) − λmáx (B1 )
r< . (2.117)
[4M 2 λmáx (A1 ) + ρ(B1 )]2 + [4M 2 λmáx (A2 ) + ρ(B2 )]2
• Si µ = 1 h i
M 2 4M 2 sen2 θ22 λmı́n (A1 ) − λmáx (B1 )
r< . (2.118)
[4M 2 λmáx (A1 ) + ρ(B1 )]2 + [4M 2 λmáx (A2 ) + ρ(B2 )]2
Como los polinomios x − µj son mútuamente coprimos (primos 2 a 2), por el teorema de
descomposición, véase el teorema 1.9, si L(x) es el polinomio
entonces
Entonces por el teorema de Bezout, véase el teorema 1.8, tomando los escalares αj de la
forma
−1
q
Y
αj = (µj − µk ) , 1≤j≤q,
k=1,k6=j
obtenemos
q
X
1 = Q(x) = αj Qj (x) . (2.124)
j=1
Considerando el polinomio
I = Q −D−1 C
Xq
αj Qj −D−1 C
=
j=1
q
X
q−1
= (−1) αj G(µ1 )G(µ2 ) · · · G(µj−1 )G(µj+1 ) · · · G(µq )
j=1
Xq
= (−1)q−1 αj T (µj ) . (2.126)
j=1
q
X q
X
fbj (m) = (−1)q−1 αj T (µj )f (m)
j=1 j=1
q
X
= (−1)q−1 αj T (µj ) f (m) (2.128)
j=1
o equivalentemente
si µj ∈ R ∼ {1}:
M −1
P (j)
sen νθ` f (ν)
(j) ν=1
d` = (−1)q−1 αj T (µj ) M −1 , 1 ≤ ` ≤ M − 1, (2.133)
(j)
sen2 νθ`
P
ν=1
o si µj = 1
M −1
P (j)
sen νθ` f (ν)
(j)
ν=1
(−1)q−1 αj ≤ ≤ −
d` = T (µj ) M −1 , 2 ` M 1
(j)
sen2 νθ`
P
ν=1
(2.134)
M −1
d1 = (−1)q−1 αj T (1) M 3
(j) 1 P
νf (ν)
2
− M2 + M
3 6 ν=1
donde el superı́ndice (j) denota que se está trabajando con el valor propio µj . Si denotamos
M −1
P (j)
sen νθ` f (ν)
(j) ν=1
d` (f (ν)) = M −1 ,
(j)
sen2
P
νθ`
ν=1
M −1
(j) 1 X
d1 (f (ν)) = νf (ν),
M3 M2 M
3 − 2 + 6 ν=1
n o
entonces los coeficientes de Fourier que involucran a fbj (m) dados por (2.133) y (2.134)
pueden escribirse en función de {f (m)} por medio de la expresión
si µj ∈ R ∼ {1}:
(j) (j)
d` = (−1)q−1 αj T (µj ) d` (f (ν)) , 1 ≤ ` ≤ M − 1, (2.135)
o si µj = 1:
(j) (j)
d` = (−1)q−1 αj T (1)d` (f (ν)) , 2 ≤ ` ≤ M − 1
. (2.136)
(j) (j)
(−1)q−1 αj T (1)d1 (f (ν))
d1 =
TEOREMA 2.4 Con la notación del teorema 2.3, sean µ1 , . . . , µq valores propios reales
y distintos de la matriz −D−1 C. Sean G(µj ), L(x) y T (µj )matrices
en C
s×s definidas por
G(1)
G(µj )
(j)
G(µj ) A + w` B
G(1)B
e µj , θ(j)
R(1)
e =
.. ,
G ` = .. ,
.
.
p(j) −1
G(1)B t−1
(j) `
G(µj ) A + w` B
(j) (j)
donde t y p` es el grado del polinomio minimal de las matrices B y An + w` oB, respec-
tivamente. Supongamos que {f (m)} es acotado y verifica (2.130) (i.e. fbj (m) verifican
(2.131)), y que las condiciones dadas en (2.80) se satisfacen.
(j) 1
(i) Si µj ∈ R ∼ {1}, definimos w` = − (j) , 1 ≤ ` ≤ M − 1, donde
θ
4M 2 sen2 `2
(j) 2` − 1 (j)
i h
θ` = π si µj = 0, y θ` ∈ (`−1)π
M , `π
M , 1 ≤ ` ≤ M −1, son las soluciones
2M − 1
de la ecuación
cos θ`(j) − 1 − µMj
(j)
cot M θ` = ,1 ≤ ` ≤ M − 1.
(j)
sen θ`
En este caso, supongamos que rango G e µj , θ(j) < s, 1 ≤ ` ≤ M−1, que las matrices
`
(j)
A + w` B verifican
(j)
G(µj ) A + w` I − G (µj )† G (µj ) = 0 , 1 ≤ ` ≤ M − 1.
(j)
G(1) A + w` B I − G(1)† G(1) = 0 ,
2 ≤ ` ≤ M − 1,
es una solución convergente (por ser consistente y estable) a la solución del problema mixto
continuo (2.1)–(2.4), donde
si µj ∈ R ∼ {1}:
M −1
" (j)
! !#n
X
2 θ` B
(j)
(j)
Uj (m, n) = I − r 4 sen A− 2 sen m θ` d` ,
2 M
`=1
(j) M −1
n o
siendo d` los vectores definidos en (2.135);
`=1
o si µj = 1:
M −1 (j)
! !!n
θ` B r n
(j) (j) (j)
X
Uj (m, n)= I − r 4sen2 A− 2 sen mθ` d` + m I 2 B d1
2 M M
`=2
(j) M −1
n o
(j)
siendo d` y d1 los vectores definidos en (2.136).
`=2
2.1.7. Ejemplos
A continuación presentamos dos ejemplos para ilustrar el funcionamiento del método y un
tercero, a modo de problema test, para comparar la solución teórica exacta con la solución
numérica construida.
Tenemos
1 0 0
−D−1 C = −1 21 1 ,
−2 0 0
por tanto σ(−D−1 C) = 0, 12 , 1 . Denotamos µ1 = 0, µ2 = 12 , µ3 = 1.
(b)
rango R(1)
e < 3;
e 1, θ(3)
rango G < 3, 2 ≤ ` ≤ M − 1 .
`
(j)
11 13 (j) w` 25 3
2 − 6 w` − 6 − 2 2
(j) (j) (j)
,1 ≤ j ≤ 3 .
A + w` B =
w` − 9 79 − w` −9
(j) (j)
w` w` (j)
3 −3 3 + 25 1 − 2w`
(j) (j)
El polinomio minimal de las matrices A+w` B , ∀w` , 1 ≤ j ≤ 3, coincide con su polinomio
(j)
caracterı́stico, por tanto, p` = 3, ∀j tal que 1 ≤ j ≤ 3. Por otro lado tenemos que el
polinomio minimal de B es de grado 2, es decir, t = 2. Por tanto tendremos que estudiar
el rango de las siguientes matrices:
G(µj )
G(µ ) A + w(j) B
e µj , θ(j)
G =
j ` , 1 ≤ j ≤ 3,
`
2
(j)
G(µj ) A + w` B
y
G(1)
R(1)
e = .
G(1)B
1
Se comprueba que los valores propios µ1 = 0 y µ = 2 no verifican la condición (a).
46 2.1 Caso particular
Para µ3 = 1 tenemos:
0 0 0
G(1) = D−1 C + I = 1 1
2 −1
,
2 0 1
0 0 0
1
1 2 −1
2 0 1
0 0 0
G(1,
e θ` ) = 2 (2 − w` ) 2 − w` 2w` − 4 ,
8 − 4w` 0 4 − 2w`
0 0 0
4 w2 − 4w` + 4 2 w2 − 4w` + 4 −4 w2 − 4w` + 4
` ` `
8 w`2 − 4w` + 4 4 w`2 − 4w` + 4
0
0 0 0
1
1 2 −1
2 0 1
R(1) = .
e
0 0 0
−2 −1
2
−4 0 −2
e (1, θ` ) = 2 < 3, ∀w` , 2 ≤ ` ≤ M − 1 y rango R(1)
Por tanto, rango G e = 2 < 3. Además
12 14
0 41 41
† 10 2
0
G(1) = 41 − 41 ,
0 − 24
41
13
41
y
G(1)B I − G(1)† G(1) = 0 .
Para que el vector {f (m)} ∈ Nuc G(1) debemos exigir
f1 (m)
f (m) = −6f1 (m) ,
−2f1 (m)
y por el teorema 2.3-(ii) la solución numérica del problema viene dada por
M −1 n
X
2 θ` B r n
U (m, n)= I − r 4sen A− 2 sen(mθ` )d` + m I + 2 B d1
2 M M
`=2
donde
MP−1
sen (νθ` ) f (ν)
ν=1
d` = M −1
, 2 ≤ ` ≤ M − 1.
sen2 (νθ
P
`)
ν=1
i h
(`−1)π `π
con θ` ∈ M ,M , 2 ≤ ` ≤ M − 1 , la solución de
1
cos (θ` ) − 1 − M
cot (M θ` ) = ,
sen (θ` )
y
M −1
1 X
d1 = νf (ν)
M3 M2 M
3 − 2 + 6 ν=1
− 13 5 1
6 12 6
5 1
B1 =
12 −1 6
; σ(B1 ) = {−2, −0,8287, −2,3379} ,
1 1
6 6 −2
y además
7
σ(B) = −2, − ,
6
es decir, se verifican las condiciones dadas en (2.80) y (2.83). Entonces tomando {f (m)}
acotado y r satisfaciendo simultáneamente las condiciones (2.83) y (2.118) se garantiza la
estabilidad de la solución construida.
48 2.1 Caso particular
− 21
0 0
2 0 0 −2 0 0
1
A = 1 1 0 , B = −1 −1 −2
0 , C = 0 0
,
0 0 2 0 0 −5
1
2 0 3
1 0 0
D = 2 −1 0 , F (mh) = f (m) = (f1 (m), f2 (m), f3 (m))T ∈ C3 ,
−1 0 3
1
h= M , 1 ≤ m ≤ M − 1.
−1 1 1
σ(−D C) = −1, 0, , µ1 = 0, µ2 = , µ3 = −1 ,
2 2
− 21
0 0 0 0 0
1 1 1
−2 0 0
G (µ1 ) = −2 2 0
; G (µ2 ) =
.
3
0 0 1 0 0 2
G(µj )
G(µ ) A + w(j) B
e µj , θ(j)
G =
j ` ,1 ≤ j ≤ 2 , 1 ≤ ` ≤ M −1 .
`
2
(j)
G(µj ) A + w` B
Capı́tulo 2. Sistemas parabólicos 49
Para µ1 = 0 se tiene
− 12
0 0
− 12 0 0
0 0 1
(1)
w` − 1
0 0
(1)
(1) w` − 1 0 0
G
e µ1 , θ = , 1≤`≤M −1.
`
(1)
0 0 2 − 5w`
−2(w(1) − 1)2
` 0 0
(1)
−2(w` − 1)2 0 0
(1)
0 0 (5w` − 2)2
e µ1 , θ(1) = 2 < 3 para cualquier w(1) con 1 ≤ ` ≤ M −1.
Por tanto, rango G ` `
Además
−1 −1 0
G(µ1 )† = 0 0 0 ,
0 0 1
(1)
y Nuc G(µ1 ) es un subespacio invariante por la matriz A + w` B , para 1 ≤ ` ≤ M − 1 ,
porque
(1)
G(µ1 ) A + w` B I − G(µ1 )† G(µ1 ) = 0 .
1
Para µ2 = 2 se tiene
50 2.1 Caso particular
0 0 0
− 21 1
2 0
3
0 0 2
0 0 0
(2) (2)
1−w` 1−w`
− 2 2 0
e µ2 , θ(2) =
G , 1≤`≤M −1.
`
(2)
3 2−5w`
0 0 2
0 0 0
2 2
(2) (2)
w` −1 w` −1
− 0
2 2
(2) 2
3 5w` −2
0 0 2
Para este valor propio obtenemos
0 −1 0
G(µ2 )† = 0 1 0 ,
0 0 23
(2)
y que Nuc G(µ2 ) es un subespacio invariante por A + w` B , 1 ≤ ` ≤ M − 1 , porque
(2)
G(µ2 ) A + w` B I − G(µ2 )† G(µ2 ) = 0 .
y por el teorema 2.4 la solución numérica del problema viene dada por
2
X
U (m, n) = Uj (m, n) ,
j=1
donde
M −1 h in
2`−1 B 2`−1 (1)
I −r 4A sen2 2(2M
P
U1(m, n) = −1) π − M2
sen m 2M −1 π d`
`=1
1 ≤ m ≤ M −1 , n > 0,
0 0 0
M −1
(1) 8 1
− 1
X 2` − 1
d` = 2 2 0 sen ν π f (ν) ,
2M − 1
ν=1 2M − 1
3
0 0 2
1 ≤ ` ≤ M − 1,
M −1
(2) n
P 2 θ` B (2) (2)
U2 (m, n) = I − r 4 A sen 2 − M2
sen mθ` d` ,
`=1
1 ≤ m ≤ M − 1, n > 0,
i h
(2) (`−1)π `π
con θ` ∈ M ,M , 1 ≤ ` ≤ M − 1 , la solución de
(2) µ2
cos θ` − 1− M
(2)
cot M θ` = ,
(2)
sen θ`
y
MP−1
(2)
sen νθ` f (ν)
1 0 0
(2) ν=1
d` = 1 0
0
M −1 , 1≤`≤M −1.
0 0 −2 (2)
sen2 νθ
P
`
ν=1
−2 − 21
0
1 2174 781
−2
B1 = −1 0
; σ(B1 ) = −
985
,−
985
, −5 ,
0 0 −5
y tomando {f (m)} acotado y r satisfaciendo (2.117) se garantiza la estabilidad de la solu-
ción construida.
Tenemos:
1 0 0
−D−1 C = 0 1 0 ,
0 0 1
por tanto σ(−D−1 C) = {1}. Denotamos µ = 1. Estamos en el caso del teorema 2.3-(ii).
Veamos que se cumplen las siguientes condiciones:
(a)
rango G
e (1, θ` ) < 3, 2 ≤ ` ≤ M − 1;
rango R(1)
e < 3;
(b)
G(1) (A + w` B) I − G(1)† G(1) = 0,
2 ≤ ` ≤ M − 1;
2 − w` 0 0
A + w` B =
0 1 − w` 1 , 2 ≤ ` ≤ M − 1 .
0 0 1 − w`
G(1)
, 2 ≤ ` ≤ M −1 ,
G(1) (A + w` B)
G (1, θ` ) =
e
G(1) (A + w` B)2
y
0 0 0
R(1)
e = G(1) = D−1 C + I = 0 0 0 .
0 0 0
Obtenemos que rango G e (1, θ` ) = rango R(1)
e = 0 < 3. Además puesto que G(1) es la
matriz nula, se verifican las condiciones de (b). Notemos que el vector de la condición inicial
f (m) = (mh, mh, mh)T está acotado y pertenece al Nuc G(1). Por tanto, por el teorema
2.3-(ii) la solución numérica del problema viene dada por
M −1 n
X
2 θ` B r n
U (m, n)= I − r 4sen A− 2 sen(mθ` )d` + m I + 2 B d1
2 M M
`=2
1 ≤ m ≤ M − 1, n > 0
donde
MP−1
sen (νθ` ) f (ν)
ν=1
d` = M −1
, 2 ≤ ` ≤ M − 1,
sen2 (νθ` )
P
ν=1
i h
(`−1)π `π
siendo θ` ∈ M ,M , 2 ≤ ` ≤ M − 1 , la solución de
1
cos (θ` ) − 1 − M
cot (M θ` ) = , (2.139)
sen (θ` )
54 2.1 Caso particular
y
M −1
1 X
d1 = νf (ν) .
M3 M2 M
3 − 2 + 6 ν=1
Notemos que
2 0 0
1 ; σ(A1 ) = 2, 1 , 3 ,
0 1
A1 = 2 2 2
0 21 1
−1 0 0
B1 =
0 −1 ; σ(B1 ) = {−1} ; σ(B) = {−1} .
0
0 0 −1
Para que la solución numérica construida sea estable se han de verificar simultáneamente
las siguientes condiciones sobre el parámetro r > 0:
h i
M 2 −λmáx (B1 ) + 4M 2 sen2 θ22 λmı́n (A1 )
r< , (2.140)
[4M 2 λmáx (A1 ) + ρ(B1 )]2 + [4M 2 λmáx (A2 ) + ρ(B2 )]2
π 2π
donde θ2 es la única solución de la ecuación (2.139) en M, M , que es el segundo subin-
tervalo de ]0, π[, y
2M 2 Re(z)
r<− , ∀z ∈ σ(B) . (2.141)
(ρ(B))2
Para poder comparar numéricamente la solución construida con la solución teórica exacta,
tomaremos distintos valores de M .
Caso 1. M = 10
θ2
π 2π
Para la elección de r en (2.140) necesitamos averiguar el valor de sen2
2 , θ2 ∈ M , M .
M −1
Sabemos que − ρr` `=2 = 4 sen2 θ2` son los valores propios del problema escalar de
Sturm-Liouville (2.90) para µ = 1, i.e., son los valores propios de la matriz tridiagonal
e (M − 1 × M − 1), de la forma:
A,
Capı́tulo 2. Sistemas parabólicos 55
2 −1 0 0 ··· 0
−1 2 −1 0 ··· 0
0 −1 2 −1 ··· 0
A
e = .. .. . . .. , (9 × 9),
.. ..
. . .
. . .
0 0 · · · −1 2 −1
M −2µ
0 0 ··· 0 −1 M −µ
que se pueden
calcular de forma eficiente con elpaquete informático
Matlab.
Por otro
θ` θ`
lado, sen 2 es creciente en ]0, π[ =⇒ sen 2 ≥ sen 2 > sen θ21 , ∀` tal que
2 2 2 θ2 2
2 ≤ ` ≤ M − 1 =⇒ 4 sen2 θ22 es el segundo valor propio más pequeño de la matriz A, e es
decir,
2 θ2
4 sen = 0,2199803986793. (2.142)
2
Sustituyendo (2.142) en la expresión (2.140) y teniendo en cuenta (2.141) se obtiene que r
debe satisfacer simultáneamente las condiciones:
B − BH
B2 = = 0; σ(B2 ) = {0} .
2i
Tomemos r = 0,0017. Por tanto, el paso temporal k será k = 0,000017. Para calcular
−1
numéricamente la solución U (m, n) necesitamos conocer los valores de {θ` }M `=2 , ya que
−1
en U (m, n) nos aparece el término sen (mθ` ). Por teorı́a sabemos que la sucesión {θ` }M`=2
verifica la ecuación
2r + ρ`
cos (θ` ) = , 2 ≤ ` ≤ M − 1,
2r
de donde obtenemos que
ρ
1 `
θ` = arc cos − −2 + − , 2≤`≤M −1, (2.143)
2 r
M −1
siendo − ρr` `=2 los valores propios de la matriz A.
e Se comprueba fácilmente que los θ`
obtenidos utilizando la ecuación (2.143) son las soluciones de la ecuación (2.139). Notar
−1
que se ha utilizado este procedimiento alternativo para el cálculo de los valores de {θ` }M
`=2
porque calcular directamente las M − 2 soluciones de la ecuación (2.139) es difı́cil.
56 2.1 Caso particular
A continuación mostramos algunos de los valores numéricos que la solución vectorial U (m, n)
y la solución exacta u(x, t) (evaluada en u(mh, nk)), toman en algunos puntos del mallado
cuando t = 1 segundo:
1
• Valor de la solución en el nodo x1 = 10 para t = 1 segundo:
0,03678733711496 0,03678794411714
1
U (1, 58824) = 0,03678733711496 , u , 1 = 0,03678794411714 ,
10
0,03678733711496 0,03678794411714
4
• Valor de la solución en el nodo x4 = 10 para t = 1 segundo:
0,14714934845983 0,14715177646858
2
U (4, 58824) = 0,14714934845983 , u , 1 = 0,14715177646858 ,
5
0,14714934845983 0,14715177646858
6
• Valor de la solución en el nodo x6 = 10 para t = 1 segundo:
0,22072402268975 0,2207276647028654
3
U (6, 58824) = 0,22072402268975 , u , 1 = 0,2207276647028654 ,
5
0,22072402268975 0,2207276647028654
9
• Valor de la solución en el nodo x9 = 10 para t = 1 segundo:
0,33108603403462 0,3310914970542981
9
U (9, 58824) = 0,33108603403462 , u , 1 = 0,3310914970542981 .
10
0,33108603403462 0,3310914970542981
Los errores globales para cada uno de los nodos considerados anteriormente son:
U (1, 58824) − u 1 , 1
= 0,06070021862092·10−5 ,
10
∞
U (4, 58824) − u 2 , 1
= 0,24280087448370·10−5 ,
5
∞
U (6, 58824) − u 3 , 1
= 0,36420131172832·10−5 ,
5
∞
U (9, 58824) − u 9 , 1
= 0,54630196759109·10−5 ;
10
∞
Capı́tulo 2. Sistemas parabólicos 57
y para la norma 2
U (1, 58824) − u 1 , 1
= 0,10513586268198·10−5 ,
10
2
U (4, 58824) − u 2 , 1
= 0,42054345072791·10−5 ,
5
2
U (6, 58824) − u 3 , 1
= 0,63081517609668·10−5 ,
5
2
U (9, 58824) − u 9 , 1
= 0,94622276414261·10−5 .
10
2
m
Considerando los errores globales en todos los nodos, i.e., en xm = 10 , 1 ≤ m ≤ 9, podemos
decir que:
m
U (m, 58824) − u , 1
≤ 0,54630196759109·10−5 , 1 ≤ m ≤ 9;
10 ∞
m
U (m, 58824) − u , 1
≤ 0,94622276414261·10−5 , 1 ≤ m ≤ 9,
10 2
Caso 2. M = 20
Para calcular numéricamente la solución vectorial U (m, n) de este caso, necesitaremos cono-
cer los 19 valores propios de la matriz tridiagonal Ã, pues ahora será de dimensión 19 × 19;
averiguar los valores de {θ` }19
`=2 , definidos en (2.143); y elegir un nuevo valor para el paráme-
tro r, ya que éste depende de M y de θ2 (solución de la ecuación (2.139)).
ρ2
Para este caso se tiene que − r = 4 sen θ22 = 0,05288712479686 y que el parámetro r
2
Tomaremos r = 7,2·10−4 . Por tanto, el paso temporal k será k = rh2 = 1,8·10−6 . Notar
que al disminuir el valor de k se necesitará un mayor número de iteraciones, n, para llegar
al mismo momento temporal t = 1.
Se muestra a continuación algunos de los valores obtenidos para este caso.
Para t = 1 los valores de U (m, n) y u(x, t) respectivamente, para algunos nodos del mallado,
son:
0,01839394078811 0,0183939720585721
1
U (1, 555556) = 0,01839394078811 , u , 1 = 0,0183939720585721 ,
20
0,01839394078811 0,0183939720585721
58 2.1 Caso particular
0,11036364472864 0,1103638323514327
3
U (6, 555556) = 0,11036364472864 , u , 1 = 0,1103638323514327 ,
10
0,11036364472864 0,1103638323514327
0,16554546709296 0,1655457485271491
9
U (9, 555556) = 0,16554546709296 , u , 1 = 0,1655457485271491 ,
20
0,16554546709296 0,1655457485271491
0,27590911182161 0,2759095808785818
3
U (15, 555556) = 0,27590911182161 , u , 1 = 0,2759095808785818 ,
4
0,27590911182161 0,2759095808785818
0,34948487497404 0,3494854691128702
19
U (19, 555556) = 0,34948487497404 , u , 1 = 0,3494854691128702 .
20
0,34948487497404 0,3494854691128702
U (19, 555556) − u 19 , 1
= 0,10290786492919·10−5 .
20
2
m
Considerando los errores globales en todos los nodos, i.e., en xm = 20 , 1 ≤ m ≤ 19, podemos
decir que:
m
U (m, 555556) − u , 1
≤ 0,59413883518600·10−6 , 1 ≤ m ≤ 19 ;
20 ∞
m
U (m, 555556) − u , 1
≤ 0,10290786492919·10−5 , 1 ≤ m ≤ 19 ,
20 2
i.e., la precisión obtenida para la norma infinito es de 5 dı́gitos.
Observamos numéricamente, que a medida que hacemos el mallado más fino, i.e. aumenta-
mos el valor de M , conseguimos mayor precisión.
Caso 3. M = 40
Para calcular numéricamente la solución vectorial U (m, n) de este caso, necesitaremos cono-
cer los 39 valores propios de la matriz tridiagonal Ã, pues ahora será de dimensión 39 × 39;
averiguar los valores de {θ` }39
`=2 , definidos en (2.143); y elegir un nuevo valor para el paráme-
tro r.
Para este caso se tiene que − ρr2 = 4 sen2 θ22 = 0,01292813159293 y que el parámetro r
debe ser simultáneamente
Para t = 1 los valores de U (m, n) y u(x, t), para algunos nodos del mallado, son:
0,00919698258114 0,0091969860292861
1
U (1, 1818182) = 0,00919698258114 , u , 1 = 0,0091969860292861 ,
40
0,00919698258114 0,0091969860292861
0,09196982581135 0,0919698602928606
1
U (10, 1818182) = 0,09196982581135 , u , 1 = 0,0919698602928606 ,
4
0,09196982581135 0,0919698602928606
0,19313663420384 0,1931367066150072
21
U (21, 1818182) = 0,19313663420384 , u , 1 = 0,1931367066150072 ,
40
0,19313663420384 0,1931367066150072
0,25751551227179 0,2575156088200096
7
U (28, 1818182) = 0,25751551227179 , u , 1 = 0,2575156088200096 ,
10
0,25751551227179 0,2575156088200096
60 2.1 Caso particular
0,32189439033973 0,3218945110250120
7
U (35, 1818182) = 0,32189439033973 ,u , 1 = 0,3218945110250120 ,
8
0,32189439033973 0,3218945110250120
0,35868232066427 0,3586824551421563
39
U (39, 1818182) = 0,35868232066427 ,u , 1 = 0,3586824551421563 .
40
0,35868232066427 0,3586824551421563
Los errores globales en t = 1 son:
U (1, 1818182) − u 1
−6
,1
= 0,00344815085339·10 ,
40 ∞
U (10, 1818182) − u 1 , 1
= 0,03448150853735·10−6 ,
4
∞
U (21, 1818182) − u 21 , 1
= 0,07241116792289·10−6 ,
40
∞
U (28, 1818182) − u 7 , 1
= 0,09654822391569·10−6 ,
10
∞
U (35, 1818182) − u 7
−6
= 0,12068527982523·10 ,
,1
8 ∞
U (39, 1818182) − u 39 , 1
= 0,13447788327348·10−6 ;
40
∞
y para la norma 2
U (1, 1818182) − u 1 , 1
= 0,00597237247023·10−6 ,
40
2
U (10, 1818182) − u 1 , 1
= 0,05972372470832·10−6 ,
4
2
U (21, 1818182) − u 21 , 1
= 0,12541982187785·10−6 ,
40
2
U (28, 1818182) − u 7
−6
,1
= 0,16722642920252·10 ,
10 2
U (35, 1818182) − u 7 , 1
= 0,20903303638296·10−6 ,
8
2
U (39, 1818182) − u 39 , 1
= 0,23292252632398·10−6 .
40
2
m
Considerando los errores globales en todos los nodos, i.e., en xm = 40 , 1 ≤ m ≤ 39, podemos
decir que:
m
U (m, 555556) − u , 1
≤ 0,13447788327348·10−6 , 1 ≤ m ≤ 39 ;
40 ∞
Capı́tulo 2. Sistemas parabólicos 61
m
U (m, 555556) − u , 1
≤ 0,23292252632398·10−6 , 1 ≤ m ≤ 39 ,
40 2
i.e., la precisión obtenida es de 5 dı́gitos.
Notemos que la precisión obtenida para M = 40 es mayor o igual que para los casos M = 10
y M = 20. Pero, a cambio de aumentar en exactitud debemos realizar un mayor número
de iteraciones, n, para calcular la solución en el mismo instante de tiempo t = 1. Además
también se ha observado numéricamente que el primer sumando de la solución aproximada:
M −1 n
X
2 θ` B
I − r 4 sen A− 2 sen (mθ` ) d` , (2.144)
2 M
`=2
2.2.1. Introducción
En este capı́tulo trabajaremos con sistemas de ecuaciones en derivadas parciales difusivos
fuertemente acoplados del tipo:
Supondremos que
A1 B1
A= y A1 son matrices invertibles , (2.150)
A2 B2
Citaremos ahora el lema 1.2 puesto que es un resultado algebraico que jugará un papel
importante en posteriores apartados de este capı́tulo y cuya demostración se encuentra en
el apartado 1.2:
Nuc M ∩ Nuc N
h i† h i
† † †
= Im I −M M I − N I −M M N I −M M .
U (m, n + 1) − U (m, n)
ut (mh, nk) ≈
k
, (2.151)
U (m + 1, n) − 2U (m, n) + U (m, n − 1)
uxx (mh, nk) ≈
h2
k 1
r= , h= , (2.152)
h2 M
obtenemos la discretización del sistema de ecuaciones en derivadas parciales (2.146)–(2.149):
Capı́tulo 2. Sistemas parabólicos 63
U (m, n + 1)
, (2.153)
rB
= rA [U (m + 1, n) + U (m − 1, n)] + I + − 2rA U (m, n) M2
1 ≤ m ≤ M − 1, n ≥ 0,
Ya que la ecuación vectorial (2.159) tiene coeficientes escalares, su solución puede escribirse
de la forma
Observación 2.4 Por (2.150) sabemos que A1 no es singular, y puesto que los bloques A2 ,
B1 , B2 pueden ser o no singulares, si en el problema de frontera discreto (2.153)–(2.155) la
matriz Ai (respectivamente Bi ) es invertible, premultiplicando la correspondiente condición
de contorno por A−1i (respectivamente por Bi−1 ) el problema queda simplificado a estudiar
los siguientes 4 casos para las condiciones de contorno:
I B1 A1 I A1 B1 A1 B1
I) , II) , III) , IV) ,
A2 B2 A2 B2 I B2 A2 I
puesto que los otros casos posibles, i.e., cuando 3 ó 4 de los bloques de A son invertibles,
son casos particulares de los cuatro arriba mencionados. Por tanto, suponer que Ai = I
para i = 1, ó 2, o Bi = I para i = 1 ó 2, no involucra pérdida de generalidad. Notemos que
en el caso I), por motivos de simplicidad, la matriz B1 representa en realidad a la nueva
matriz A−1
1 B1 6= I. Con el resto de los casos sucederı́a su correspondiente análogo.
[I − (1 − cos θ) M B1 ] H(m)
= −M B1 cos(mθ) sen θ d + sen(mθ) [I − (1 − cos θ) M B1 ] d
. (2.167)
θ 2m−1
= sen(mθ)I − 2M B1 sen 2 cos 2 θ d
1≤m≤M −1 .
Por el teorema de la aplicación espectral, véase el teorema 1.6, los valores propios de la
matriz I − (1 − cos θ) M B1 son {1 − (1 − cos θ) M w ; w ∈ σ(B1 )} y la parte real de esos
valores propios son
1 − (1 − cos θ) M w1 ; w = w1 + i w2 ∈ σ(B1 ) .
mı́n {Re(w) : w ∈ σ(B1 )} , si ∃w ∈ σ(B1 ), Re(w) > 0
γ(B1 ) = (2.169)
(1 − cos θ)−1 , si Re(w) ≤ 0 ∀w ∈ σ(B1 )
obtenemos que
Imponiendo a U (m, n), dada por (2.157), la condición de contorno (2.155) para n ≥ 0 y
haciendo uso de (2.160), (2.171) y (2.176) obtenemos
θ 2M − 1
−2M sen cos θ A2 (I + ρ(A + wB))n B1
2 2
θ 2M − 1
+2M sen cos θ B2 (I + ρ(A + wB))n
2 2
2 2 θ n
+ 4M sen sen((M − 1)θ)B2 (I + ρ(A + wB)) B1 d = 0 , n ≥ 0. (2.177)
2
Sustituyendo (2.175) en (2.177) para n > 0 y utilizando (2.177) para n = 0, se sigue que
para n ≥ 0
θ 2M − 1
A2 sen(M θ) − 2M sen cos θ A2 B1
2 2
θ 2M − 1
+2M sin cos θ B2
2 2
θ
+4M 2 sen2 sen((M − 1)θ)B2 B1 (I + ρ(A + wB))n d = 0. (2.178)
2
Sea p el grado del polinomio minimal de A + w B, entonces por el teorema de Cayley-
Hamilton, véase el teorema 1.7, para n ≥ p las potencias (A + w B)n se expresan en
términos de I, A + w B, (A + w B)2 , . . . , (A + w B)p−1 . Ya que w 6= 0, las condiciones
(2.175) y (2.178) se cumplen si:
Por las propiedades del complemento de Schur de una matriz, véasen las observaciones 1.6
y 1.7, junto con la hipótesis (2.150) y A1 = I, se sigue que
B2 − A2 B1 es invertible. (2.183)
A2
(B2 − A2 B1 ) + es invertible si M > kA2 k
(B2 − A2 B1 )−1
. (2.184)
M
Por tanto si M satisface la condición (2.184), los valores de θ ∈ ]0, π[ para los cuales la
matriz L(θ) definida por (2.182) es singular deberán verificar que sen((M − 1)θ) 6= 0.
Consecuentemente L(θ) es singular si y sólo si
2 2 θ
A2 + 4M sen B2 B1 +
2
o equivalentemente
sen(M θ) −1 2 θ
2
(B2 − A2 B1 ) A2 + 4M sen (B2 − A2 B1 )−1 B2 B1 +
sen((M − 1)θ) 2
2M sen 2θ cos 2M2−1 θ
I , es singular, 0 < θ < π. (2.186)
sen ((M − 1)θ)
Para simplificar la expresión (2.186) introducimos las matrices
b2 = (A2 B1 − B2 )−1 A2 ,
A b2 = (A2 B1 − B2 )−1 B2 = A
B b2 B1 − I . (2.187)
sen(M θ)
M −1 es un valor propio de la matriz
sen ((M − 1)θ)
. (2.188)
sen(M θ) b2 + 4M 2 sen2 θ
b2 B 2 − B1 ,
A 2 A 1 0<θ<π
sen ((M − 1)θ)
Supongamos que
Existen α ∈ σ A b2 ∩ R ; β ∈ σ(B1 ) ∩ R y v ∈ Cs ∼ {0}
. (2.189)
tales que A b2 − α I v = (B1 − β I) v = 0
sen(M θ) b2 + 4M 2 sen2 θ b2 B 2 − B1 v =
A A 1
sen ((M − 1)θ) 2
sen(M θ) 2 2 θ 2
= α + 4M sen αβ − β v , 0 < θ < π,
sen ((M − 1)θ) 2
o equivalentemente
v es un vector propio de la matriz
sen(M θ) b2 + 4M 2 sen2 θ b2 B 2 − B1
A A 1
sen ((M − 1)θ) 2
. (2.190)
asociado al valor propio real
sen(M θ) θ
α + 4M 2 sen2 αβ 2 − β
sen ((M − 1)θ) 2
M > α,
αβ 2 − β
sen(M θ) M 2 2 θ
= + 4M sen , 0 < θ < π,
sen((M − 1)θ) M −α 2 M −α
o equivalentemente
cot ((M − 1) θ)
M 1 2
θ
= − cot θ + + 2M αβ − β tan , 0 < θ < π. (2.191)
M − α sen θ 2
i h
Para cada entero ` con 1 ≤ ` ≤ M − 1, en el intervalo J` = (`−1)π `π
M −1 M −1 se satisface
,
d M −1
(cot((M − 1)θ)) = − 2
< 0.
dθ sen ((M − 1)θ)
Capı́tulo 2. Sistemas parabólicos 69
β = 0,
ó
αβ = 1 ,
α<1 y ó .
(2.193)
β > 0 y αβ > 1 ,
ó
β < 0 y αβ < 1 .
((M − 1) θ` )
cot
M 1 2
θ`
= − cot θ` + + 2M αβ − β tan
.
M − α sen θ` 2 (2.194)
1 ≤ ` ≤ M − 1, θ` ∈ J`
donde
sen(M θ` ) 2 2 θ`
b2 B 2 − B1 +
S(α, β, θ` ) = A2 + 4M sen
b A 1
sen ((M − 1)θ` ) 2
sen(M θ` ) 2 2 θ` 2
− α + 4M sen αβ − β I ,
sen ((M − 1)θ` ) 2
(2.196)
B1 (A + w` B) − (A + w` B)B1
B1 (A + w` B)2 − (A + w` B)2 B1
..
.
B1 (A + w` B)p` −1 − (A + w` B)p` −1 B1
T (α, β, θ` ) =
S(α, β, θ` ) .
(2.199)
S(α, β, θ` )(A + w` B)
S(α, β, θ` )(A + w` B)2
..
.
S(α, β, θ` )(A + w` B)p` −1
−1
Imponiendo que los vectores {d` }M
`=1 satisfagan las condiciones:
(B1 − βI) d` = A b2 − αI d` = 0 , d` ∈ Cs ∼ {0} , 1 ≤ ` ≤ M − 1 , (2.201)
y
{(A + w` B)n d` ; 1 ≤ n ≤ p` − 1}
⊂ Nuc A2 − αI ∩ Nuc (B1 − βI) , 1 ≤ ` ≤ M − 1 , (2.202)
b
−1
garantizamos que los {d` }M`=1 verifiquen (2.195) y (2.198), es decir, garantizamos que
−1
{d` }M
`=1 sean soluciones no nulas de la ecuación (2.200) para cada θ` ∈ J` , 1 ≤ ` ≤ M − 1,
de la ecuación (2.194).
En efecto,
sen(M θ` )
b2 − αI (A + w` B)n d`
= A
sen ((M − 1)θ` )
θ`
+4M 2 sen2 ·
2
h i
Ab2 B 2 − Ab2 β 2 + Ab2 β 2 − B1 − (αβ 2 − β)I (A + w` B)n d`
1
sen(M θ` )
b2 − αI (A + w` B)n d`
= A
sen ((M − 1)θ` )
h
2 2 θ` b2 (B1 + βI)(B1 − βI)(A + w` B)n d`
+4M sen A
2
i
+β 2 A b2 − αI (A + w` B)n d` − (B1 − βI)(A + w` B)n d` ,
0 ≤ n ≤ p` − 1 .
Para n = 0 obtenemos:
sen(M θ` )
b2 − αI d`
S(α, β, θ` ) d` = A
sen ((M − 1)θ` )
θ`
+4M 2 sen2 ·
2
h i
b2 (B1 + βI)(B1 − βI) + β 2 A
A b2 − αI − (B1 − βI) d` = 0 ,
n
θ` B
U` (m, n) = I − r 4 sin2 A− 2 ·
2 M
θ` 2m − 1
· sen (mθ` ) − 2M β sen cos θ` d` , (2.203)
2 2
para 1 ≤ m ≤ M − 1, n ≥ 0, define soluciones no triviales del problema de contorno
(2.153)–(2.155).
72 2.2 Caso general
(i) Asumimos
i las condiciones
h (2.189) y (2.193). Entonces existen soluciones θ` de (2.194),
(`−1)π `π
θ` ∈ M −1 , M −1 = J` , 1 ≤ ` ≤ M − 1, para las cuales la matriz L(θ` ) definida por
(2.182) es singular.
(ii) Bajo las hipótesis vistas en (i), consideremos d` vectores in Cs verificando (2.201) y
(2.202) para 1 ≤ ` ≤ M − 1, entonces {U` (m, n)} dada por (2.203) define soluciones
no triviales del problema de contorno (2.153)–(2.155).
m → M − m, 0≤m≤M,
U (m, n)
M −1
n
P 2 θ` B
= I − r 4 sen A− 2 ·
`=1 2 M
. (2.204)
βM ρ`
· 1− sen(mθ` ) − βM cos(mθ` ) sen(θ` ) d` ,
2r
θ `
ρ` = −4r sen2 , 1≤`≤M −1
2
Imponiendo a {U (m, n)}, dada por (2.204), la condición (2.156) obtenemos que los vectores
d` que aparecen en (2.204) deben satisfacer
M −1
X βM ρ`
f (m) = 1+ sen(mθ` ) − βM cos(mθ` ) sen(θ` ) d` . (2.205)
2r
`=1
Capı́tulo 2. Sistemas parabólicos 73
M −1
Bajo la hipótesis (2.150), si {H` (m)}`=1 son las soluciones del problema de Sturm-Liouville
discreto:
ρ
−H(m + 1) + 2H(m) − H(m − 1) = − H(m)
r
βM
H(0) = H(1) , (2.206)
βM − 1
M (αβ − 1)
H(M ) = H(M − 1)
α + M (αβ − 1)
ρ
−h(m + 1) + 2h(m) − h(m − 1) = − h(m)
r
βM
h(0) = h(1) , 1 ≤ m ≤ M − 1. (2.207)
βM − 1
M (αβ − 1)
h(M ) = h(M − 1)
α + M (αβ − 1)
donde fq (m) y d`,q denotan la q-ésima componente de los vectores f (m) y d` respectiva-
mente. Por la ortogonalidad de las funciones propias {h` (m)} que aparecen en (2.205) y la
teorı́a de las series de Fourier discretas, véase el apartado 1.2, se sigue que
74 2.2 Caso general
M −1 n o
P βM ρ`
1+ 2r sen(νθ` ) − βM cos(νθ` ) sen(θ` ) fq (ν)
ν=1
d`,q = M −1 n o2 ,
P βM ρ` (2.210)
1+ 2r sen(νθ` ) − βM cos(νθ` ) sen(θ` )
ν=1
1 ≤ ` ≤ M − 1, 1 ≤ q ≤ s,
M −1 n o
P βM ρ`
1+ 2r sen(νθ` ) − βM cos(νθ` ) sen(θ` ) f (ν)
ν=1
d` = M −1 n o2 ,
P βM ρ` (2.211)
1+ 2r sen(νθ` ) − βM cos(νθ` ) sen(θ` )
ν=1
1 ≤ ` ≤ M − 1.
La expresión (2.211) para vectores d` debe ser compatible con las condiciones (2.201) y
(2.202). Esto significa que {f (m)} debe verificar
(B1 − β I) f (m) = A b2 − α I f (m) = 0 , 1 ≤ m ≤ M − 1 , (2.212)
{(A + w` B)n f (m) , 1 ≤ n ≤ p` − 1} ⊂ Nuc Ab2 − α I ∩ Nuc (B1 − β I) , (2.213)
para 1 ≤ m ≤ M − 1, 1 ≤ ` ≤ M − 1.
−1
Si {f (m)}Mm=1 verifica (2.212) y (2.213) entonces {U (m, n)} definida por (2.204), donde
d` están dados en (2.211), es una solución del problema (2.153)–(2.156). Observar que las
condiciones (2.212) y (2.213) se satisfacen si
f (m) ∈ Nuc A b2 − α I ∩ Nuc (B1 − β I) , 1 ≤ m ≤ M − 1 , (2.214)
y
#
Nuc Ab2 − α I ∩ Nuc (B1 − β I) es un subespacio invariante
, (2.215)
por la matriz A + w` B , 1 ≤ ` ≤ M − 1.
I − L(α, β)L(α, β)† (A + w` B) L(α, β) = 0 , 1 ≤ ` ≤ M − 1, (2.217)
donde
h i† h i
L(α, β) = I − Pα† Pα I − Qβ I − Pα† Pα Qβ I − Pα† Pα
(2.218)
b2 − α I ,
Pα = A Qβ = B1 − β I ,
Notemos que la condición (2.217) significa que Im L(α, β) es un subespacio invariante por
la matriz A + w` B, para 1 ≤ ` ≤ M − 1, véase la observación 1.3. La solución {U (m, n)}
del problema mixto discreto (2.153)–(2.156), definida por (2.204), (2.211), es estable, i.e.
permanece acotada cuando n → ∞ si {f (m)} está acotado y las matrices
2 θ` B
I − r 4 A sen − 2 , 1 ≤ ` ≤ M − 1,
2 M
son convergentes, véase el lema 1.1. Por el teorema 2.2 del apartado 2.1 esto ocurre si
A + AH
x>0 para todo x ∈ σ , (2.219)
2
B + BH
y≤0 para todo y ∈ σ , (2.220)
2
H H H H
e1 = A+A , B
y siiA e1 = B+B , A e2 = A−A , B e2 = B−B y θ1 es la única solución de (2.194)
h2 2 2i 2i
π
en 0, M −1 , r debe verificar
" 2 #
2 θ1
e1 − λmax B
M 2M sen λmı́n A e1
2
r<h i2 h i2 . (2.221)
4M 2 λmax A e1 + ρ B e1 + 4M 2 λmax Ae2 + ρ B e2
TEOREMA 2.6 Consideremos el problema mixto (2.153)-(2.156) con las hipótesis (2.189)
y (2.150) con A1 = I. Sea A b2 = (A2 B1 − B2 )−1 A2 y M > 0 un número entero sufi-
cientemente grande de forma que verifique las condiciones (2.168), (2.184) y (2.193). Sea
θ` la solución de (2.194) y w` definido por (2.197) para 1 ≤ ` ≤ M − 1. Supongamos
que {f (m)} satisface la condición (2.216) y las matrices A + w` B verifican (2.217), don-
de L(α, β) está definida por (2.218). Entonces {U (m, n)} definida por (2.204), donde d`
vienen dados por (2.211), es una solución del problema mixto discreto (2.153)–(2.156).
Además, {U (m, n)} es estable si: las matrices A, B satisfacen las condiciones (2.219)–
(2.220), {f (m)} está acotado y r es suficientemente pequeño de manera que se cumple
(2.221), entonces .
76 2.2 Caso general
Ahora estudiaremos condiciones más generales que las consideradas en el teorema 2.6.
Supongamos que
Λ = {α1 , . . . , αt } ⊂ R ∩ σ A
b2 , (2.222)
L (αi , βj ) 6= 0 , 1 ≤ i ≤ t, 1 ≤ j ≤ q, (2.224)
es equivalente a
Nuc A b2 − αi I ∩ Nuc (B1 − βj I) 6= ∅ , 1 ≤ i ≤ t, 1 ≤ j ≤ q. (2.225)
i` , βj` ) ∈
(α Λ × Ω , cumpliendo alguna condición de (2.193)
F= A2 − αi` I v` = (B1 − βi` I) v` = 0 , v` ∈ Cs ∼ {0} ,
b (2.226)
L (αi` , βj` ) 6= 0
Sδ = Im L (αiδ , βjδ ) = Nuc Ab2 − αi I ∩ Nuc (B1 − βj I) ,
δ δ
(2.229)
1≤δ≤p
Im L = S1 ⊕ S2 ⊕ · · · ⊕ Sp . (2.230)
n oM
Sea fbδ (m) la proyección de {f (m)}M
m=0 sobre el subespacio Sδ , definida por
m=0
p
X
fbδ (m) = LL† f (m) = f (m) , 0≤m≤M. (2.232)
δ=1
(δ)
Supongamos que Im L (αiδ , βjδ ) es un subespacio invariante por la matriz A + w` B, i.e.
h i
(δ)
I − L (αiδ , βjδ ) L (αiδ , βjδ )† A + w` B L (αiδ , βjδ ) = 0 ,
−1
(δ) , (2.233)
w` = (δ)
! , 1 ≤ ` ≤ M − 1,
θ `
4M 2 sen2
2
(δ)
véase la observación 1.3, donde θ` es la solución de (2.194) asociada al par (αiδ , βjδ ) en
J` .
Consideramos el problema (Pδ ) definido por (2.153)–(2.155) junto con la condición inicial
y observemos que la solución {Uδ (m, n)} del problema (Pδ ) está definida por (2.204) donde
(δ)
d` viene dados por
( (δ)
! )
M −1 βjδ M ρ`
P (δ) (δ) (δ)
1− sen νθ` − βjδ M cos νθ` sen θ` fbδ (ν)
(δ) ν=1 2r
d` = ,
2 (2.235)
( (δ)
! )
M −1 βjδ M ρ`
P (δ) (δ) (δ)
1− sen νθ` − βjδ M cos νθ` sen θ`
ν=1 2r
para 1 ≤ ` ≤ M − 1 , 1 ≤ δ ≤ p , 1 ≤ j ≤ q, donde
M −1
" (δ)
! !#n
X
2 θ` B
Uδ (m, n) = I − r 4A sen − 2 ·
2 M
δ=1
" (δ)
! #
βj M ρ` (δ) (δ) (δ) (δ)
· 1− δ sen(mθ` ) − βjδ M cos(mθ` ) sen(θ` ) d` . (2.236)
2r
p
X
U (m, n) = Uδ (m, n) , 1 ≤ m ≤ M − 1, n ≥ 0, (2.237)
δ=1
es una solución del problema mixto discreto (2.153)–(2.156). Además (2.237) es una solución
estable si se cumplen las condiciones (2.219)–(2.220), {f (m)} está acotado y el parámetro
r verifica
78 2.2 Caso general
!!2
(δ)
θ1
M 2 2M sen
e1 − λmax B
λmı́n A e1
2
r < mı́n h i2 h i2 . (2.238)
1≤δ≤p
4M 2 λ A1 + ρ B1 2
+ 4M λmax A2 + ρ B
max
e e e e2
2.2.4. Ejemplos
EJEMPLO 2.4 Consideramos el problema (2.146)–(2.149) con los datos:
1
1 0 1 −2 0 1
1 1
A= 0 2 , B = 0 − 4
0 0 , A1 = I ,
1
−1 0 2 −1 0 −6
1
− 12 4
2 0 1 1 0 1 0 3
1
1 −1 0 −1 1
B1 = 1 , A2 =
, B2 = −1 0 ,
3
1 1 1
0 0 3 1 0 1 2 0 3
0 0
b2 − α1 I
A v1 = 0 ⇐⇒ v1 = v1,2 = v1,2 1 ;
0 0
v2,1 1 0
b2 − α2 I
A v2 = 0 ⇐⇒ v2 = −v2,1 = v2,1 −1 + v2,3 0 ;
v2,3 0 1
v3,1 1 0
b2 − α3 I
A v3 = 0 ⇐⇒ v3 = 13 v3,1 = v3,1 13 + v3,3 0 ;
v3,3 0 1
0 0
b1 − β1 I
B w1 = 0 ⇐⇒ w1 = w1,2 = w1,2 1 ;
0 0
w2,1 1
b1 − β2 I
B w2 = 0 ⇐⇒ w2 = 23 w1,2 = w2,1 32 .
0 0
0
Por tanto ∃ v = 1 , tal que
0
b2 − α1 I
A v = (B1 − β1 I) v = 0 ,
y sólo podremos trabajar con el par de valores propios (α1 , β1 ) = (−1, −1). Ahora debemos
asegurarnos de que las matrices A + w` B, 1 ≤ ` ≤ M − 1, satisfacen la condición (2.217),
i.e.:
h i
I − L1 (α1 , β1 ) L1 (α1 , β1 )† (A + w` B) L1 (α1 , β1 ) = 0 , 1 ≤ ` ≤ M − 1 ,
donde
h i† h i
L1 (α1 , β1 ) = I − Pα†1 Pα1 I − Qβ1 I − Pα†1 Pα1 Qβ1 I − Pα†1 Pα1 ,
b2 − α1 I , Qβ = B1 − β1 I .
Pα 1 = A 1
80 2.2 Caso general
4
− 72 − 17 3
2 0 1 7 2 0 1
, Pᆠ=
Pα1 0 0 1
= 0 0 0 , Qβ1 =
1 0 0
;
1
3 5 3 4
1 0 2 − 14 14 7 0 0 3
0 0 0
h i†
Pα†1 Pα1 , Qβ I − Pα† Pα = Qβ I − Pα† Pα
I− 0 1 0
= 1 1 1 1 1 1 =0 .
0 0 0
Además w`
1− 2 0 1 + w`
1 w`
A + w` B =
0 2 − 4 0 .
(2.240)
w`
−1 − w` 0 2− 6
Por (2.239) y (2.240) se sigue que
h i
I − L(−1, −1)L(−1, −1)† (A + w` B) L(−1, −1) = 0 , (2.241)
1 ≤ ` ≤ M − 1,
Observamos que
1 0 0
A + AH A + AH
1
1
0
= 0 , σ = , 1, 2 ;
2 2 2 2
0 0 2
Capı́tulo 2. Sistemas parabólicos 81
− 21
0 0
B + BH B + BH
1 1 1
− 14
= 0 0 , σ
= − ,− ,− ,
2
2 2 4 6
0 0 − 16
y por tanto las condiciones de estabilidad (2.219)–(2.220) se satisfacen. Tomando r sufi-
cientemente pequeño de forma que verifique la condición (2.238), y M verificando (2.168)
y (2.184), por el teorema 2.7 se obtiene que la sucesión vectorial
U (m, n)
M −1
n
P 2 θ` B
= I − r 4 sen A− 2 ·
`=1 2 M
,
β1 M ρ`
· 1+ sen(mθ` ) − β1 M cos(mθ` ) sen(θ` ) d` ,
2r
θ `
ρ` = −4r sen2 , 1≤`≤M −1
2
1≤`≤M −1
−1
y {θ` }M
`=1 son las soluciones de la ecuación (2.194).
82 2.2 Caso general
3
3 1 0
2 1 0
5 0
2
1
B1 = 0 − 2 0 , A2 = 0 2 0
, B2 = 0 −2 0 ,
1
1
0 −1
9 1
0 2 − 2 0 − −
2 4 2
f (m) = F (mh) = (f1 (m), f2 (m), f3 (m))T , y h = 1
M , 1 ≤ m ≤ M − 1.
b2 = (A2 B1 − B2 )−1 A2 = A2 con
La hipótesis (2.150) se satisface, y A
1
σ A2 = {−1, 2} ,
b σ (B1 ) = − , 3 .
2
Sean α1 = −1, α2 = 2, β1 = − 21 , β2 = 3 y observemos que ambos pares (α1 , β1 ), (α2 , β2 )
satisfacen alguna de las condiciones dadas en (2.193) y además
0
v= 0 , b2 − α1 I v = (B1 − β1 I) v = 0 ,
A
1
1
w= 0 , b2 − α2 I w = (B1 − β2 I) w = 0 .
A
0
Para el par (α1 , β1 ) = (−1, −1/2) la matriz L(α1 , β1 ) definida por (2.218) toma el valor
0 0 0
L (−1, −1/2) = 0 0 0 6= 0
0 0 1
. (2.242)
1 0 0
†
I − L (−1, −1/2) L (−1, −1/2) = 0 1 0
0 0 0
(1) M −1
n o
Sean θ` las soluciones de (2.194) correspondientes al par (−1, −1/2) y sea
`=1
(1) −1
w` = (1)
!, 1 ≤ ` ≤ M − 1.
θ`
4M 2 sin2
2
Capı́tulo 2. Sistemas parabólicos 83
Por tanto,
(1) (1)
1 − 3w` −1 + 2w` 0
(1) (1)
A + w` B = 0 2 − 8w` 0 . (2.243)
(1) (1)
0 2 + 5w` 1 − 3w`
Por (2.242) y (2.243) se sigue que
h i
† (1)
I − L (−1, −1/2) L (−1, −1/2) A+ w` B L (−1, −1/2) = 0 , (2.244)
1 ≤ ` ≤ M − 1.
1 0 0 0 0 0
6 0
L(2, 3) = 0 0 0 = y I − L(2, 3)L(2, 3)† = 0 1 0 .
0 0 0 0 0 1
(2) M −1
n o
Sean θ` las soluciones de (2.194) correspondientes al par (2, 3) y sea
`=1
(2) −1
w` = (2)
!, 1 ≤ ` ≤ M − 1.
θ`
4M 2 sin2
2
Notemos que
(2) (2)
1 − 3w` −1 + 2w` 0
(2) (2)
A + w` B = 0 2 − 8w` 0 .
(2) (2)
0 2 + 5w` 1 − 3w`
Obtenemos que la matriz L = [L (α1 , β1 ) , L (α2 , β2 )] es
0 0 0 1 0 0
L= 0 0 0 0 0 0 .
0 0 1 0 0 0
f1 (m)
fb2 (m) = [0, L (α2 , β2 )] L† f (m) = 0 . (2.246)
0
Notemos que
1
1 − 0
2
A + AH A + AH
1
1079 297
= − , σ = , , 1 ;
2 2 2 1 2 396 1079
0 1 1
−3 1 0
B + BH
1 −8 5
B + BH
1211 1729
= , σ = − , −3, − ,
2 2
2 132 947
5
0 −3
2
y por tanto las condiciones de estabilidad (2.219), (2.220) se satisfacen. Tomando r sufi-
cientemente pequeño de forma que la condición (2.238) se verifica, y M verificando (2.168),
(2.184) y (2.238), por el teorema 2.7 la función vectorial
2
X
U (m, n) = Uδ (m, n) ,
δ=1
n o
donde {Uδ (m, n)} están definidas en (2.235), (2.236) y fbδ (m) por (2.245)–(2.246), es una
solución estable del problema mixto discreto (2.153)–(2.156).
Capı́tulo 3
Sistemas hiperbólicos
0.4pt0.4pt 0pt0.4pt
3.1. Introducción
En este capı́tulo utilizaremos esquemas matriciales en diferencias finitas para construir
soluciones numéricas discretas de problemas mixtos de tipo hiperbólico modelizados por
C invertible , (3.6)
85
86 Capı́tulo 3. Sistemas hiperbólicos
U (m, n + 1) − U (m, n)
ut (mh, nk) ≈ ,
k
U (m, n + 1) − 2U (m, n) + U (m, n − 1)
utt (mh, nk) ≈ ,
k2
U (m, n) − U (m − 1, n)
ux (mh, nk) ≈ ,
h
U (m + 1, n) − 2U (m, n) + U (m − 1, n)
uxx (mh, nk) ≈ ,
h2
obtenemos la discretización del problema (3.1)–(3.5):
h ρ i
r2 AG(n) H(m + 1) − 2 + 2 H(m) + H(m − 1)
r
− [G(n + 1) − (2I + ρA)G(n) + G(n − 1)] H(m) = 0 . (3.15)
Notemos que la ecuación (3.15) se satisface si las sucesiones {G(n)} y {H(m)} cumplen:
ρ
H(m + 1) − 2 + 2 H(m) + H(m − 1) = 0 , 1 ≤ m ≤ M − 1 , (3.16)
r
G(n + 1) − (2I + ρA) G(n) + G(n − 1) = 0 , n > 0 . (3.17)
Tomemos ρ ∈ R tal que
2r2 + ρ
2 2 θ 2
cos θ = , ρ = 2r (cos θ − 1) = −4r sen . (3.19)
2r2 2
Sean
s
2r2 + ρ 2r + ρ 2
2
z0 = +i 1− = eiθ ,
2r2 2r2
s
2 2r + ρ 2
2
2r + ρ
z1 = − i 1 − = e−iθ ,
2r2 2r2
s 2
ρA ρA
−I
W0 = I + + I+
2 2
s , (3.28)
2
ρA ρA
W1 = I + − I+ −I
2 2
Por (3.29), véasen [18], [22], la solución general de (3.17) viene dada por
Por las propiedades del cálculo funcional matricial las matrices W0 y W1 son polinomios
en la matriz A de grado p − 1, véase el teorema 1.10, donde
Definiendo la matriz
C −1 L(θ)
G(µ) = = C −1 B + µI , (3.40)
sen(M θ)
obtenemos entonces que la condición (3.34) es equivalente a
G(µ)(P,
e Q) = 0 . (3.43)
Por el teorema de Mitra,véase el teorema 1.1, el sistema algebraico (3.43) admite soluciones
no nulas (P, Q) si rango G(µ)
e < s, y en este caso el conjunto solución de (3.43) se expresa
por
e † G(µ)
(P, Q) = I − G(µ) e (P0 , Q0 ) , P0 , Q0 ∈ Cs .
Resumiendo, bajo las hipótesis (3.6) y (3.37), si θ` son las soluciones de (3.39) y G(µ)
e la
matriz definida por (3.42), el conjunto de soluciones no triviales del problema de contorno
(3.7)–(3.9) viene dado por
donde 1 ≤ ` ≤ M − 1 si µ ≤ 0 y 2 ≤ ` ≤ M − 1 si µ > 0.
Supongamos ahora que el parámetro real introducido en la ecuación (3.15) toma el valor
ρ = 0. En este caso la ecuación caracterı́stica (3.20) toma la forma:
z 2 − 2z + 1 = (z − 1)2 = 0,
Capı́tulo 3. Sistemas hiperbólicos 91
(C −1 B + I) (c, d) = 0 c, d ∈ Cs . (3.51)
Una condición suficiente para que se verifique (3.51) es que la matriz G(1) = C −1 B + I sea
singular, o equivalentemente
Exista µ = 1 ∈ σ −C −1 B .
(3.52)
Bajo la hipótesis (3.52), la ecuación
G(1)(c, d) = 0, c, d ∈ Cs , (3.53)
tiene soluciones c y d no nulas si y sólo si rango (G(1)) < s, y bajo esta condición por el
teorema de Mitra, véase el teorema 1.1, el conjunto solución de (3.53) viene dado por
(c, d) = I − G(1)† G(1) (c0 , d0 ) , c0 , d0 ∈ Cs .
Por tanto, para µ = 1 obtenemos la solución no trivial del problema de contorno (3.7)–(3.9):
U (m, n) = m (c + n d) , 1 ≤ m ≤ M − 1, n > 0
. (3.54)
(c, d) = I − G(1)† G(1) (c0 , d0 ) , c0 , d0 ∈ Cs ∼ {0}
(i) Si µ ∈ R, existen valores θ ∈ ]0, π[ tales que la matriz L(θ) definida por (3.24) es
singular. Bajo la hipótesis (3.35) el problema
de contorno (3.7)–(3.9) tiene soluciones
no triviales de la forma (3.13) si rango G(µ)e < s.
2`−1
(ii) Si C es singular, se toma el valor propio µ = 0 entonces θ` = 2M −1 π para 1 ≤ ` ≤
−1
M − 1 son soluciones de (3.39). Si rango G(0)
e < s entonces {U` (m, n)}M
`=1 dadas
por (3.44) define M − 1 soluciones no triviales del problema de contorno (3.7)–(3.9).
(iv) Si µ = 1, entonces
i parah 2 ≤ ` ≤ M − 1 existe una solución θ` de la ecuación
(`−1)π `π
(3.39) en J` = M , M para la cual la matriz L(θ` ) es singular. Bajo las hipótesis
rango G(1)
e < s y rango (G(1)) < s, existen dos conjuntos de soluciones no
triviales del problema de contorno (3.7)–(3.9) dadas por (3.44) y (3.54).
exactamente M −1 valores
Además en el apartado 2.1.5, vimos que el problema (3.55) tiene
−ρ` M −1
propios reales dados por r2 `=1 , donde ρ` = −4r sen θ2` y θ` verifica (3.39). Para
2 2
Capı́tulo 3. Sistemas hiperbólicos 93
es una solución del problema de contorno (3.7)–(3.9), donde los vectores P` y Q` están en
Nuc G(µ)
e y deben ser elegidos de forma que se satisfagan las condiciones (3.10) y (3.11).
Imponiendo las condiciones iniciales (3.10) y (3.11) a la sucesión vectorial U (m, n) definida
por (3.56) se sigue que
M
X −1
f (m) = (P` + Q` ) sen (mθ` ) , (3.57)
`=1
M
X −1
kv(m) + f (m) = {W0 P` + W1 Q` } sen (mθ` ) . (3.58)
`=1
Por la teorı́a de las series de Fourier discretas, véase el apartado 1.2, trabajando componente
a componente en (3.57) y (3.58) se sigue que
MP−1
sen(νθ` )f (ν)
ν=1
P` + Q` = M −1
, (3.59)
sen2 (νθ
P
`)
ν=1
MP−1
{kv(ν) + f (ν)} sen(νθ` )
ν=1
W0 P` + W1 Q` = M −1
. (3.60)
sen2 (νθ
P
`)
ν=1
MP−1
{kv(ν) − (W1 − I) f (ν)} sen(νθ` )
ν=1
(W0 − W1 ) P` = M −1
. (3.62)
sen2 (νθ
P
`)
ν=1
M −1
(W0 − W1 )−1
P
{kv(ν) − (W1 − I) f (ν)} sen(νθ` )
ν=1
P` = M −1
, (3.63)
sen2 (νθ` )
P
ν=1
M −1
(W0 − W1 )−1
P
{(W0 − I) f (ν) − kv(ν)} sen(νθ` )
ν=1
Q` = M −1
. (3.64)
sen2 (νθ
P
`)
ν=1
Ya que por (3.28), (3.29) las matrices W0 , W1 y (W0 − W1 )−1 son polinomios en la matriz
A de grado p − 1 (véase el teorema 1.10), por (3.42), (3.63), (3.64) los vectores P` y Q`
satisfacen (3.43) si
G(0)A I − G(0)† G(0) = 0 , (3.67)
M −1
(W0n P` W1n Q` ) sen (mθ` )
P
U (m, n) = + ,
`=1
M −1
−1 P
(W0 − W1 ) {kv(ν) − (W1 − I) f (ν)} sen(νθ` )
ν=1
P` = M −1
,
2
P
sen (νθ` )
ν=1 , (3.68)
M −1
−1 P
(W0 − W1 ) {(W0 − I) f (ν) − kv(ν)} sen(νθ` )
ν=1
Q` = M −1
,
2
P
sen (νθ` )
ν=1
2`−1
θ` = 2M −1 π
1 ≤ m ≤ M − 1, n > 0, 1 ≤ ` ≤ M − 1
donde W0 y W1 están definidas en (3.44), es una solución del problema mixto discreto
(3.7)–(3.11).
CASO 2. µ<0
−1
Sea µ ∈ σ(−C −1 B) y supongamos que rango G(µ)
e < s donde {θ` }M
`=1 vienen dadas por
el teorema 3.1-(iii). Bajo las hipótesis
o equivalentemente
G(µ)A I − G(µ)† G(µ) = 0 , (3.71)
M −1
(W0n P` W1n Q` ) sen (mθ` )
P
U (m, n) = + ,
`=1
M −1
−1 P
(W0 − W1 ) {kv(ν) − (W1 − I) f (ν)} sen(νθ` )
ν=1
P` = M −1
,
2
P
sen (νθ` ) , (3.72)
ν=1
M −1
−1 P
(W0 − W1 ) {(W0 − I) f (ν) − kv(ν)} sen(νθ` )
ν=1
Q` = M −1
,
2
P
sen (νθ` )
ν=1
1 ≤ m ≤ M − 1, n > 0, 1 ≤ ` ≤ M − 1
donde W0 y W1 están definidas en (3.44), es una solución del problema mixto discreto
(3.7)–(3.11).
CASO 3. µ=1
Supongamos que rango G(1)
e < s, y rango (G(1)) < s. Por superposición de las soluciones
del problema de contorno (3.7)–(3.9) obtenidas en el teorema 3.1-(iv), se sigue que la
sucesión vectorial
M −1
(W0n P` W1n Q` ) sen (mθ` )
P
U (m, n)= + + m (c + n d) ,
`=2 (3.73)
(P` , Q` ) ∈ Nuc G(1)
e , (c, d) ∈ Nuc G(1)
1 ≤ m ≤ M − 1, n > 0, 2 ≤ ` ≤ M − 1
es una solución del problema de contorno (3.7)–(3.9). Imponiendo las condiciones iniciales
(3.10) y (3.11) a la solución (3.73) obtenemos que los vectores (P` , Q` ) y (c, d) deben
verificar
M
X −1
f (m) = (P` + Q` ) sen (mθ` ) + mc , (3.74)
`=2
M
X −1
kv(m) + f (m) = (W0 P` + W1 Q` ) sen (mθ` ) + m(c + d) . (3.75)
`=2
En el apartado 2.1.5, se probó que las funciones propias del problema escalar discreto de
Sturm-Liouville (3.55):
−1
h` (m) = {sen (mθ` )}M
`=2
Capı́tulo 3. Sistemas hiperbólicos 97
M −1 n oM −1
asociadas a los valores propios − rρ2` `=2 = 4 sen2 θ2`
,y
`=2
h1 (m) = m
asociada al valor propio 0, son ortogonales respecto a la función peso 1. Por tanto en vista
de (3.74) y razonando como en el apartado 2.1.5 obtenemos
MP−1
sen(νθ` )f (ν)
ν=1
P` + Q` = M −1
, (3.76)
sen2 (νθ` )
P
ν=1
y
M −1
1 X
c= νf (ν) . (3.77)
M3 M2 M
3 − 2 + 6 ν=1
y
M −1
1 X
c+d= ν {kv(ν) + f (ν)} . (3.79)
M3 M2 M
3 − 2 + 6 ν=1
Además como se tiene que verificar que (P` , Q` ) ∈ Nuc G(1) e y (c, d) ∈ Nuc G(1), en vista
de (3.63), (3.64), (3.77) y (3.80) será suficiente exigir las condiciones (3.69) y (3.71).
TEOREMA 3.2 Bajo las hipótesis (3.69) y (3.71) junto con el teorema 3.1, se obtiene:
(i) Si µ ∈ R ∼ {1}, la sucesión vectorial {U (m, n)} definida por (3.72) es una solución
exacta del problema mixto (3.7)–(3.11), donde para el caso µ = 0 se tiene θ` =
2`−1
2M −1 π, 1 ≤ ` ≤ M − 1.
(ii) Si µ = 1, la sucesión vectorial {U (m, n)} definida por (3.73), (3.63), (3.64), (3.77)
y (3.80) es una solución exacta del problema mixto (3.7)–(3.11).
(3.83)
h2 h3
Φ(m+1, n) = Φ(m, n)+hΦx(m, n)+ 2! Φxx(m, n)+ 3! Φxxx(m, n)+ O(h4 )
2 3
h h 4
Φ(m−1, n) = Φ(m, n)−hΦx(m, n)+ 2! Φxx(m, n)− 3! Φxxx(m, n)+ O(h )
Teniendo en cuenta la expresión de Λ[φ], dada por (3.81), y la expresión (3.84) se obtiene:
kW0 k ≤ 1 + O(r); kW0 − Ik = O(r);
(W0 − W1 )−1
= O(r−1 ),
(3.86)
kW1 k ≤ 1 + O(r); kW1 − Ik = O(r); r → 0
1
Puesto que h0 = M está fijado y r = hk , la expresión (3.86) significa
kW0 k ≤ 1 + O(k); kW0 − Ik = O(k);
(W0 − W1 )−1
= O(k −1 ),
(3.87)
kW1 k ≤ 1 + O(k); kW1 − Ik = O(k); k → 0
100 Capı́tulo 3. Sistemas hiperbólicos
En efecto, ya que se tiene kW0 k ≤ 1 + O(k) podemos tomar kW0 k ≤ 1 + kS, para alguna
constante positiva S, y entonces para 0 ≤ n ≤ J obtenemos
Lo mismo ocurre para kW1n k. Por tanto, por (3.88)–(3.89), las soluciones definidas en (3.72)
para µ ∈ R ∼ {1} son estables, i.e.,
1
kU (m, n)k = O(1) , 1 ≤ m ≤ M − 1, h0 = M fijo
. (3.90)
n → ∞, siendo 0 ≤ n ≤ J, T = Jk finito
Por otro lado para el caso µ = 1 también tenemos que la solución {U (m, n)} definida
por (3.73), (3.63), (3.64), (3.77) y (3.80) es estable. En efecto, en vista de la definición de
estabilidad, en el sentido de la definición 1.15, tenemos
TEOREMA 3.3 Bajo las hipótesis del teorema 3.2, tomando los vectores f (m) y v(m)
acotados, y la matriz A y el parámetro r > 0 verificando (3.26) y (3.27) respectivamente
se tiene:
(i) Si µ ∈ R ∼ {1}, la sucesión vectorial {U (m, n)} definida por (3.72) es una solución
estable del problema mixto (3.7)–(3.11), en el sentido de (3.90).
(ii) Si µ = 1, la sucesión vectorial {U (m, n)} definida por (3.73), (3.63), (3.64), (3.77)
y (3.80) es una solución estable del problema mixto (3.7)–(3.11), en el sentido de
(3.90)–(3.92).
Capı́tulo 3. Sistemas hiperbólicos 101
{µ1 , . . . , µq } ⊂ σ −C −1 B ∩ R ,
(3.93)
G (µj ) = C −1 B + µj I , 1 ≤ j ≤ q. (3.94)
Como los polinomios x − µj son mútuamente coprimos (primos 2 a 2), véase la defini-
ción 1.11, entonces por el teorema de descomposición, véase el teorema 1.9, si L(x) es el
polinomio
Entonces por el teorema de Bezout, véase el teorema 1.8, tomando los escalares αj de la
forma
−1
q
Y
αj = (µj − µk ) , 1≤j≤q,
k=1,k6=j
obtenemos
q
X
1 = Q(x) = αj Qj (x) . (3.98)
j=1
Considerando el polinomio
Por tanto consideraremos las proyecciones de f (m) y v(m) sobre el subespacio Nuc G (µj )
definidas por
102 Capı́tulo 3. Sistemas hiperbólicos
fbj (m) = (−1)q−1 αj T (µj )f (m)
, 1 ≤ j ≤ q, 0 ≤ m ≤ M (3.101)
vbj (m) = (−1)q−1 αj T (µj )v(m)
L −C −1 B f (m) = L −C −1 B v(m) = 0 ,
0≤m≤M, (3.103)
U (m, 0) = fbj (m)
, 1 ≤ j ≤ q, 0 ≤ m ≤ M . (3.105)
U (m, 1) − U (m, 0)
= vbj (m)
k
Sea (Pj ), 1 ≤ j ≤ q, el problema definido por (3.7)–(3.9) y (3.105). Observar que por resul-
tados previos, el cambio de las condiciones iniciales en cada problema (Pj ) sólo modifica a
los vectores (P` , Q` ) y (c, d) que aparecen en (3.63), (3.64), (3.77) ny (3.80),
o porque ahora
los coeficientes de Fourier discretos involucran a las proyecciones fbj (m) y {b vj (m)} en
lugar de a los vectores de las condiciones iniciales {f (m)} y {v(m)}. Notemos que para los
problemas (Pj ), los coeficientes de Fourier toman la forma
o si µj = 1, para 2 ≤ ` ≤ M − 1 se obtiene:
M −1 n o
(j)
(W0,j − W1,j )−1
P
vj (ν) − (W1,j − I) fbj (ν) sen(νθ` )
kb
(j) ν=1
P` = M −1
(j)
sen2 νθ`
P
ν=1
M −1 n o
−1 P (j)
(W0,j − W1,j ) (W0,j − I) fbj (ν) − kb
vj (ν) sen(νθ` ) ,
(j) ν=1
Q` = M −1
(j)
sen2 νθ`
P
ν=1
M −1 M −1
c = M3 M2 M
(j) 1
ν fbj (ν) ; d = M 3 M 2 M
(j) k
P P
ν vbj (ν)
3
− 2
+ 6 ν=1 3
− 2
+ 6 ν=1
(3.107)
donde el superı́ndice (j) y W0,j , W1,j denota que se está trabajando con el valor propio
µj . Denotando Uj (m, n) a la solución del problema mixto discreto (3.7)–(3.9) y (3.105)
asociado al valor propio µj , 1 ≤ j ≤ q, se obtiene que por construcción de las proyecciones
la solución del problema mixto discreto original (3.7)–(3.11) es de la forma:
q
X
U (m, n) = Uj (m, n) .
j=1
siendo p el grado del polinomio minimal de A. Supongamos que las proyecciones fbj (m) y
vbj (m), definidas en (3.101), verifican (3.104); que la matriz A satisface la condición (3.26)
y además
G (µj ) A I − G (µj )† G (µj ) = 0 , 1 ≤ j ≤ q , (3.109)
y que el parámetro r satisface (3.27).
i h
(j) (`−1)π `π
(i) Si µj ∈ R ∼ {1}, se tiene que θ` ∈ J` = M ,M , 1 ≤ ` ≤ M − 1, denotan las
M − 1 soluciones de la ecuación
(j) µj
cos θ` − 1− M
(j)
cot M θ` = ,1 ≤ ` ≤ M − 1, (3.110)
(j)
sen θ`
104 Capı́tulo 3. Sistemas hiperbólicos
(j) 2` − 1
donde θ` = π si µ = 0. Para este caso asumiremos que rango Ge (µj ) <
2M − 1
s.
i h
(j) (`−1)π `π
(ii) Si µj = 1, se tiene que θ` ∈ J` = M ,M , 2 ≤ ` ≤ M − 1, denotan las M − 2
soluciones de la ecuación
(j) µ
cos θ` − 1 − Mj
(j)
cot M θ` = ,2 ≤ ` ≤ M − 1, (3.111)
(j)
sen θ`
Para este caso asumiremos que rango G(1)
e < s y rango (G(1)) < s.
Entonces bajo todas las hipótesis consideradas anteriormente se obtiene que
q
X
U (m, n) = Uj (m, n) , 1 ≤ m ≤ M − 1, n > 0, (3.112)
j=1
es una solución convergente (por ser consistente y estable) a la solución del problema mixto
continuo (3.1)–(3.5), donde
si µj ∈ R ∼ {1}:
M −1 n o
(j) (j) (j)
X
n n
Uj (m, n) = W0,j P` + W1,j Q` sen m θ` ,
`=1
1 ≤ m ≤ M − 1, n > 0
siendo
s 2
(j) (j)
θ` θ`
W0,j = I − 2Ar2 sen2 2 + I − 2Ar2 sen2
−I 2
s
(3.113)
(j) (j) 2
2 2 θ` 2 2 θ`
= I − 2Ar sen − I − 2Ar sen −I
W1,j 2 2
(j) M −1
n o
(j)
y P` , Q` los vectores definidos en (3.106);
`=1
o si µj = 1:
M −1 n o
(j) (j) (j)
X
n n
Uj (m, n) = W0,j P` + W1,j Q` sen m θ` + m c(j) + nd(j) ,
`=1
1 ≤ m ≤ M − 1, n > 0
(j) M −1
n o n o
n ,Wn (j)
siendo W0,j 1,j las matrices definidas en (3.113) para 2 ≤ ` ≤ M −1, y P` , Q`
`=2
y c(j) , d(j) los vectores definidos en (3.107).
Capı́tulo 3. Sistemas hiperbólicos 105
3.7. Ejemplos
EJEMPLO 3.1 Consideremos el problema (3.1)–(3.5) con los datos
2 −1 1 −1 −1 1 1 1 −1
A= 1 1 0 , B = 1 1 −2 , C = 1 −1 0 ,
1 −1 2 1 0 −1 1 0 −1
f (m) = (f1 (m), f2 (m), f3 (m))T , v(m) = (v1 (m), v2 (m), v3 (m))T ∈ C3 ,
1
h= M , 1 ≤ m ≤ M − 1.
e (µj ), 1 ≤ j ≤ 2
Puesto que el grado del polinomio minimal de A es p = 3 las matrices G
toman la forma
G (µj )
e (µj ) = G (µj ) A , 1 ≤ j ≤ 2 ,
G
G (µj ) A2
siendo
−2 0 0 0 0 0
G (µ1 ) = C −1 B − I = −2 −2 2 , G(1) = C −1 B + I = −2 0 2 .
−2 0 0 −2 0 2
Únicamente podemos trabajar con elvalor propio µ2 = 1, ya que para el valor propio
µ1 = −1 se verifica que rango G e (µ1 ) = 3. Estamos en el caso (ii) del teorema 3.3. Para
µ2 = 1 se satisface que el Nuc G(1) es subespacio invariante por la matriz A, es decir:
G(1)A I − G(1)† G(1) = 0 ,
siendo
0 − 81 − 18
†
0
G(1) = 0 0
,
1 1
0 8 8
106 Capı́tulo 3. Sistemas hiperbólicos
y además σ(A) = {1, 2}, i.e., todos los valores propios de A son positivos.
Por otro lado, para que los vectores {f (m)} y {v(m)} satisfagan
f (m) = (f1 (m), f2 (m), f1 (m))T , v(m) = (v1 (m), v2 (m), v1 (m))T .
Entonces tomando 0 < r < √ 1 = 21 , por (ii) del teorema 3.3 la solución numérica estable
ρ(A)
del problema viene dada por
M
X −1
U (m, n)= (W0n P` + W1n Q` ) sen (mθ` ) + m (c + n d) ,
`=2
M −1
donde los vectores {P` , Q` }`=2 y (c, d) están definidos en (3.63)–(3.64), (3.77) y (3.80)
respectivamente.
f (m) = (f1 (m), f2 (m), f3 (m))T , v(m) = (v1 (m), v2 (m), v3 (m))T ∈ C3 ,
1
h= M , 1 ≤ m ≤ M − 1.
e (µj ), 1 ≤ j ≤ 3
Puesto que el grado del polinomio minimal de A es p = 2 las matrices G
toman la forma
G (µj )
G (µj ) =
e , 1 ≤ j ≤ 3,
G (µj ) A
siendo
Capı́tulo 3. Sistemas hiperbólicos 107
− 23 1
0 0 0 0 0 6 0 0
5 1 5 5 5
G (µ1 ) = −1 0
3 , G (µ2 ) = −1
3 3
, G (µ3 ) = −1
6 3
.
1 5 1
2 0 −6 2 0 − 16 1
2 0 0
siendo
− 32 18 27
0 0 0 77 11
† † 15 6
G (µ1 ) =
0 0 0 , G (µ2 ) =
0 77 11
,
9 12 6 54 15
− 10 25 − 25 0 77 11
y además σ(A) = {1, 4}, i.e., todos los valores propios de A son positivos.
n o2
Por otro lado, para que las proyecciones fbj (m) vj (m)}2 cumplan
y {b j=1
j=1
n o
fbj (m), vbj (m) , 1 ≤ m ≤ M − 1 ⊂ Nuc G (µj ) , 1 ≤ j ≤ 2,
donde se ha denotado a los vectores fbj (m) y vbj (m) de la siguiente forma
fbj (m) = (fj,1 (m), fj,2 (m), fj,3 (m))T y vbj (m) = (vj,1 (m), vj,2 (m), vj,3 (m))T .
Entonces tomando 0 < r < 21 , por el teorema 3.4 la solución numérica estable del problema
viene dada por
2
X
U (m, n) = Uj (m, n) , 1 ≤ m ≤ M − 1, n > 0,
j=1
108 Capı́tulo 3. Sistemas hiperbólicos
siendo
M −1 n o
(j) (j) (j)
X
n n
Uj (m, n) = W0,j P` + W1,j Q` sen m θ` ,
`=1
1 ≤ m ≤ M − 1, n > 0
(j) M −1
n o
(j)
W0,j y W1,j las matrices definidas en (3.113), P` , Q` los vectores definidos en
n oM −1 `=1
(j)
(3.106) y θ` las soluciones de la ecuación (3.110).
`=1
Bibliografı́a
[1] R.P. Agarwal, Difference Equations and Inequalities. Theory, Methods and Applica-
tions, Marcel Dekker, New York, 1992.
[2] M.H. Alexander and D.E. Manolopoulos, A Stable linear reference potential algorithm
for solution of the quantum close-coupled equations in molecular scattering theory, J.
Chem. Phys. 86 (1987), 2044–2050.
[4] O. Axelsson, Iterative Solution Methods, Cambridge Univ. Press., Cambridge, 1996.
[5] F.L. Bauer and A.S. Householder, Absolute norms and characteristic roots, Numerische
Math. 3 (1961), 241–246 .
[6] S.L. Campbell and C.D. Meyer, Jr., Generalized Inverses of Linear Transformations,
Pitman, London, 1971.
[7] M.C. Casabán and L. Jódar, J.A. Sánchez Cano, Stable numerical solution of strongly
coupled mixed diffusion problems, Applied Math. Lett. 15, (2002), 115–119.
[8] H.H. Chiu, Theory of irreducible linear systems, Quant. Appl. Math. XXVII, (1969),
87–104.
[9] R. Courant and D. Hilbert, Methods of Mathematical Physics, Vol. II, Interscience,
New York, 1962.
[10] P.K. Das, Optical Signal Processing, Springer, New York, 1991.
[11] N. Dunford and J. Schwartz, Linear Operators, Part I, Interscience, New York, 1957.
[13] G. Golub and C.F. Van Loan, Matrix Computations, Johns Hopkins Univ. Press, Bal-
timore, M.A., 1989.
[14] K. Gopolsamy, An arms race with deteriorating armaments, Math. Biosci, 37 (1977),
191–203.
[15] A.F. Harvey, Microwave Engineering, Academic Press, New York, 1963.
[16] D.J. Higham and N.J. Higham, MATLAB guide, Society for Industrial and Applied
Mathematics (SIAM), cop. 2000, Philadelphia.
109
110 Bibliografı́a
[17] A.L. Hodgkin and A.F. Huxley, A quantitative description of membrane current and
its applications to conduction in the giant axon of Loligo, J. Physiol., Vol. 117, pp.
500–544, (1952).
[18] L. Jódar, Algebraic and differential operator equations, Linear Algebra Appl., 102
(1988), 35–53.
[19] L. Jódar and M.C. Casabán, Convergent matrix pencils, Applied Math. Lett. 14 (5),
549–551, (2001).
[20] L. Jódar and M.C. Casabán, Convergent discrete numerical solution of coupled mixed
partial differential systems, Math. Comput. Model. 34, 283–297, (2001).
[21] L. Jódar and M.C. Casabán, Convergent discrete numerical solutions of strongly
coupled mixed parabolic systems, Utilitas Math. Paper (2002), (por aparecer).
[23] L. Jódar, E. Navarro and J.A. Martı́n, Exact and analytic-numerical solutions of stron-
gly coupled mixed diffusion problems, Proc. Edinburgh Math. Soc. 43 (2000), 269–293.
[24] L. Jódar and J.A. Sánchez, Constructive stable numerical solutions of strongly coupled
diffusion mixed partial differential systems, Int. J. Computer Math. 73 No.2, 225–242,
(1999).
[25] L. Jódar, J.A. Sánchez and M.V. Ferrer, Stable numerical solutions of strongly coupled
mixed diffusion problems, Computers Math. Appl. 39 No. 1–2 (2000), 169–182.
[26] L. Jódar and J.A. Sánchez Cano, Discrete numerical solution of strongly coupled mixed
diffusion problems, Computers Math. Appl. 40 (2000), 471–489.
[27] R.J. Kee and L.R. Petzold, A differential/algebraic equation formulation of the method
of lines solution to systems of partial differential equations, Tech. Rep. SAND86–8893,
Sandia National Laboratories, 1986.
[29] J.A. Martı́n, E. Navarro, L. Jódar, Exact and analytic-numerical solutions of strongly
coupled mixed diffusion problems, Proc. Edinburg Math. Soc. 43 (2000), 1–25.
[31] V.S. Melezhik, I.V. Puzhynin, T.P. Puzhynina and L.N. Somov, Numerical solution of
a system of integrodifferential equations arising from the quantum-mechanical three-
body problem with Coulomb interaction, J. Comput. Phys. 54, 221–236, (1984).
[32] A.C. Metaxas, R.J. Meredith, Industrial Microwave Heating, Peter Peregrinus, Lon-
don, 1983.
Bibliografı́a 111
[34] J.K. Mitchell, Conduction phenomena: from theory to geotechnical practice, Geotech-
nique, Vol. 41, No. 3 (1991), 229-340.
[35] H. Morimoto, Stability in the wave equation coupled with heat flows, Numer. Math. 4
(1962), 136–145.
[36] P.M. Morse and H. Feshbach, Methods of Theoretical Physics, McGraw-Hill, Tokio,
1953.
[38] J.M. Ortega, Numerical Analysis. A Second Course. Academic Press, New York, 1972.
[39] C.R. Rao and S.K. Mitra, Generalized Inverse of Matrices and its Applications, John-
Wiley, New York, 1971.
[42] D. Sheng and K. Axelsson, Uncoupling of coupled flow in soil. A finite element method,
Int. J. Numer. and Analytical Meth. in Geomechanics, Vol. 19, pp. 537–553, (1995).
[43] G.D. Smith, Numerical Solution of Partial Differential Equations: Difference Methods,
Claredon, Oxford, 1978.
[44] G.W. Stewart and Ji-Guang Sun, Matrix Perturbation Theory, Academic Press, New
York, 1990.
[45] J.C. Strikwerda, Finite Difference Schemes and Partial Differential Equations, Chap-
man and Hall, New York, 1990.
[46] J.R. Weston and M. Stacey, Fusion Plasma Analysis, John Wiley ans Sons, New York,
1981.
[47] A.T. Winfree, When Times Breaks Down, Princeton Univ. Princeton, 1987.
[48] A.T. Winfree, Heart Muscle as a Reaction-Diffusion Medium: the Roles of Electrical
Potential Diffusion, Activation Front Curvature, and Anisotropy, Int. J. Bif. Chaos 7,
487–526, (March 1997).
[49] A.T. Yeung, J.K. Mitchell, Coupled fluid, electrical and chemical flows in soil, Geoth-
chnique vol. 43, No. 1 (1993), 121–134.