Álgebra Linea Aplicada (Notas de Clase) PDF
Álgebra Linea Aplicada (Notas de Clase) PDF
Álgebra Linea Aplicada (Notas de Clase) PDF
Facultad de Ciencias
Escuela de Matemáticas
Carlos E. Mejía
Profesor Titular
I Algebra lineal 11
1. Matrices y vectores 13
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2. Multiplicación de matriz por vector . . . . . . . . . . . . . . . . . . . 17
1.3. Nota MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2. Matrices y determinantes 21
2.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Nota MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3. Espacios vectoriales 27
3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Ejemplos de espacios vectoriales . . . . . . . . . . . . . . . . . . . . 28
3.3. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4. Ejemplos de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6. Base de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 30
3.7. Sumas e intersecciones de subespacios . . . . . . . . . . . . . . . . . . 30
4. Sistemas lineales 33
4.1. Eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2. Formulación matricial de la eliminación de Gauss . . . . . . . . . . . 36
4.3. Nota MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4. Invertibilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.5. Nota MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3
4 ÍNDICE GENERAL
II Análisis matricial 67
8. Perturbaciones, errores y condicionamiento 69
8.1. Errores absoluto y relativo . . . . . . . . . . . . . . . . . . . . . . . . 70
8.2. Sistema lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.3. Condicionamiento de normas matriciales . . . . . . . . . . . . . . . . 73
8.4. Suma y producto de matrices . . . . . . . . . . . . . . . . . . . . . . 73
8.5. Invertir una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
12.Factorización QR 101
12.1. Matrices de Householder . . . . . . . . . . . . . . . . . . . . . . . . . 101
12.2. La factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.3. Valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
12.4. Nota MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Estas notas de clase se escriben como apoyo para dos cursos: uno de la parte final
de un pregrado en matemáticas y otro de la parte inicial de una maestría en matemá-
ticas. En la Universidad Nacional de Colombia, sede Medellín, estos cursos se llaman
Algebra lineal aplicada y Aspectos numéricos del álgebra lineal respectivamente.
Del lector de este manuscrito se espera que haya tenido contacto con el álgebra
lineal y no necesariamente con el álgebra lineal numérica. Libros adecuados para ese
primer contacto son [S], [Lang], [M], [ND] y [P]. El libro de Noble y Daniel [ND] es
un libro introductorio de álgebra lineal numérica. El libro de Meyer [M] también es
un libro de álgebra lineal numérica pero es un poco más avanzado que el de Noble
y Daniel. Los otros tres libros son libros de texto para cursos de álgebra lineal de
segundo o tercer semestre de pregrado.
Desde ya advertimos que en estas notas no se citan todas las referencias bibliográ-
ficas que aparecen al final, dicha lista sirve de apoyo a las notas y es una invitación
a los lectores a conocer otros materiales sobre el tema.
En varias partes del manuscrito hay unas notas cortas llamadas Nota MATLAB.
Con ellas se busca motivar el uso de este software para el aprendizaje del álgebra li-
neal numérica. Recordemos que MATLAB es un nombre que surgió de la combinación
en una sola palabra de las tres primeras letras de las palabras Matrix Laboratory.
Para el autor, la mejor manera de aprender a usar a MATLAB es por medio de
ejemplos obtenidos de clase o libros o de algún otro documento físico o virtual. El
profesor Cleve Moler, inventor de MATLAB y fundador de la empresa Mathworks,
escribió dos excelentes libros que usan MATLAB y que se pueden comprar en SIAM
o descargarlos gratuitamente de https://www.mathworks.com/moler.html
Estas notas están divididas en dos partes. La primera, llamada Algebra lineal,
contiene material teórico fundamental. Allí hay definiciones y resultados relacionados
con vectores, matrices, transformaciones lineales, determinantes, sistemas lineales,
entre otros. La segunda, llamada Análisis matricial, incluye ejemplos y algorit-
mos seleccionados entre los muchos que hay en álgebra lineal numérica. La selección
se hizo con la idea de apoyar el trabajo interdisciplinario que tiene al álgebra li-
7
8 ÍNDICE GENERAL
neal numérica como uno de sus pilares. Por tanto el material tratado tiene que ver
con condicionamiento, estabilidad, factorizaciones de matrices, solución de sistemas
lineales por métodos directos y en menor medida, cálculo de valores propios.
En el prefacio de [S], Gilbert Strang escribe: Personalmente considero que mucha
más gente necesita álgebra lineal que cálculo. Hay muy buena justificación para esta
afirmación y de hecho el autor de estas notas tiene la misma creencia. Es que muchos
de los problemas de ingeniería y ciencias se modelan por medio de ecuaciones dife-
renciales ya sea ordinarias o parciales y lo usual para un investigador de ciencias o
ingeniería es resolver numéricamente estas ecuaciones. Eso significa llegar a un pro-
blema de álgebra lineal numérica. Más adelante en estas notas se explicará un poco
sobre este proceso.
Escribir este manuscrito es un anhelo que el autor tiene desde hace varios años.
El trabajo [AM] sobre métodos iterativos, escrito con Carlos D. Acosta, se puede
considerar predecesor de este libro pero trata temas más avanzados. Los trabajos
[Layton] y [vdG] son ejemplos inspiradores con mayor alcance que el presente trabajo
pero con el mismo estilo de distribución via web, siempre buscando llegar a una
amplia audiencia.
La escritura de este manuscrito se hizo durante el semestre sabático del que disfru-
tó el autor en el segundo semestre de 2016. Sea esta la oportunidad de agradecer a la
Universidad Nacional de Colombia por haberme concedido dicho semestre sabático.
Este libro está en construcción y asi se ofrece en la página web personal del autor
que se puede encontrar en la lista de docentes de la Escuela de Matemáticas de
la Universidad Nacional de Colombia, sede Medellín. Actualmente, en diciembre de
2016, las direcciones URL son:
Página web del autor http://www.unalmed.edu.co/~cemejia
Página en Google Sites: https://sites.google.com/unal.edu.co/cemejia/home
Página web de la Escuela de Matemáticas:
http://ciencias.medellin.unal.edu.co/escuelas/matematicas/
Nomenclatura
Escalares
Letras griegas minúsculas α, β, . . . o letras latinas o griegas minúsculas con sub-
índices xi , aij , λk , . . .
Vectores
Letras latinas minúsculas a, b, x, y, . . . o letras latinas mayúsculas con subíndice
Ai , A∗j , Ai∗ , . . . o la letra e minúscula con un subíndice por ejemplo ej para vectores
canónicos.
Matrices
Letras latinas, griegas o en estilo caligráfico mayúsculas A, B, Λ, V, . . . y ocasio-
nalmente, si no hay confusión, también se usan esas mismas letras con un subíndice.
Los elementos de la matriz A son aij o Aij , sus columnas son A∗j , sus filas son
Ai∗ . Los asteriscos se suprimen cuando no hay confusión, por ejemplo cuando en el
contexto solo se están utilizando las columnas de la matriz.
Los elementos del vector x son xi .
Principales superíndices y subíndices: i, j, k, l, m, n.
El número 0 se usa como escalar, vector y matriz.
La matriz identidad se denota I o si hay peligro de confusión, In .
LD: Linealmente dependiente.
LI: Linealmente independiente.
CL: Combinación lineal.
TL: Transformación lineal.
σ (A) : Espectro de la matriz A.
ρ (A) : Radio espectral de la matriz A.
9
10 ÍNDICE GENERAL
Algebra lineal
11
Capítulo 1
Matrices y vectores
Los vectores y las matrices son los principales objetos con los que trabajamos en
todo el libro. Entre los años 200 y 100 a. de C. hay evidencias de usos de matrices en
China y de forma menos clara en Babilonia. Los determinantes se anuncian en el libro
de Cardano Ars Magna (1645) y aparecen con más claridad hacia 1683 tanto en Japón
como en Europa. Leibniz es uno de los precursores para el concepto de determinante
y solo hacia 1812 con Cauchy la noción de determinante quedó establecida como la
tenemos ahora.
13
14 CAPÍTULO 1. MATRICES Y VECTORES
1.1. Matrices
Llamamos matriz m × n a un rectángulo de números
a11 · · · a1n
..
A = ... .
am1 · · · amn
con m filas y n columnas. Los elementos aij son escalares, es decir, elementos de
R el conjunto de los números reales o elementos de C, el conjunto de los números
complejos. Se escribe A ∈ Rm×n en el primer caso y A ∈ Cm×n en el segundo. Si
m = n, se dice que A es una matriz cuadrada de orden n.
Un vector fila es una matriz 1 × n y un vector columna es una matriz m × 1. El
conjunto de vectores columna con m componentes reales se denota Rm . Análogamente
se define Cm .
1.1.1. Submatrices
Una submatriz de una matriz A ∈ Rm×n es una matriz obtenida de A suprimiendo
filas y/o columnas. Más precisamente, dados dos conjunto de números enteros 1 ≤
i1 < i2 < . . . < ik ≤ m y 1 ≤ j1 < j2 < . . . < jl ≤ n entonces la matriz k × l
ai1 ,j1 ai1 ,j2 · · · ai1 ,jl
ai2 ,j1 ai2 ,j2 · · · ai2 ,jl
.. .. ..
. . .
aik ,j1 aik ,j2 · · · aik ,jl
2. Matriz identidad
La matriz identidad de orden n, denotada In , es la matriz cuadrada
1
..
.
1
con unos en la diagonal y ceros en todas las demás posiciones. En particular,
I1 = 1. El subíndice se suprime si no hay confusión y se habla simplemente de
la matriz identidad I.
3. Matriz diagonal
La matriz cuadrada A es diagonal si aij = 0 para todo i 6= j. En particular la
matriz nula es diagonal.
4. Matriz triangular superior (inferior)
La matriz cuadrada A es triangular superior (inferior) si aij = 0 para i > j
(i < j).
5. Matriz tridiagonal
La matriz cuadrada A es tridiagonal si aij = 0 para |i − j| > 1.
6. Matriz de permutación
Una matriz cuadrada es de permutación si contiene un solo uno en cada fila y
en cada columna. Aparte de esos unos, todos los demás elementos son cero. Se
puede pensar que es cualquier permutación de la matriz identidad.
7. Vectores canónicos
Las columnas de In se denominan vectores canónicos ei y por tanto
In = (e1 e2 · · · en ) .
(A + B) + C = A + (B + C) .
2. Elemento idéntico: La matriz 0 ∈ Rm×n es tal que para toda matriz A ∈ Rm×n
se cumple
0 + A = A + 0 = A.
A + B = B + A.
(α + β) A = αA + βA y α (A + B) = αA + αB.
Matrices y determinantes
21
22 CAPÍTULO 2. MATRICES Y DETERMINANTES
3. A (B + C) = AB + AC y (A + B) C = AC + BC. Distributividades.
1. Una involución si A2 = I.
2. Idempotente o proyector si A2 = A.
1. y ∗x = (x∗ y).
2. y T x = xT y.
3. x∗ x = 0 si y solo si x = 0.
4. Si x es real entonces xT x = 0 si y solo si x = 0.
n
X
5. In = ei eTi .
i=1
24 CAPÍTULO 2. MATRICES Y DETERMINANTES
2.2. Determinantes
El determinante de una matriz cuadrada A de Rn×n o Cn×n se define asi:
X
det (A) = εσ aσ(1)1 aσ(2)2 · · · aσ(n)n ,
σ∈Sn
Las propiedades que presentamos a continuación, son las que queremos destacar
sobre determinantes.
2.3. INVERSA DE UNA MATRIZ 25
7. Si A y B son matrices cuadradas del mismo tamaño, det (AB) = det (A) det (B) .
n
Y
8. Si A es triangular superior o triangular inferior entonces det (A) = aii .
i=1
AA−1 = A−1 A = I.
Si Ax = 0 entonces A es singular.
Si A es no singular entonces Ax 6= 0.
2. Supongamos Ax = b. Si b 6= 0 entonces x 6= 0.
Espacios vectoriales
3.1. Definición
Un espacio vectorial sobre el campo de los números reales es un conjunto V junto
con dos operaciones
+ : V × V −→ V y · : R×V −→ V
tales que
27
28 CAPÍTULO 3. ESPACIOS VECTORIALES
Para cada vector v ∈ V existe un único vector, su inverso aditivo −v, tal
que v + (−v) = (−v) + v = 0.
La suma es conmutativa: v + w = w + v para v, w ∈ V.
3. (α + β) v = αv + βv para α, β ∈ R y v ∈ V.
4. α (v + w) = αv + αw, para α ∈ R y v, w ∈ V.
5. 1v = v para v ∈ V.
3.3. Subespacios
Sea V un espacio vectorial sobre R y sea W ⊆ V , W 6= φ. El subconjunto W
es un subespacio de V si con las operaciones heredadas de V también es un espacio
vectorial. De forma equivalente puede decirse que W es un subespacio de V si y solo
si αv + βw ∈ W para todo v, w ∈ W, α, β ∈ R.
Esta definición significa que lo único que debe revisarse es la clausura de las
operaciones en el subconjunto.
3.5.3. Ejemplos
1. Si S es un subconjunto de un espacio vectorial V y 0 ∈ S, entonces S es un
subconjunto linealmente dependiente.
2. Sg (B) = V.
3.7.1. Suma
La suma de W y Y es W + Y = {w + y : w ∈ W, y ∈ Y }
3.7. SUMAS E INTERSECCIONES DE SUBESPACIOS 31
3.7.2. Intersección
La intersección de W y Y es W ∩ Y = {x : x ∈ W y x ∈ Y }
Sistemas lineales
Ax = b. (4.1)
33
34 CAPÍTULO 4. SISTEMAS LINEALES
donde los (1)′ s en los superíndices indican que pudieron haber cambiado. El resultado
es que se eliminó la incógnita x1 de las últimas n−1 ecuaciones. El sistema modificado
(4.3) y el sistema (4.2) tienen el mismo vector x como solución. Enseguida suponemos
(1)
que a22 6= 0 y repetimos el mismo proceso para el sistema de n − 1 ecuaciones con
n − 1 incógnitas para eliminar la incógnita x2 de las últimas n − 2 ecuaciones. La
repetición de este procedimiento lleva a un sistema con matriz triangular que tiene
la siguiente forma:
El sistema modificado (4.4) y el sistema (4.2) tienen el mismo vector x como solución.
(n−1)
Finalmente, suponemos que ann 6= 0. De la última ecuación en (4.4) despejamos
para obtener el valor de xn . Conocido xn , de la penúltima ecuación, encontramos
el valor de xn−1 . Continuamos este procedimiento de sustitución regresiva (back-
substitution) y obtenemos el vector x que es solución del sistema (4.4) y por tanto
del sistema original (4.2). Como en cada uno de los pasos de sustitución regresiva la
4.1. ELIMINACIÓN DE GAUSS 35
solución obtenida es única, entonces encontramos una única solución para el sistema
(1) (n−1)
(4.2) siempre que los elementos a11 , a22 , . . . , ann ,llamados pivotes, sean no nulos.
Concluimos la demostración utilizando la hipótesis det (A) 6= 0 para garantizar que
siempre se pueden econtrar pivotes no nulos. Supongamos que a11 = 0. Buscamos en
la primera columna un elemento no nulo, digamos ak1 e intercambiamos las filas 1 y
k en los dos lados de la igualdad (4.2). El elemento no nulo de la primera columna
existe porque si la columna fuera nula entonces det (A) = 0. El sistema con las filas
intercambiadas tiene la misma solución x que el sistema original excepto el orden
de las componentes en el vector x. Más precisamente, si pensamos en (4.2) como un
sistema de n ecuaciones, el sistema con dos ecuaciones intercambiadas tiene las mis-
mas soluciones que el sistema original. Para considerar el análogo al sistema reducido
(1)
(4.3), hacemos el mismo razonamiento. Si a22 = 0, escogemos un elemento no nulo,
(1)
digamos ak2 con k > 2, e intercambiamos las filas 2 y k. La existencia del elemento no
nulo en las filas siguientes a la segunda de la segunda columna de (4.3) se justifica de
nuevo por la hipótesis det (A) 6= 0. Si la columna 1 de la submatriz (n − 1) × (n − 1)
de A, consistente en las filas 2, . . . , n y las columnas 2, . . . , n, fuera nula, entonces
el determinante de la submatriz sería 0 y por la expansión en cofactores (2.1) para
la columna 1 de la matriz en (4.3), se tendría det (A) = 0. Debe tenerse en cuenta
que si hay intercambios de filas el determinante cambia a lo sumo en el signo. Este
(i−1)
argumento se puede continuar y concluir que los pivotes aii , i = 3, . . . , n son no
nulos o se pueden hacer no nulos por intercambio de filas.
Enseguida relacionamos vectores canónicos con inversas de matrices y sistemas
lineales.
Consideremos de nuevo el sistema (4.1) y supongamos que det (A) 6= 0. Ahora
definamos n sistemas lineales
Ax(i) = ei , i = 1, . . . , n. (4.5)
AC = I. (4.6)
Por numeral 7 de Teorema 2.10, 1 = det (I) = det (A) det (C) y como det (A) 6= 0
entonces det (C) 6= 0.
Lo que hacemos ahora es plantear sistemas de la forma (4.5) para la matriz C
que tiene determinante no nulo. Llegamos a una matriz X tal que
CX = I. (4.7)
36 CAPÍTULO 4. SISTEMAS LINEALES
Nota 4.3. Si Ax = b y det (A) 6= 0, entonces el sistema tiene una única solución
dada por
x = A−1 b.
Aunque de importancia teórica, esta expresión no proporciona un método práctico
para encontrar la solución de una ecuación lineal.
AA−1 = A−1 A = I.
Tomando determinante, 1 = det (I) = det (AA−1 ) = det (A) det (A−1 ) . Ninguno de
estos factores puede ser nulo, en particular, det (A) 6= 0.
L(1) Ax = L(1) b,
donde
1
−l21 1
−l31 0 1
L(1) = (4.8)
.. .. ..
. . .
−ln1 0 · · · 0 1
4.2. FORMULACIÓN MATRICIAL DE LA ELIMINACIÓN DE GAUSS 37
ai1
con li1 = , i = 2, . . . , n.
a11
El paso k se realiza por premultiplicación por la matriz
1
.
0 ..
0 1
(k)
L = .. .. .. , (4.9)
. . −l .
k+1,k
.
.
.
0 0 −ln,k 0 1
(k−1)
aik
donde lik = (k−1)
, i = k + 1, . . . , n.
akk
El sistema triangular (4.4) se puede escribir
b
LAx b con L
= Lb, b = L(n−1) · · · L(2) L(1) . (4.10)
A = LU. (4.11)
b
LAx b
= Lb, b = L(n−1) P (n−1) · · · L(2) P (2) L(1) P (1)
L (4.12)
38 CAPÍTULO 4. SISTEMAS LINEALES
b−1 U
A=L (4.13)
Teorema 4.5. Si A es una matriz invertible de Rn×n entonces existe una matriz de
permutación P tal que
P A = LU (4.14)
donde L es triangular inferior con unos en la diagonal y U es triangular inferior.
P A = LU.
4 4 4 4
2 2 2 2
Ejemplo 4.6. Sea A =
1 0 1 0 . En la eliminación de Gauss se necesita
1 1 1 1
intercambiar filas 2 y 3 para poder finalizarla. Sea
1 0 0 0
0 0 1 0
P = 0 1 0 0 .
0 0 0 1
4.3. NOTA MATLAB 39
El producto P A es
4 4 4 4
1 0 1 0
PA =
2
2 2 2
1 1 1 1
y la eliminación de Gauss de P A no requiere intercambios y usa los multiplicadores
l21 = − 41 , l31 = − 12 y l41 = − 41 . Dicha eliminación lleva a la matriz
4 4 4 4
0 −1 0 −1
U =
Por tanto
1
1/4 1
L(1) =
1/2 0 1
1/4 0 0 1
es tal que P A = L(1) U.
Nota 4.7. Se acostumbra omitir los elementos nulos de las matrices siempre que no
haya confusión.
a = [1, 2, 3; 4, 5, 6; 7, 8, 0];
[l, u, p] = lu (a) ;
Nótese que se hubiera podido realizar eliminación de Gauss sin intercambio de filas.
Aquí aparecen intercambios debido a la estrategia de pivoteo parcial.
40 CAPÍTULO 4. SISTEMAS LINEALES
4.4. Invertibilidad
Terminamos esta sección con algunas equivalencias para invertibilidad de matri-
ces.
Teorema 4.8. Sean A ∈ Rn×n . Las siguientes condiciones son equivalentes:
1. det (A) 6= 0.
La ecuación Ax = 0 se escribe
n
X
0 = Ax = xi A∗i .
i=1
Los asteriscos indican elementos que pueden ser no nulos y en la columna k − ésima
el elemento diagonal y todos los que hay debajo son cero. Nótese que si k = 1, la
primera columna de A es nula y asi Ae1 = 0, lo cual contradice 4. Por consiguiente
k ≥ 2.
La matriz A(1) es triangular superior, invertible, de tamaño (k − 1) × (k − 1) , a es
un vector de tamaño (k − 1) , B es (k − 1) × (n − k) y C es (n − k + 1) × (n − k) .
El sistema A(1) x(1) = a tiene solución x(1) , por tanto
(1) x(1) (1) (1)
A a B A x −a
−1 = = 0.
0 0 C 0
0
Esto significa que hay un vector no nulo x b tal que Ab bx = 0. Pero, de acuerdo con
(4.12),
Ab = L(k−1) P (k−1) · · · L(1) P (1) A
donde las matrices L(i) son las matrices triangulares inferiores y las matrices P (i) son
las matrices de permutación que surgen en la eliminación de Gauss. Tenemos:
bx = L(k−1) P (k−1) · · · L(1) P (1) Ab
0 = Ab x.
Nota 4.9. Hay otras equivalencias para la no singularidad de una matriz y también
hay otros métodos de demostración, por ejemplo aquellos basados en valores propios.
3. De ser necesario, se intercambia la fila i con una fila inferior para traer un
número distinto de cero a la posición (i, j) y después, se anulan los elementos
de las posiciones inferiores a la del pivote (i, j) .
4. Si la i − ésima fila de U y todas las que están debajo son nulas, el proceso está
completo.
43
44 CAPÍTULO 5. FORMA ESCALONADA REDUCIDA Y RANGO
Definición 5.1. Se dice que una matriz A ∈ Rm×n , con filas Ai∗ y columnas A∗j , está
en forma escalonada por filas (row echelon form), si se cumplen las dos condiciones
siguientes:
1. Si Ai∗ es una fila nula, entonces todas las filas debajo de ella también son nulas.
Definición 5.3. Una matriz A ∈ Rm×n está en forma escalonada reducida por filas
(reduced row echelon form) si se cumplen las siguientes condiciones:
3. Todos los elementos encima de cada pivote en su misma columna son ceros.
Las matrices en forma escalonada reducida por filas tienen la siguiente forma:
1 ∗ 0 0 ∗ ∗ 0 ∗
1 0 ∗ ∗ 0 ∗
1 ∗ ∗ 0 ∗
1 ∗
1 2 3 3
Ejemplo 5.4. Sea A = 2 4 6 9 . Usando solamente operaciones elemen-
2 6 7 6
tales de tipo E1 y E3, realizamos el siguiente proceso de eliminación que no tiene
estrategias de pivoteo:
1 2 3 3 1 2 3 3 1 2 3 3
2 4 6 9 −→ 0 0 0 3 −→ 0 2 1 0 .
2 6 7 6 0 2 1 0 0 0 0 3
Nota 5.5. Para una matriz invertible A su forma escalonada reducida es la matriz
identidad. El proceso de eliminación en este caso se denomina de Gauss Jordan. Se
caracteriza por la utilización de operaciones E2 para la obtención de los unos de la
diagonal.
I − uv T , (5.1)
46 CAPÍTULO 5. FORMA ESCALONADA REDUCIDA Y RANGO
y S (2) = I − (1 − β) e2 eT2 .
3. Al realizar una operación E3 en I, consistente en tomar β veces la fila 1 y
sumarla a la fila 3, se obtiene
1 0 0
S (3) = 0 1 0
β 0 1
Definición 5.12. A las columnas de A (EA ) que contienen las posiciones de los
pivotes se les llama columnas básicas de A (EA ). A las demás columnas de A
(EA ) se les llama columnas no básicas.
En particular, las relaciones entre las columnas de A y EA son las mismas de manera
que las columnas no básicas de A son combinaciones lineales de las columnas básicas
de A.
Si A ∼ B por columnas, entonces las relaciones lineales entre filas de A también se
dan entre las filas de B.
Luego, si
n
X
A∗k = αj A∗j
j=1
entonces n
X
QA∗k = αj QA∗j
j=1
5.3. RELACIÓN ENTRE COLUMNAS Y FILAS 49
que corresponde a
n
X
B∗k = αj B∗j .
j=1
n
X
Recíprocamente, si B∗k = αj B∗j entonces la multiplicación por Q−1 lleva a A∗k =
j=1
n
X
αj A∗j .
j=1
Nr se denomina forma normal del rango (rank normal form). Es la matriz más
simplificada a la que se puede llegar por medio de operaciones elementales.
Demostración. Se sabe que A ∼ EA por filas y esto significa que existe una matriz no
singular P tal que P A = EA . Las r columnas básicas de EA son vectores canónicos.
Si se intercambian columnas hasta que estos vectores canónicos queden en la posición
superior izquierda, es porque hay una matriz no singular Q1 tal que
Ir M
P AQ1 = EA Q1 = .
0 0
llegamos a
Ir M Ir −M Ir 0
P AQ1 Q2 = = .
0 0 0 I 0 0
Es decir, A ∼ Nr .
Terminamos este capítulo con dos proposiciones que facilitan el trabajo con el
rango.
5.4. FORMA NORMAL DEL RANGO 51
6.1. Definición
Sean V y W espacios vectoriales. Entonces T : V −→ W es una transformación
lineal (TL) de V a W si se cumple
53
54 CAPÍTULO 6. MATRICES Y TRANSFORMACIONES LINEALES
Como esto es válido para todo x pues es válido para todo v, desearíamos concluir que
T C es igual a F A, pero debemos ser cuidadosos pues no disponemos de una definición
para T C. Si las bases B1 y B2 son las bases canónicas respectivas, entonces C y F
son matrices identidad y la igualdad que nos gustaría obtener es T = A pero de
nuevo, falta significado para una igualdad como ésta.
La forma correcta de considerar a las matrices como transformaciones lineales es
a través de la transformación lineal T definida en el numeral 3 del ejemplo 6.1 como
T v = Av. A esta TL también la llamamos A y se habla indistintamente de la matriz
A o de la transformación lineal A. Afortunadamente pensar en A como TL y como
matriz casi nunca genera confusión. A manera de resumen proponemos la siguiente
equivalencia:
A : Rn −→ Rm B : Rp −→ Rn
y .
x 7−→ Ax x 7−→ Bx
B A
p
R −→ R −→ Rm
n
es la TL
C
p
R −→ Rm
x 7−→ Cx = ABx.
La matriz de la TL C es AB.
Esta definición coincide con la definición 5.18 pues los vectores de la forma Av son
las combinaciones lineales de las columnas de A.
ker (A) = {v ∈ Rn : Av = 0} .
6.4. Ortogonalidad
Sea R = {V1 , V2 , . . . , Vk } un subconjunto de vectores no nulos de Rn . Se dice que
R es ortogonal si ViT Vj = 0 para i 6= j y ortonormal si ViT Vj = δij , donde δij es
el delta de Kronecker, es decir,
1 si i = j,
δij =
0 si i 6= j.
2. S ⊕ S ⊥ = Rn .
6.5. CUATRO SUBESPACIOS FUNDAMENTALES 57
⊥
3. S ⊥ = S.
5. (R + S)⊥ = R⊥ ∩ S ⊥ .
6. (R ∩ S)⊥ = R⊥ + S ⊥ .
y
n − r = dim R (A)⊥ = dim ker AT .
n = dim ker (A) + rank (A) = dim ker (A) + dim R (A) .
Demostración. Por
teorema 6.6, n = dim ker (A) + dim
ker (A)⊥ . Por teorema 6.7,
⊥
ker (A) = R AT y por proposición 5.22, dim R AT = dim R (A) = rank (A) .
2. ker (B) ⊆ ker (AB) y si A tiene columnas LI entonces ker (B) = ker (AB) .
Finalizamos este capítulo con las definiciones de valores y vectores propios que
serán importantes posteriormente.
Ax = λx
1.
λ ∈ σ (A) ⇐⇒ A − λI es singular ⇐⇒ det (A − λI) = 0. (6.5)
2.
{x 6= 0 : x ∈ ker (A − λI)}
es el conjunto de los vectores propios asociados con λ. Al subespacio ker (A − λI)
se le llama subespacio propio de A asociado con el valor propio λ.
6.7. NOTA MATLAB 59
En álgebra lineal numérica es de especial importancia tener una idea del tamaño
de una perturbación o de un error. De hecho uno de los asuntos que se estudian es
el condicionamiento, es decir, si en un problema los datos se perturban, ¿qué tan
grande es la diferencia entre la solución exacta del problema y la solución calculada?
Si esta diferencia se parece a la perturbación en los datos, se habla de buen condicio-
namiento y si es muy grande en comparación con la perturbación, se habla de mal
condicionamiento.
Para medir vectores y matrices se usan normas. En este capítulo definimos y
describimos las principales normas. Para escribirlo consultamos principalmente [I],
[M] y [vdG].
61
62 CAPÍTULO 7. NORMAS DE VECTORES Y MATRICES
7.2.1. Definición
Sea N : Cn −→ R. Entonces N es una norma vectorial si para todo x, y ∈ Cn ,
7.2.2. Observaciones
1. La norma vectorial en Rn se define de la misma manera.
N (x) ≥ 0 y N (x) = 0 ⇐⇒ x = 0.
n
! 21
X 1
kxk2 = |xi |2 = (x∗ x) 2 (7.1)
i=1
Para demostrar que (7.1) es una norma vectorial se utiliza la desigualdad de Cauchy-
Schwarz.
7.2. NORMAS DE VECTORES 63
Demostración. Sean x, y ∈ Cn y β ∈ C.
n
! 21 n
! 21 n
! 21
X X X
2. kβxk2 = |βxi |2 = |β|2 |xi |2 = |β|2
|xi |2 = |β| kxk2 .
i=1 i=1 i=1
3. kx + yk22 = (x + y)∗ (x + y) = x∗ x + y ∗x + x∗ y + y ∗ y
≤ kxk22 + 2 kxk2 kyk2 + kyk22 = (kxk2 + kyk2 )2 .
n
! p1
X
kxkp = |xi |p .
i=1
64 CAPÍTULO 7. NORMAS DE VECTORES Y MATRICES
1 1
Teorema 7.3. (Desigualdad de Hölder) Sean x, y ∈ Cn y p
+ q
= 1 para reales p, q
mayores que 1. Entonces
|x∗ y| ≤ kxkp kykq .
7.3.1. Definición
Sea N : Cm×n −→ R. Entonces N es una norma matricial si para todo A, B ∈
Cm×n ,
Asi como antes, la notación usual para norma matricial es k·k . Además, tal como
lo discutimos después de la definición 7.2.1, la propiedad 1. se puede reescribir asi:
donde la traza de A fue definida en 1.1.4. Puede observarse que esta norma se pue-
de pensar como la norma 2 del vector obtenido al hacer un vector fila (columna)
consistente en todas las filas (columnas) de A, una enseguida de la otra.
donde A ∈ Rm×n y x ∈ Rn .
La existencia de este máximo se debe a que toda norma vectorial es una función
continua y el disco kxk = 1 de Rn es un conjunto cerrado y acotado. Más detalles se
pueden encontrar en la sección 5.1 de [M].
De la definición (7.2) se puede deducir que para cualquier norma inducida se
cumple la siguiente condición de compatibilidad
Entre las normas inducidas se destacan las que corresponden a las normas vec-
toriales 1, ∞ y 2. Todas ellas tienen expresiones alternativas a (7.2) para su cálculo
que se resumen asi:
Teorema 7.4. Para A ∈ Rm×n
1. m
X
kAk1 = máx kAxk1 = máx |aij | .
kxk1 =1 j
i=1
2. m
X
kAk∞ = máx kAxk∞ = máx |aij | .
kxk∞ =1 i
j=1
66 CAPÍTULO 7. NORMAS DE VECTORES Y MATRICES
3. p
kAk2 = máx kAxk2 = ρ (AT A).
kxk2 =1
Análisis matricial
67
Capítulo 8
Perturbaciones, errores y
condicionamiento
69
70 CAPÍTULO 8. PERTURBACIONES, ERRORES Y CONDICIONAMIENTO
Insistimos en que hay ocasiones en que las matrices mal condicionadas no causan
problemas en los cómputos y que la frase Garbage in garbage out no se puede aplicar
de forma general en este caso pero si sirve como motivación y para que estemos
prevenidos.
Un concepto del análisis numérico que se aplica mucho en álgebra lineal numé-
rica es el de estabilidad. Se usa para calificar algoritmos asi como el concepto de
condicionamiento se aplica a matrices.
Trefethen y Bau en [TB] pag. 104 dicen:
A stable algorithm gives nearly the right answer to nearly the right question (Un
algoritmo estable da una respuesta casi igual a la correcta cuando la pregunta es casi
la misma que la original.)
Por su parte, Ipsen en [I] pag. 54 dice:
An algorithm is (very informally) numerically stable in exact arithmetic if each
step in the algorithm is not worse conditioned than the original problem. (Un al-
goritmo es, hablando informalmente, estable numéricamente en aritmética exacta si
cada paso del algoritmo no es más mal condicionado que el problema original.)
No intentaremos dar definiciones para estabilidad pero advertimos que hay varias.
Nos quedaremos con las ideas expuestas en los dos libros citados arriba y confiamos
que sean suficientes.
En la redacción de este capítulo utilizamos principalmente [I], [vdG], [TB] y [Da].
En este capítulo consideramos la propagación de errores en suma, multiplicación e
inversión de matrices y en sistemas de ecuaciones. En los siguientes capítulos regre-
saremos a este tema varias veces.
1. El error absoluto en x∗ es |x − x∗ | .
|x − x∗ |
2. Si x 6= 0, el error relativo en x∗ es .
|x|
Ejemplo 8.2. Supongamos x = 10. El error absoluto que resulta de aproximar x con
el número x∗ = 10,2 es 0,2 y el error relativo es 0,02.
Supongamos ahora que x = 0,1. El error absoluto que resulta de aproximar x con el
número x∗ = 0,2 es 0,1 y el error relativo es 1.
8.2. SISTEMA LINEAL 71
a = [1 1/7;0.95 0.14];
ca = cond(a); % numero condicional de a
b = [1;0]; % lado derecho
x = a\b; % solucion exacta
a1 = [1 1/7;1 0.14]; % matriz perturbada
x1 = a1\b; % Solucion con a perturbada
ea1 = norm(x1-x); % error absoluto en x1
er1 = norm(x1-x)/norm(x); % error relativo en x1
b2 = [1;-0.2]; % lado derecho perturbado
x2 = a\b2; % solucion con lado derecho perturbado
ea2 = norm(x2-x); % error absoluto en x2
er2 = norm(x2-x)/norm(x); % error relativo en x2
los_b = [b,b2]; % los dos vectores b
los_x = [x x1 x2]; % las tres soluciones: x exacta, x1, x2
los_ea = [ea1 ea2]; % los dos errores absolutos
los_er = [er1 er2]; % los dos errores relativos
y1 = @(x) 7*(1-x); % recta 1
y2 = @(x) -(0.95/0.14)*x; % recta 2
xx = linspace(-100,100); % dominio
plot(xx,y1(xx),’r’,xx,y2(xx),’k–’) % grafica
grid on
hold on
plot(x(1),x(2),’kd’,’MarkerSize’,12,’MarkerFaceColor’,[0.5,0.5,0.5],...
’MarkerEdgeColor’,’r’)
plot(x1(1),x1(2),’ks’,’MarkerSize’,12,’MarkerFaceColor’,[0.5,0.5,0.5],...
’MarkerEdgeColor’,’b’)
72 CAPÍTULO 8. PERTURBACIONES, ERRORES Y CONDICIONAMIENTO
−200
−400
−600
−800
−100 −50 0 50 100
plot(x2(1),x2(2),’ko’,’MarkerSize’,12,’MarkerFaceColor’,[0.5,0.5,0.5],...
’MarkerEdgeColor’,’g’)
legend(’recta 1’,’recta 2’,’x’,’x1’,’x2’)
title(’Dos rectas casi paralelas’)
%%%
1 1
los_b = ,
0 −0,2
32,6667 −49 39,3333
los_x = , ,
−221,6667 350 −268,3333
los_ea = [577,4705 47,1405]
los_er = [2,5773 0,2104]
De estos resultados se puede concluir que perturbar esta matriz puede llevar a un
sistema con solución que en nada aproxima a la solución del sistema original. Una
perturbación del vector del lado derecho generó un sistema con solución menos lejana
a la solución del sistema original.
En el código aparece el número de condición de una matriz. Lo definimos a con-
tinuación.
8.3. CONDICIONAMIENTO DE NORMAS MATRICIALES 73
Definición 8.4. Para una norma matricial k·k dada, el número de condición de una
matriz invertible A se define como cond (A) = κ (A) = kAk kA−1 k .
Veremos que este número surge naturalmente en estudios de condicionamiento y
que 1 ≤ κ (A) < ∞. Mientras mayor es κ (A) más mal condicionada es la matriz.
Ahora, A = (A + E) − E y
kAk ≤ kA + Ek + kEk
luego
− kEk ≤ kA + Ek − kAk .
donde
kUε − Ukp kVε − V kp
εU = y εV = . (8.2)
kUkp kV kp
74 CAPÍTULO 8. PERTURBACIONES, ERRORES Y CONDICIONAMIENTO
I = (I + E) (I + E)−1 (8.4)
y
1 = kIk =
(I + E) (I + E)−1
≤ (1 + kEk)
(I + E)−1
.
Para la segunda desigualdad, de (8.4) obtenemos
I = (I + E)−1 + E (I + E)−1
y por tanto
1 = kIk ≥
(I + E)−1
−
E (I + E)−1
. (8.5)
Por otro lado,
E (I + E)−1
≤ kEk
(I + E)−1
de donde
(I + E)−1
−
E (I + E)−1
≥
(I + E)−1
− kEk
(I + E)−1
=
(I + E)−1
(1 − kEk) > 0.
Volvemos a (8.5),
1 = kIk ≥
(I + E)−1
−
E (I + E)−1
=
(I + E)−1
−
E (I + E)−1
=
(I + E)−1
(1 − kEk) .
1 1 1
Finalmente, si kEk ≤ 2
entonces 1 − kEk ≥ 2
y por tanto 1−kEk
≤ 2.
Para matrices generales se tiene:
Teorema 8.10. Sea A ∈ Rn×n no singular y sea E ∈ Rn×n tal que kA−1 Ek < 1.
Entonces, A + E es invertible y
kA−1 k
(A + E)−1
≤ .
1 − kA−1 Ek
Si además, kA−1 k kEk ≤ 1
2
entonces
(A + E)−1
≤ 2 kA−1 k .
76 CAPÍTULO 8. PERTURBACIONES, ERRORES Y CONDICIONAMIENTO
Ya estamos listos para probar un teorema sobre el error que se comete cuando en
lugar de invertir una matriz A, se invierte una aproximación de A dada por A + E.
Teorema 8.11. (Inversa de una matriz perturbada) Sea A ∈ Rn×n no singular y sea
E ∈ Rn×n tal que kA−1 Ek < 1. Entonces,
kA−1 Ek
(A + E)−1 − A−1
≤
A−1
.
1 − kA−1 Ek
kEk
pues
(I + F )−1
≤ 2. Pero kF k ≤ kA−1 k kEk = kAk kA−1 k y asi
kAk
(A + E)−1 − A−1
−1
kEk
≤ 2 kAk
A
. (8.6)
kA−1 k kAk
kEk
Nota 8.12. Notemos que el número es el error relativo en A + E. Por tanto el
kAk
estimado (8.6) dice que una cota para el error relativo en (A + E)−1 es un múltiplo
del error relativo en A+E. ¿Qué múltiplo? 2κ (A) . Por consiguiente, mientras mayor
sea κ (A) mayor puede ser el error relativo en (A + E)−1 . Con razón al número κ (A)
se le llama número de condición para la matriz A.
78 CAPÍTULO 8. PERTURBACIONES, ERRORES Y CONDICIONAMIENTO
Capítulo 9
Ax = b (9.1)
tiene una única solución. Ahora, nos interesa considerar el sistema perturbado
(A + E) z = b + r (9.2)
Ae = r. (9.4)
79
80 CAPÍTULO 9. CONDICIONAMIENTO Y SISTEMAS LINEALES
Se dice que el error e satisface la misma ecuación lineal pero con el residual r
kek krk
como lado derecho. Nótese que y son los errores relativos en y y b + r
kxk kbk
respectivamente.
De (9.4), krk = kAek ≤ kAk kek y como e = A−1 r, entonces también kek ≤
kA−1 k krk . La primera desigualdad la dividimos por kAk kxk, la segunda desigualdad
la dividimos por kxk y obtenemos
krk kek kA−1 k krk
≤ ≤ .
kAk kxk kxk kxk
Enseguida usamos las desigualdades
kbk ≤ kAk kxk y kxk ≤
A−1
kbk
y llegamos a
1 krk kek
−1
krk
≤ ≤ kAk
A
. (9.5)
kAk kA−1 k kbk kxk kbk
Con la notación establecida κ (A) = kAk kA−1 k , vemos claramente que a mayor
tamaño del número de condición κ (A) mayor es el rango en el que puede estar el
error relativo en y. Además, la desigualdad (9.5) también dice que el error relativo
en y está acotado por dos múltiplos constantes del error relativo en b + r.
Luego
kek =
(A + E)−1 (r − Ex)
≤
(A + E)−1
kr − Exk
kA−1 k
≤ (krk + kEk kxk)
1 − kA−1 k kEk
kAk kA−1 k krk kEk
= + kxk .
−1
kEk kAk kAk
1 − kAk kA k
kAk
Luego
kek κ (A) krk kEk
≤ +
kxk kEk kAk kxk kAk
1 − κ (A)
kAk
κ (A) krk kEk
≤ + .
kEk kbk kAk
1 − κ (A)
kAk
De esta forma queda estimado el error relativo en z por medio de los errores relativos
en b + r y en A + E. El coeficiente depende de κ (A) y de la relación kA−1 k kEk < 1
kEk kEk
que corresponde a 1 − κ (A) > 0. Si = 0,001 y κ (A) = 900 entonces
kAk kAk
κ (A)
= 9000. De manera que existe la posibilidad de tener un rango amplio
kEk
1 − κ (A)
kAk
para el error relativo en z.
Ly = b
Ux = y.
kEk
A + E = S1 S2 , ε A =
kAk
kr1 k
S1 y = b + r 1 , ε 1 =
kbk
kr2 k
S2 z = y + r 2 , ε 2 = .
kyk
1
Si kA−1 k kEk ≤ 2
entonces
kz − xk
≤ 2κ (A) (εA + ε1 + ε)
kxk
donde
−1
−1
S
S1
ε=
2
ε (1 + ε1 ) .
(A + E)−1
2
y ′′ = f (t, y, y ′) (10.1)
y (a) = α, y (b) = β
83
84 CAPÍTULO 10. SISTEMAS LINEALES ESPECIALES
Con unas condiciones de borde un poco más generales y bajo ciertas hipótesis
sobre f y sus derivadas parciales ft , fy y fy′ , Herbert B. Keller probó un teorema
de existencia y unicidad para el problema (10.1) que puede consultarse en la sección
8.9 de [KC].
Hay un caso particular que es de interés, es el caso lineal dado por
y ′′ = u (t) + v (t) y + w (t) y ′ (10.2)
y (a) = α, y (b) = β
Para discretizar las ecuaciones en los problemas (10.1) y (10.2), utilizamos dife-
rencias finitas, es decir, sustitución de derivadas por diferencias a partir del Teorema
de Taylor, que es probablemente el teorema del cálculo de mayor importancia en
análisis numérico.
El intervalo [a, b] lo dividimos en n + 1 subintervalos [ti , ti+1 ] , i = 0, . . . n, de
longitud uniforme h > 0. Aquí ti = a + ih, 0 ≤ i ≤ n + 1. La relación entre h y n es
b−a
h= .
n+1
La variable continua y la sustituimos por la variable discreta Y, por tanto, Yi es la
aproximación de y (ti ) . En los puntos interiores del dominio discreto, o sea de t1 a
tn , las derivadas las sustituimos por las siguientes diferencias:
Yi−1 − 2Yi + Yi+1
y ′′ se cambia por
h2
Yi+1 − Yi−1
y ′ se cambia por
2h
Además, las condiciones de borde las imponemos asi: Y0 = α, Yn+1 = β. Las
versiones discretas de (10.1) y (10.2) son:
Y0 = α (10.3)
Yi−1 − 2Yi + Yi+1 Yi+1 − Yi−1
2
= f ti , Yi , para i = 1, . . . n
h 2h
Yn+1 = β
y
Y0 = α (10.4)
Yi−1 − 2Yi + Yi+1 Yi+1 − Yi−1
2
= ui + vi Yi + wi para i = 1, . . . n
h 2h
Yn+1 = β,
10.1. PROBLEMAS CON VALORES EN LA FRONTERA 85
Y0 = α (10.8)
Yi−1 − 2Yi + Yi+1 Yi+1 − Yi−1
2
= f ti , Yi , para i = 1, . . . n
h 2h
Yn+1 = β.
Como la función f puede ser no lineal, planteamos una iteración de Newton ([O]
chapter 8) para resolver numéricamente el sistema (10.8) que reordenamos asi:
2 Yi+1 − Yi−1
Fi (Y ) = −Yi−1 + 2Yi − Yi+1 + h f ti , Yi , , i = 1, . . . , n,
2h
con Y0 = α y Yn+1 = β.
10.2. ECUACIÓN DEL CALOR 87
∂Fi
La matriz jacobiana de F es F ′ y el elemento (i, j) de F ′ es ∂Y j
. Por la caracte-
rística especial de Fi que depende solamente de Yi−1 , Yi y Yi+1 , entonces la matriz
jacobiana es tridiagonal y está dada por
∂F ∂F
1 1
∂Y1 ∂Y2
∂F2 ∂F2 ∂F2
∂Y1 ∂Y2 ∂Y3
∂F3 ∂F3 ∂F3
∂Y2 ∂Y3 ∂Y4
F (Y ) =
′
.. .. ..
. . .
∂Fn−1 ∂Fn−1 ∂Fn−1
∂Yn−2 ∂Yn−1 ∂Yn
∂Fn ∂Fn
∂Yn−1 ∂Yn
en el nivel temporal j. Nótese que una condición inicial significa que el vector V 0 es
conocido.
Sea A = trid (r, 1 − 2r, r) la matriz tridiagonal de orden n con elementos diagonales
1 − 2r y elementos super y sub diagonales iguales a r.
1 − 2r r
r 1 − 2r r
.. .. ..
A= . . .
r 1 − 2r r
r 1 − 2r
La igualdad (10.10) se puede escribir
V j+1 = AV j (10.11)
lo que indica que
V j = Aj V 0 . (10.12)
Los iterados consecutivos se consiguen por aplicación de potencias de A a la condición
inicial.
Los métodos explícitos, para que sean útiles, requieren de una condición sobre los
parámetros de discretización. En este caso la condición es
1
r≤ . (10.13)
2
La utilidad no es un término matemático, en realidad lo que se busca es que el método
numérico sea estable y a métodos con restricciones se les llama condicionalmente
estables. Detalles sobre este tema pueden verse en [KC] y [Me].
AV j+1 = V j . (10.15)
AV j+1 = BV j ,
con V j+1 como incógnita. Este es el sistema que debe resolverse para cada iteración
temporal.
Anotamos finalmente que este método también es incondicionalmente estable.
Para trabajar por diferencias finitas debemos hacer una malla de puntos en todo
el cuadrado. Presentamos únicamente el caso en el que la malla es uniforme y el
parámetro de discretización es el mismo en las dos direcciones, x y y.
1
(xi , yj ) = (ih, jh) , i, j = 0, . . . , n + 1, h = .
n+1
Para el problema discreto utilizamos la variable Vij para aproximar a u (xi , yj ) . Nó-
tese que
1 = y5
y4
y3
y2
y1
0 = y0 x1 x2 x3 x4 x5 = 1
0 = x0
Hagamos
Con esta notación y basados en (10.20) y (10.19), el sistema lineal que se debe
10.3. ECUACIÓN DE LAPLACE 93
resolver es:
T −I
−I T −I
A=
(10.22)
−I T −I
−I T
donde
4 −1 −1
−1 4 −1 −1
T =
y −I =
.
−1 4 −1 −1
−1 4 −1
94 CAPÍTULO 10. SISTEMAS LINEALES ESPECIALES
Teorema 11.2. Si A y B de tamaño n×n son semejantes, entonces sus espectros son
iguales o sea σ (A) = σ (B) o en otras palabras, tienen los mismos valores propios.
95
96CAPÍTULO 11. PRIMEROS ALGORITMOS DE FACTORIZACIÓN DE MATRICES
3. Hay un teorema de Schur para matrices reales que usa matrices ortogonales para
la semejanza. Sin embargo, la matriz T no tiene que ser triangular superior en
este caso, pues en la diagonal pueden aparecer bloques 2 × 2 correspondientes
a los valores propios complejos de la matriz A. Para los detalles ver theorem
9.45 de [Da].
5. Sea p (t) un polinomio de grado n con coeficientes reales. Existe una matriz
llamada Matriz Compañera Cp de p (t) y es tal que el polinomio característico de
Cp es precisamente p (t) . Es decir, cada matriz tiene un polinomio característico
asociado y cada polinomio es el polinomio característico de una matriz.
11.2. Factorización LU
El algoritmo para la factorización LU con pivoteo parcial es el siguiente:
1. Si n = 1, entonces P = 1, L = 1 y U = A.
2. Si n > 1, escoja una matriz de permutación Pn tal que
α a
Pn A =
d An−1
donde α es el primer elemento de la primera columna, de arriba hacia abajo,
que tiene la máxima magnitud en dicha columna; esto indica que |α| ≥ kdk∞ .
Factorizamos
1 0 α a
Pn A =
l In−1 0 S
donde l = dα−1 y S = An−1 − la.
3. Calcular Pn−1 S = Ln−1 Un−1 donde Pn−1 es una matriz de permutación, Ln−1
es una matriz triangular inferior con 1′ s en la diagonal y Un−1 es triangular
superior.
1 0 1 0 α a
4. P = Pn , L = ,U= .
0 Pn−1 Pn−1 l Ln−1 0 Un−1
Nota 11.13. El primer sistema a resolver tiene matriz triangular inferior con unos
en la diagonal, el cual se resuelve con una sustitución progresiva. El segundo sistema
tiene matriz triangular superior y por tanto se resuelve con una sustitución regresiva.
En los dos casos se trata de sistemas simplificados.
100CAPÍTULO 11. PRIMEROS ALGORITMOS DE FACTORIZACIÓN DE MATRICES
3. Calcule S = Ln−1 LTn−1 , donde Ln−1 es triangular inferior con elementos diago-
nales positivos.
1
a2 0
4. L = 1 .
aα− 2 Ln−1
Factorización QR
Ax = b
QRx = b
Rx = QT b
101
102 CAPÍTULO 12. FACTORIZACIÓN QR
U T = U, U 2 = I.
p = v T d.
De (12.3),
α
d − 2pv = . (12.4)
0m−1
12.2. LA FACTORIZACIÓN QR 103
A Q R
= 0
0
m×n m×m m×n
Figura 12.1: QR
d1 + 2αv12 = α. (12.5)
Tomamos el signo de α de manera que sign (α) = −sign (d1 ) . De (12.5) se despeja
v12 y de aquí se obtiene v1 , cualquiera de los dos valores se puede usar. Enseguida se
consigue p = −αv1 y con p se sigue de (12.4) que
dj
vj = , j = 2, . . . , m.
2p
12.2. La factorización QR
Sea A una matriz cuadrada real. Veamos que por medio de matrices de Househol-
der se pueden obtener Q ortogonal y R triangular superior tales que A = QR.
104 CAPÍTULO 12. FACTORIZACIÓN QR
Sea
Pr = I − 2w (r) w (r)T , r = 1, . . . , n − 1
donde w (r) se escoge como en (12.2). Escribimos a A en términos de sus columnas
QT = Pn−1 · · · P1
y se obtiene A = QR.
Am = Qm Rm , Am+1 = Rm Qm , m = 1, 2, . . . (12.6)
donde Am = Qm Rm es la factorización QR de Am .
Nótese que Am+1 = QTm Am Qm , lo que implica que todas las matrices de la sucesión
son ortogonalmente semejantes a A. En realidad
Sean
Pm = Q1 · · · Qm y Um = Rm · · · R1 . (12.8)
La matriz Pm es ortogonal y la matriz Um es triangular superior.
De (12.7) obtenemos
Am+1 = PmT A1 Pm , m ≥ 1.
Enseguida usamos (12.7) con m en lugar de m − 1 para llegar a
Q1 · · · Qm−1 Am = A1 Q1 · · · Qm−1 .
Ahora,
Pm Um = Q1 · · · Qm Rm · · · R1
= Q1 · · · Qm−1 Am Rm−1 · · · R1
= A1 Q1 · · · Qm−1 Rm−1 · · · R1
= A1 Pm−1 Um−1 .
Pm Um = Am
1 , m ≥ 1.
(A + E)−1
=
(QR)−1
=
R−1 Q−1
=
R−1
.
2 2 2 2
109
110 CAPÍTULO 13. DESCOMPOSICIÓN EN VALORES SINGULARES (SVD)
A U > VT
= 0
0
m×n m×m m×n n×n
Figura 13.1: SVD
1 1 1
UiT Uj = (AVi )T AVj = V T AT AVj = δij
σi σj σi σj i
1 si i = j
donde δij es la delta de Kronecker definida asi: δij = .
0 si i 6= j
Sea Λ1 = (U1 U2 . . . Ur ) y escojamos Λ2 = (Ur+1 Ur+2 . . . Um ) con la condiciones
UjT A = 0 y kUj k2 = 1
que automáticamente permiten que U = (Λ1 Λ2 ) sea una matriz ortogonal cuyas
112 CAPÍTULO 13. DESCOMPOSICIÓN EN VALORES SINGULARES (SVD)
2. Los valores propios de AT A y AAT son los mismos, es decir, {σi }ni=1 . Esto se
debe a que
AAT = UΣV T V ΣT U T = UΣΣT U T .
Pero ΣΣT = diag (σ12 , σ22 , . . . , σn2 ), es decir, AAT es unitariamente semejante a
la misma matriz diagonal que AT A.
6. σ1 = máxi σi y σn = mı́ni σi .
13.1. LA FACTORIZACIÓN SVD 113
7. Los valores singulares son únicos pero los vectores singulares no lo son. Sin
embargo, por abuso del lenguaje, se acostumbra hablar de la descomposición en
valores singulares de A.
Proposición 13.4. (SVD reducida) Si A = UΣV T es la SV D de A ∈ Rm×n (m ≥
n), entonces se puede obtener también la siguiente factorización
A = UΣ1 V T
1. kAk2 = σ1 .
2. σn = mı́n kAxk2 .
kxk2 =1
n
! 21
X
3. kAkF = σi2 .
i
1
4. Cuando A es n × n no singular, kA−1 k2 = σn
.
σ1
5. Cuando A es n × n no singular, κ2 (A) = kAk2 kA−1 k2 = σn
.
≥ σn kyk2 = σn .
X 12
T
3. kAkF = UΣV F = kΣkF = σi2 .
5. Consecuencia de partes 1 y 2.
= σn + kEyk2 ≤ σn + kEk2 .
Demostración. Sean U = (Ur Um−r ) y V = (Vr Vn−r ) donde Ur , Um−r contienen las
primeras r columnas y las últimas m − r columnas de U respectivamente. Análogo
para V . Resulta que
V1T r
X
A = Ur Σr VrT = (σ1 U1 · · · σr Ur ) ... = σj Uj VjT , (13.3)
VrT j=1
2. Las columnas de Vn−r forman una base ortonormal para ker (A) .
3. Las columnas de Vr forman una base ortonormal para R AT .
4. Las columnas de Um−r forman una base ortonormal para ker AT .
αi σi = 0 para todo i y como todos los σi son no nulos, entonces son los αi los
que deben anularse. Esto implica que Σr VrT tiene filas LI y por teorema 6.10,
R (A) = R (Ur ) .
2. Sin pérdida de generalidad suponemos ker (A) 6= {0} . De (13.3) A = Ur Σr VrT
y Σr es diagonal sin ceros en la diagonal.
Ur Σr = σ1 U1 · · · σr Ur
y estas columnas son LI, luego ker (A) = ker VrT . Por teorema 6.7,
ker (A) = ker VrT = R (Vr )⊥ .
El subespacio ortogonal de R (Vr ) es R (Vn−r ) y asi queda demostrado el teo-
rema.
3. Aplicar parte 1 a AT .
4. Aplicar parte 2 a AT .
[A] Atkinson, K.E. An introduction to numerical analysis, 2a. ed. John Wiley
and sons, 1989.
[Da] Datta, B.N. Numerical linear algebra and applications, 2a. ed. SIAM, 2010.
[GV] Golub, G. y C.F. Van Loan, Matrix computations, 4a. ed. The Johns Hop-
kins University Press, 2013.
[HH] Higham, D.J. y N.J. Higham, Matlab Guide, 2a. ed. SIAM, 2005.
[HJ] Horn, R.A. y C.R. Johnson, Matrix Analysis, Cambridge University Press,
1990.
117
118 BIBLIOGRAFÍA
[I] Ipsen, I.C.F. Numerical Matrix Analysis, linear systems and least squares,
SIAM, 2009.
[JR] Johnson, L.W. y R.D. Riess, Numerical Analysis, 2a. ed. Addison-Wesley,
1982.
[L] Laub, A.J. Matrix analysis for scientists and engineers, SIAM, 2005.
[Me] Mejía, C.E. Invitación al análisis numérico, 2002, Notas de clase disponibles
en http://medellin.unal.edu.co/~cemejia/doc/vinculos.html
[M] Meyer, C.D. Matrix analysis and applied linear algebra, SIAM, 2000.
[ND] Noble, B. y J.W. Daniel, Applied Linear Algebra, 3a. ed. Prentice-Hall,
1988.
[P] Poole, D. Algebra lineal, una introducción moderna, 2a. ed. Cengage Lear-
ning, 2007.
[SV] Saad, Y. y H.A. van der Vorst, Iterative solution of linear systems in
the 20th century, Journal of Computational and Applied Mathematics 123
(2000) 1-33.
[S4] Stewart, G.W. On the early history of the singular value decomposition,
SIAM Review 35 (1993) 551-566.
[S] Strang, G. Algebra lineal y sus aplicaciones, 4a. ed. Thomson, 2007.
[TB] Trefethen, L.N. y D. Bau III, Numerical linear algebra, SIAM, 1997.