ALAp C2
ALAp C2
ALAp C2
Álgebra de matrices
a11 0 ··· 0
0 a ··· 0
22
. .. .. .. .
.. . . .
0 0 · · · ann
29
30 CAPÍTULO 2. ÁLGEBRA DE MATRICES
1 0 · · · 0
0 1 · · · 0
In = .. .. . . .. (2.1)
. .
. .
0 0 ··· 1
Para más información, consultad el teorema 2.34 de la sección 2.5 sobre ma-
trices partidas. En todo caso, el elemento (i, j) (fila i, columna j) de la matriz
producto AB es:
(AB)ij = ai1 b1j + ai2 b2j + · · · + ain bnj .
Teorema 2.5. Dadas una matriz A de m × n y B y C tales que las sumas y productos
siguientes se pueden realizar, tenemos las siguientes propiedades.
1. A(BC) = (AB)C ( propiedad asociativa )
2. A(B + C) = AB + AC ( propiedad distributiva )
3. (A + B)C = AC + AB ( propiedad distributiva )
4. c(AB) = (cA)B = A(cB) ( c ∈ R escalar )
5. Im A = A = AIn
1. AB , BA,
2. AB = AC no implica que B = C, incluso si A , 0,
3. AB = 0, no implica que A = 0 ó B = 0 ( es decir, hay A , 0, B , 0 tales
que AB = 0 )
−5 2
" # " #
a b
1 −3 1 1 1 1
A= , B = , C = .
c d −3 5 −2 7
0 4
Teorema 2.10. Si A y B son matrices tales que las operaciones siguientes se pueden
realizar, tenemos que
1. (AT )T = A,
2. (A + B)T = AT + BT ,
3. (cA)T = cAT para todo escalar c ∈ R,
4. (AB)T = BT AT .
Proposición 2.13. Si una matriz A tiene una inversa A−1 , entonces esta matriz es
única.
Si ad − bc = 0 entonces A es singular.
La cantidad ad − bc se denomina determinante de A, denotándose
det A = ad − bc (2.4)
Ejercicio 2.18. Demostrad que el teorema 2.17 implica que una matriz A inver-
tible satisface tanto el teorema S como el teorema I del capı́tulo 1.
Se puede pensar que la extracción de la inversa es algo ası́ como “dividir”
por una matriz. Es decir, dada la ecuación Ax = b se puede, si A es invertible,
despejar x de la forma x = A−1 b. Sin embargo, este punto de vista es muy peli-
groso: no todas las matrices pueden “dividir”, sólo las ( cuadradas ) invertibles y
además dividir ... ¿ por la izquierda o por la derecha ? La falta de conmutatividad
complica esta visión, y es mejor pensar escrictamente en multiplicaciones por
inversas, a la izquierda o la derecha según convenga, y abstenerse de hablar de
división alguna.
Ejemplo 2.19. Resolved el sistema
− 7x1 − 5x2 = b1
3x1 + 2x2 = b2
en términos de b1 y b2 .
Teorema 2.20 (Propiedades de la inversa).
(A−1 )−1 = A.
Demostración. El ejercicio 2.18 asegura que hay una posición pivote en cada
columna y en cada fila de A. Pero A es cuadrada, ası́ que la matriz reducida equi-
valente ha de ser la identidad In . Hemos demostrado entonces que “invertible ⇒
equivalente a I”.
Hay que demostrar ahora la implicación contraria, el “sólo si”, es decir “equi-
valente a I ⇒ invertible”. Si una matriz es equivalente a I, es que existe una
secuencia de operaciones elementales de fila que la transforman en la identi-
dad. Cada operación elemental realiza combinaciones lineales de filas, y una
secuencia de operaciones elementales produce una matriz cuyas filas son ciertas
combinaciones lineales de las filas de la matriz inicial. Observando la interpreta-
ción por filas (2.3) del producto de matrices, concluimos que la matriz final, que
en nuestro caso es I, se puede escribir como el producto de una matriz E ( de
n × n ) por la izquierda por la matriz A:
EA = I
0 1 2 1 0 0
h i
A I = 1 0 3 0 1 0
2 −3 8 0 0 1
1 0 0 −9/2 7 −3/2
∼ 0 1 0 −2 4 −1
0 0 1 3/2 −2 1/2
Teorema 2.26 (Teorema de la matriz invertible). Sea A una matriz n×n (cuadrada).
Las siguientes afirmaciones son equivalentes.
a. A es invertible.
b. A es equivalente por filas a la matriz identidad In .
c. A tiene n posiciones pivote (es decir, n pivotes no nulos).
d. La ecuación homogénea Ax = 0 admite sólo la solución trivial.
e. Las columnas de A forman un conjunto linealmente independiente.
f. *
0 1 0
Ejemplo 2.30. Permutación: P12 = 1 0 0;
0 0 1
1 0 0
multiplicación por constante de una fila: L2 (3) = 0 3 0;
0 0 1
1 0 0
suma del mútliplo de una fila a otra: L31 (4) = 0 1 0.
4 0 1
Ep Ep−1 · · · E2 E1 A = U ⇔ EA = U
42 CAPÍTULO 2. ÁLGEBRA DE MATRICES
con
" # " # " #
3 0 −1 5 9 −2
A11 = , A12 = , A13 =
−5 2 4 0 −3 1
h i h i h i
A12 = −8 −6 3 , A22 = 1 7 , A23 = −4 .
6 4
−2 1 " #
B
B = −3 7 = 1
−1 3 B2
5 2
2.5. MATRICES PARTIDAS∗ 43
Resulta que
Hay que señalar que las operaciones de bloques A11 B1 +A12 B2 , etc. son
operaciones de matrices, y las multiplicaciones deben ser realizadas
en el orden escrito.
Utilizando matrices partidas, podemos dar una formulación sucinta de las tres
reglas de multiplicación de matrices. Para ello observamos que dos particiones
particulares son la partición en columnas y en filas:
1. Regla fila-columna
fil1 (A)
fil (A) h
2 i
A · B = .. · col1 (B) col2 (B) · · · coln (B)
.
film (A)
fil1 (A) · col1 (B) fil1 (A) · col2 (B) · · · fil1 (A) · coln (B)
fil2 (A) · col1 (B) fil2 (A) · col2 (B) · · · fil2 (A) · coln (B)
= .. .. ..
...
. . .
film (A) · col1 (B) film (A) · col2 (B) · · · film (A) · coln (B)
4. Regla columna-fila
fil1 (B)
h i fil2 (B)
A · B = col1 (A) col2 (A) · · · colp (A) · ..
.
filp (B)
= col1 (A) · fil1 (B) + col2 (A) · fil2 (B) + · · · + colp (A) · filp (B)
∗
2.6. Factorización LU
A = L·U
Ep Ep−1 · · · E2 E1 A = U . (2.10)
Supongamos que tenemos una matriz A tal que en su reducción por filas a for-
ma escalonada no es necesario realizar permutaciones. Entonces las posiciones
pivote que vayamos encontrando estarán en la fila superior de la submatriz que
tratamos. Es posible reducir la matriz a una matriz escalonada U equivalente uti-
lizando solamente operaciones elementales de fila de tipo Li,j (α), sin necesidad
de reescalar con Li (α) las filas. Es más, en la reducción progresiva, la primera
fase en la que hacemos cero todos los elementos que están debajo de los pivotes,
se utilizan sólo operaciones de fila Li,j (α) con i > j. El pivote está en la fila j, y
siempre está por encima del elemento que anulamos, que está en la fila i > j.
Resumiendo,
46 CAPÍTULO 2. ÁLGEBRA DE MATRICES
j
1 ··· 0 ··· 0 ··· 0
.. . . .. .. ..
. . . . .
0 ··· 1 ··· 0 ··· 0
Lij (α) =
.. .. . . .. ..
(2.11)
. . . . .
0 ··· α ··· 1 ··· 0
i
.. .. .. . . ..
. . . . .
0 ··· 0 ··· 0 ··· 1
(α está en la fila i columna j). Estas matrices tienen dos caracterı́sticas intere-
santes: i) son triangulares inferiores, es decir, por encima de la diagonal principal
todos los elementos son nulos; ii) tienen la diagonal unitaria, es decir, la diagonal
principal está compuesta de unos.
Ejercicio 2.35.
de L. Concluimos que
1 0 0 0
−l 1 0 0
L = 21 .
−l31 −l32 1 0
−l41 −l42 −l43 1
2 1 1
Ejercicio 2.38. Obténgase la factorización LU de A = 4 1 0.
−2 2 1
Ax = LU x = b ⇔ Ly = b, Ux = y
que son triangulares, mucho más fáciles de resolver (aunque sean dos) que el
sistema original no triangular.
n(n − 1) + (n − 1)(n − 2) + · · · + 2 · 1 =
= n2 − n + (n − 1)2 − (n − 1) + · · · + 12 − 1 =
= (1 + 22 + · · · n2 ) − (1 + 2 + · · · + n) =
n(n + 1)(2n + 1) n(n + 1) n3 − n n3
= − = ≈
6 2 3 3
porque recordemos que Pr−1 = Pr al ser una matriz de permutación. Tenemos que
desenmarañar el producto que se encuentra delante de la matriz U , y lo primero
que se tiene que decir es que, en general, no es una matriz L triangular inferior
de diagonal unitaria como antes. Es, como vamos a ver, una versión de ese tipo
de matrices, con las filas permutadas.
Ejercicio 2.39. Demuéstrese que, si Pi,j es una matriz de permutación y Lk,l (α)
una matriz elemental de adición de un múltiplo α de la fila l a la fila k, enton-
ces Pi,j Lk,l (α)Pi,j es una matriz de tipo Lk 0 ,l 0 (α), aunque posiblemente con k 0 y l 0
distintos de k y l: si k = i entonces k 0 = j, si k = j entonces k 0 = i, si l = i enton-
ces l 0 = j y si l = j entonces l 0 = i. Si ni k ni l coinciden con i ó j, entonces k 0 = k,
l 0 = l.
2.7. CUESTIONES ADICIONALES∗ 51
−1
Entonces Er−1 Pr = Lk,j Pi,j+1 , con i > j + 1 según el ejercicio anterior es
es decir
Lk,j Pi,j+1 = Pi,j+1 Lk 0 ,j .
−1 −1
Entonces Er−2 Pr−1 Er−1 Pr = Ll,j−1 Pi 0 ,j Lk,j Pi,j+1 con i 0 > j es
con l 0 > j − 1 y
Pi 0 ,j Ll 0 ,j−1 Pi,j+1 Lk 0 ,j = Pi 0 ,j Pi,j+1 Ll 00 ,j−1 Lk 0 ,j
con l 00 > j − 1. Parece claro que al final todas las permutaciones se pueden pasar
a la izquierda, con el precio de aumentar a veces los primeros ı́ndices k de los Lkj
y quedará. escribir
A = P Lk1 1 Lk2 2 · · · Lkp p U = P LU con 1,2,3,. . . des
el principio
que al ser k1 > 1,. . . ,kp > p es el producto de P , una matriz de permutación,
por una matriz L triangular inferior con diagonal unitaria. Basta invertir P
( obteniéndose otra matriz producto de permutaciones ) para obtener el siguiente
teorema. P puede que ten
estructura.
Teorema 2.40 (Factorización LU permutada). Toda matriz A de m × n se puede
descomponer de la forma
P A = LU
donde P es una matriz de permutaciones ( producto de Pi,j ’s ) L es una matriz
triangular inferior ( producto de Li,j ’s ) cuadrada de diagonal unidad e invertible y U
es una matriz escalonada.
la factorización LDU es
CAD = I · D, ⇔ C · I = D, ⇔ C=D
2.39
Lk,l (α) si k , i ó j, y l , i ó j
Lj,l (α) si k = i, y l , i ó j
Lk,j (α) si k , i ó j, y l = i
Pi,j Lk,l (α)Pi,j =
Li,l (α) si k = j, y l , i ó j
Lk,i (α) si k , i ó j, y l = j
Lj,i (α) si k = i y l = j
Li,j (α) si k = j y l = i
54 CAPÍTULO 2. ÁLGEBRA DE MATRICES
2.9. Resumen