Geometría y Algebra Lineal I
Geometría y Algebra Lineal I
Geometría y Algebra Lineal I
PREFACIO vii
Capı́tulo 3. DETERMINANTES 95
3.1. Definición 95
3.2. Propiedades de los determinantes 97
3.3. Matrices elementales y determinantes 114
3.4. Matrices invertibles y determinantes 116
3.5. Determinante de un producto de matrices 117
3.6. Cálculo de la matriz inversa por determinantes 119
3.7. Regla de Cramer 123
RELACIONES Y FUNCIONES
0.1. Relaciones
1
2 0. RELACIONES Y FUNCIONES
a) a ∼ a ∀ a ∈ A.
b) a ∼ b ⇒ b ∼ a.
c) a ∼ b y b ∼ c ⇒ a ∼ c.
0.2. RELACIONES DE EQUIVALENCIA 3
EJEMPLO 0.8. Se puede definir un ángulo como una figura plana que es
la intersección de dos semiplanos del mismo plano. Esta noción de ángulo
tiene la limitación de que para estos ángulos no es posible definir una suma
con todas las propiedades deseables para las aplicaciones de este concepto,
las que se pueden resumir diciendo que los ángulos con la suma deben formar
un grupo abeliano. Para esto es necesario dar otra definición de ángulo. Uno
de los caminos posibles para llegar a esa definición, consiste en introducir en
el conjunto de los pares ordenados de semirrectas del plano con origen en un
punto O, la siguiente relación de equivalencia. Suponemos sabido que: para
cada par ordenado de semirrectas de origen O, (a,b), existe una única si-
metrı́a axial del plano que transforma a en b, la indicaremos con la notación
s(a,b). Dados dos pares ordenados de semirrectas de origen O, (a,b) y (a’,b’),
definimos (a,b) ∼ (a’,b’) si la simetrı́a axial que transforma a en b’, también
transforma b en a’, es decir si s(a,b) = s(b,a). Las propiedades reflexiva y
simétrica se verifican trivialmente. Para demostrar que la relación es transi-
tiva, debemos probar que si s(a,b’) = s(b,a’) y s(a’,b”) = s(b’,a”) entonces
s(a,b”) = s(b,a”). .El resultado de aplicar sucesivamente tres simetrı́as cuyos
ejes pasan por un punto fijo O, es una simetrı́a”. De lo anterior surge que
al aplicar sucesivamente s(a,b’), s(b’,a”) y s(a”,b”), se lleva a a en b”, por
lo que esta composición es, efectivamente, s(a,b”). Análogamente, aplicando
s(b,a’), s(a’,b”) y s(a”,b”), se obtiene s(b,a”). De lo anterior y observando
que: s(a,b’) = s(b’,a)
s(a”,b’) = s(b’,a”)
s(a”,b”) = s(b”,a”)
tenemos que: s(a,b”) = s(b”,a). !
FIGURA 2.1
Según esta definición, cada elemento de A junto con todos sus equiva-
lentes, constituyen un elemento de A/R. Es por esto que a veces se dice que
A/R se obtiene identificando cada elemento de A con todos sus equiva-
lentes. La utilidad de las relaciones de equivalencia proviene precisamente
de que permiten en esta forma construir un conjunto de objetos nuevos, las
clases de equivalencia, a partir de ciertos objetos dados, los elementos de A.
Para individualizar un elemento de A/R, es decir una clase de A, se pue-
de tomar un representante cualquiera de esa clase. Usualmente se trata de
elegir un representante que facilite la notación o el cálculo.-
0.3. CONJUNTO COCIENTE 7
!" ′ ′ # ′ ′ $
cl (a, b) = a , b /a , b ∈ Z, b′ ̸= 0, a.b′ = a′ .b .
Usaremos la notación a / b para la clase de (a,b). La igualdad de clase a
/ b = a’ / b’ significa la equivalencia de los representantes, (a,b) ∼ (a’,b’), o
sea, según la definición de la relación, a.b’ = a’.b. Se demuestra fácilmente
que para todo natural k ̸= 0 es (a.k,b.k) ∼ (a,b) , de aquı́ se deduce que se
puede tomar para cada clase un representante (a,b) con a y b relativamente
primos, es decir, que toda clase se puede escribir en la forma a / b con a y b
primos entre sı́. Se definen los números racionales como los elementos del
conjunto cociente. De acuerdo con esta definición, cada racional, es una clase
de equivalencia a / b, es decir un conjunto de pares enteros.- Designaremos
al conjunto de los números racionales con la letra Q. !
8 0. RELACIONES Y FUNCIONES
0.4. Funciones
u + iv = ρ (cosφ + isenφ)
donde
% u v
ρ= u2 + v 2 > 0, cosφ = √ , senφ = √
2
u +v 2 u + v2
2
Por otra parte, como ρ > 0, existe un real x tal que ρ = ex , luego:
Figura 5.1
" #
g (f h) = idA h = h = g f h′ = idA h′ = h′
Si A = φ, de h : C → A sigue C = φ luego, también en este caso
h = h′ = (φ, φ, φ).
Mostraremos que esta propiedad caracteriza las funciones inyectivas, es
decir que toda f para la cual fh=fh’ implica h=h’ es inyectiva. Supongamos
que f : A → B no sea inyectiva y sean x, x′ ∈ A , x ̸= x′ , tales que f (x) =
f (x′ ). Sea C un conjunto formado por un único elemento c, definimos h :
C → A con h (c) = x y h′ : C → A con h′ (c) = x′ . Entonces (f h) (c) =
(f h′ ) (c) = f (c), es decir fh=fh’, pero h ̸= h′ , contrario a la hipótesis. Luego
f es inyectiva.
" #
g = g idB = f f g′ = (gf ) g′ = idA g′ = g′
Esto demuestra que si f tiene inversa a la izquierda e inversa a la derecha
entonces cualquier inversa a la izquierda es igual a cualquier inversa a la
derecha, por lo tanto hay un único inversa a la izquierda, un único inversa
a la derecha y son iguales. En tal caso decimos que este es la inversa de f
y lo denotaremos f −1 .
Si f tiene inversa, según los teoremas 0.3 y 0.4, f es biyectiva, por los
mismos teoremas tiene inversa a la izquierda e inversa a la derecha que, como
acabamos de observar, son iguales entre sı́. Si f es biyectiva con dominio
vacı́o, debe ser de codominio vacı́o, entonces f = (φ, φ, φ). Esta función
tiene inverso f −1 = f , por lo tanto también en este caso vale el enunciado
recı́proco. Ası́ queda demostrado el corolario siguiente.
1.1. Introducción
1
En nuestro cursos los números que consideraremos pertenecen al cuerpo de los reales
o de los complejos
19
20 1. ECUACIONES LINEALES Y MATRICES
ax = b
EJEMPLO 1.2. ⎧
⎪
⎨ x=1
(S) y = 3
⎪
⎩
z=2
es un sistema 3 × 3. Trivialmente se observa que Sol(S) = {(1, 2, 3)}.
!
2
En general, salvo que se indique lo contrario, las soluciones se consideraran en el
mismo conjunto de números que los coeficientes
3
Veremos más adelante que si un sistema lineal admite más de una solución entonces
necesariamente debe admitir infinitas
1.1. INTRODUCCIÓN 21
EJEMPLO 1.3. ⎧
⎪
⎨ x + y + 2z = 8
(S) 2y + z = 8
⎪
⎩
z=2
es también un sistema 3 × 3. Aquı́ con algo más de trabajo también se puede
deducir fácilmente el conjunto solución. Para esto basta observar que de
abajo hacia arriba cada ecuación tiene exactamente una incógnita más que
la siguiente, por este motivo se dice que el sistema esta “escalerizado”. De
la última ecuación se despeja
z=2
Con este valor de z sustituimos en al segunda ecuación y tenemos
2y + 2 = 8 =⇒ 2y = 6 =⇒ y=3
x + 3 + 2(2) = 8 =⇒ x=1
Observemos que en los ejemplos 1.2 y 1.3 los conjuntos solución son
iguales, cuando esto ocurra diremos que los respectivos sistemas son equi-
valentes.
EJEMPLO 1.4. ⎧
⎪
⎨ x + y + 2z = 8
(S) x−y+z =0
⎪
⎩
x+y+z =6
Las cosas aquı́ no son tan claras. Una estrategia para resolverlo, inspirada
en los ejemplos anteriores podrı́a ser, la de sustituir el sistema (S) por otro,
(S ′ ) equivalente y “escalerizado” de modo de poder resolver (S ′ ) (y por
ende (S) ya que al ser equivalentes los conjuntos solución de ambos sistemas
22 1. ECUACIONES LINEALES Y MATRICES
por lo tanto
(α1 , α2 , . . . , αn ) ∈ Sol(S ′ ).
Igual que antes es claro (α1 , α2 , . . . , αn ) debe verificar todas las ecuaciones
de (S) salvo tal vez la i-esima pero como
y
aj1 α1 + aj2 α2 + · · · + ajn αn = bj
24 1. ECUACIONES LINEALES Y MATRICES
se deduce que
ai1 α1 + ai2 α2 + · · · + ain αn = bi
Naturalmente las cuestiones que se imponen ahora son las de saber si cual-
quier sistema puede ser “escalerizado” mediante transformaciones elemen-
tales y en caso afirmativo determinar un método o algoritmo que permita
hacerlo. Volvamos a analizar el ejemplo 1.4.
1.2. Matrices
⎛ ⎞
a11 a12 ... a1n
⎜ ⎟
⎜ a21 a22 ... a2n ⎟
A=⎜
⎜ .. .. .. .. ⎟
⎟
⎝ . . . . ⎠
am1 am2 . . . amn
3y − 33 = −27 =⇒ 3y = 6 =⇒ y=2
x + 2 + 6 = 9 =⇒ x=1
EJEMPLO 1.8.
⎛ ⎞ ⎛ ⎞
2 1 0 1 2 1 0 1
⎜ 0 3 2 1 ⎟ ⎜ 0 0 3 1 ⎟
⎜ ⎟ ⎜ ⎟
(1.8.a) ⎜ ⎟ (1.8.b) ⎜ ⎟
⎝ 0 0 2 1 ⎠ ⎝ 0 0 0 2 ⎠
0 0 0 4 0 0 0 0
⎛ ⎞ ⎛ ⎞
1 0 4 0 1 1 0 1 0
⎜ 0 1 2 0 ⎟ ⎜ 0 0 1 2 0 ⎟
⎜ ⎟ ⎜ ⎟
(1.8.c) ⎜ ⎟ (1.8.d) ⎜ ⎟
⎝ 0 0 0 1 ⎠ ⎝ 0 0 0 0 1 ⎠
0 0 0 0 0 0 0 0 0
obtener la forma reducida para esto fijamos la tercera fila como “pivot” y
la combinamos con la primera y segunda de modo que las entradas en las
posiciones 1, 3 y 2, 3 se anulen
⎛ ⎞ ⎛ ⎞
2 4 2 −2 2 4 0 −6 ←− F1 − F3
⎜ ⎟ ⎜ ⎟
⎝ 0 −1 1 1 ⎠ ∼ ⎝ 0 −1 0 −1 ⎠ ←− F2 − 12 F3
0 0 2 4 0 0 2 4
Combinando la segunda fila con la primera obtenemos un cero en la posición
1, 2
⎛ ⎞ ⎛ ⎞
2 4 0 −6 2 0 0 −10 ←− F1 + 4F2
⎜ ⎟ ⎜ ⎟
⎝ 0 −1 0 −1 ⎠ ∼ ⎝ 0 −1 0 −1 ⎠
0 0 2 4 0 0 2 4
Para obtener la forma reducida solo resta obtener unos en las entradas no
nulas de cada fila
⎛ ⎞ ⎛ ⎞
2 0 0 −10 1 0 0 −5 ←− 12 F1
⎜ ⎟ ⎜ ⎟
⎝ 0 −1 0 −1 ⎠ ∼ ⎝ 0 1 0 1 ⎠ ←− −F2
0 0 2 4 0 0 1 2 ←− 12 F3
El sistema resultante, equivalente a (S) es
⎧
⎪
⎨ x = −5
′
(S ) y=1
⎪
⎩
z=2
y por lo tanto el sistema es compatible determinado con Sol(S) = {(−5, 1, 2)}.
Obsérvese que en 1.1 la escalera que se obtuvo tiene todos sus “escalones”
de ancho una columna. Esto implica que en el correspondiente sistema cada
ecuación tenga exactamente una incógnita más que la inmediata inferior. !
0=4
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ −1 −2 1 1 0 −1 0 ⎟
⎜ ⎟
⎜ 1 2 1 2 5 3 1 ⎟
⎜ ⎟
⎜ ⎟
⎝ 1 2 1 0 1 3 3 ⎠
1 2 1 4 9 3 −1
Como antes el proceso comienza fijando la primera fila como pivot y utili-
zando su primera entrada para lograr anular el resto de la primera columna.
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ −1 −2 1 1 0 −1 0 ⎟
⎜ ⎟
⎜ 1 ⎟
⎜ 1 2 1 2 5 3 ⎟∼
⎜ ⎟
⎝ 1 2 1 0 1 3 3 ⎠
1 2 1 4 9 3 −1
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟ ←− F2 + F1
⎜ ⎟
∼⎜⎜ 0 0 2 −1 −3 −2 1 ⎟
⎟ ←− F3 + 2F1
⎜ ⎟
⎝ 0 0 2 1 1 −2 −1 ⎠ ←− F4 − F1
0 0 0 4 8 2 0 ←− F5 − F1
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟
⎜ ⎟
(1.2) ⎜ 0 0 2 −1 −3 −2 1 ⎟∼
⎜ ⎟
⎜ ⎟
⎝ 0 0 2 1 1 −2 −1 ⎠
0 0 0 4 8 2 0
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟
⎜ ⎟
∼⎜
⎜ 0 0 0 −2 −4 −2 0 ⎟ ←− F3 − F2
⎟
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠ ←− F4 − F2
0 0 0 4 8 2 0 ←− F5
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟
⎜ ⎟
⎜ 0 0 0 −2 −4 −2 0 ⎟∼
⎜ ⎟
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠
0 0 0 4 8 2 0
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟
⎜ ⎟
∼⎜⎜ 0 0 0 −2 −4 −2 0 ⎟
⎟
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠
0 0 0 0 0 0 0 ←− F5 + 2F3
34 1. ECUACIONES LINEALES Y MATRICES
⎛ ⎞
1 2 1 0 1 1 1
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟
⎜ ⎟
⎜ 0 ⎟
⎜ 0 0 0 −2 −4 −2 ⎟∼
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠
0 0 0 0 0 0 0
⎛ ⎞
1 2 1 0 1 0 0 ←− F1 − 12 F4
⎜ ⎟
⎜ 0 0 2 1 1 0 1 ⎟
⎜ ⎟
∼⎜⎜ 0 0 0 −2 −4 0 2 ⎟ ←− F3 − 2F4 ∼
⎟
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠
0 0 0 0 0 0 0
⎛ ⎞
1 2 1 0 1 0 0
⎜ ⎟
⎜ 0 0 2 0 −1 0 2 ⎟ ←− F2 + 12 F3
⎜ ⎟
∼⎜
⎜ 0 0 0 −2 −4 0 2 ⎟
⎟ ∼
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠
0 0 0 0 0 0 0
⎛ ⎞
3
1 2 0 0 2 0 −1 ←− F1 − 12 F2
⎜ ⎟
⎜ 0 0 2 0 −1 0 2 ⎟
⎜ ⎟
(1.3) ∼⎜
⎜ 0 0 0 −2 −4 0 2 ⎟
⎟ ∼
⎜ ⎟
⎝ 0 0 0 0 0 −2 −2 ⎠
0 0 0 0 0 0 0
⎛ ⎞
3
1 2 0 0 2 0 −1
⎜ ⎟
⎜ 0 0 1 0 − 12 0 1 ⎟ ←− 12 F2
⎜ ⎟
∼⎜⎜ 0 0 0 1 2 0 −1 ⎟ 1
⎟ ←− − 2 F3
⎜ ⎟
⎝ 0 0 0 0 0 1 1 ⎠ ←− − 12 F4
0 0 0 0 0 0 0
1.3. EL MÉTODO DE ESCALERIZACIÓN 35
Despejando se tiene
⎧
⎪
⎪ x1 = −2x2 − 32 x5 − 1
⎪
⎨ x
3 = − 12 x5 + 1
⎪
⎪ x4 = −2x5 − 1
⎪
⎩
x6 =1
Las incógnitas x2 y x5 no pueden determinarse, las otras se obtienen como
función de ellas. Cada valor real elegido libremente de x2 y x5 determina una
solución del sistema (S) Por ejemplo si x2 = 1 y x5 = 0 se obtiene la solución
" #
(−3, 1, 1, −1, 0, 1). Si x2 = 0 y x5 = 1 se tiene la solución − 52 , 0, 12 , −3, 1, 1 .
El sistema es entonces compatible indeterminado y en virtud de que dos de
sus incógnitas pueden elegirse libremente diremos que tiene dos grados de
libertad. El conjunto solución es
23 4 5
3 1
−2x2 − x5 − 1, x2 , − x5 + 1, −2x5 − 1, x5 , 1 , x2 ∈ R, x5 ∈ R
2 2
Vale la pena observar que al igual que en el ejemplo 1.9 el número de esca-
lones de la matriz ampliada y el de la matriz del sistema coinciden. Por esta
razón el sistema resulta compatible. Sin embargo, aquı́ la “escalera” pre-
senta “descansos” o escalones largos (el primero y el tercero). Esto implica
que en el sistema escalerizado algunas ecuaciones tienen por lo menos dos
incógnitas más que la ecuación inmediata inferior, por esto resulta imposible
determinar todas las incógnitas. !
Los ejemplos anteriores parecen indicar que cualquier matriz y por ende
cualquier sistema puede ser escalerizado. Establezcamos este hecho en el
siguiente resultado
36 1. ECUACIONES LINEALES Y MATRICES
4
Un algoritmo es, groseramente hablando, un conjunto de acciones expresadas en un
lenguaje formal y sin ambigüedades que pueden ser comprendidos y ejecutados por una
persona o una máquina.
Este algoritmo es conocido con el nombre de Método de Gauss.
5
Por razones numéricas y para evitar errores de redondeo al resolver sistemas con
ayuda de la computadora resulta muchas veces importante, aún cuando a11 ̸= 0 cambiar
la primera fila por la fila que tenga la primera entrada mayor, este procedimiento se conoce
como pivoteo.
1.3. EL MÉTODO DE ESCALERIZACIÓN 37
⎛ ⎞ ⎛ ⎞
A1 A1
⎜ A2 ⎟ ⎜ A′2 ⎟ ←− A − a21 A
⎜ ⎟ ⎜ ⎟ 2 a11 1
⎜ .. .. ⎟ ⎜ .. .. ⎟ ..
⎜ . . ⎟ ⎜ . . ⎟ .
⎜ ⎟ ⎜ ⎟
⎜ ⎟∼⎜ ⎟
⎜ Ai ⎟ ⎜ A′i ⎟ ←− Ai − aai1 A1
⎜ ⎟ ⎜ ⎟ 11
⎜ .. .. ⎟ ⎜ .. .. ⎟ ..
⎝ . . ⎠ ⎝ . . ⎠ .
Am A′m ←− Am − aam111
A1
⎛ ⎞
a11 a12 ... a1n
⎜ ⎟
⎜ 0 a′22 ... a′2n ⎟
⎜ .. .. .. ⎟
⎜ .. ⎟
⎝ . . . . ⎠
0 a′m2 . . . a′mn
En el segundo paso el objetivo es obtener una nueva matriz que tenga las
entradas de la segunda columna todas nulas salvo tal vez las dos primeras.
Para eso repetimos el procedimiento del paso uno a la sub-matriz que apa-
rece recuadrada.
De nuevo el primer paso es determinar el segundo pivot para esto chequea-
mos que a′22 ̸= 0 de lo contrario cambiamos la segunda fila por otra (de
abajo) con segunda entrada no nula. Podrı́a ocurrir que todas las entradas
de la segunda fila fuesen nulas en ese caso la segunda columna ya tiene el
aspecto adecuado por lo cual el procedimiento se continúa ubicando un pi-
vot en al posición 2, 3 (ver (1.2)en el ejemplo 1.11). Supongamos, para fijar
38 1. ECUACIONES LINEALES Y MATRICES
En las discusiones que realizamos de los ejemplos 1.9, 1.10 y 1.11 se apre-
ciaba cierta relación entre el número de escalones de la forma escalerizada
y la cantidad de soluciones del sistema, en esta sección establecemos con
precisión esta relación describiendo completamente el conjunto solución de
un sistema lineal de ecuaciones en termino de la cantidad de “escalones” del
mismo.
1.4. TEOREMA DE ROUCHE-FROBENIUS 39
(1.4) p≤n
⎛ ⎞
1 0 0 ... ... 0 c1
⎜ 0 1 0 ... ... 0 c2 ⎟
⎜ ⎟
⎜ .. .. .. ⎟
⎜ 0 0 1 . . . ⎟
⎜ ⎟
⎜ . . . .. . . .. .. ⎟
⎜ .. .. .. . . . . ⎟
⎜ ⎟
⎜ . . .. . ⎟
⎜ .. .. . 1 0 .. ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 0 ... ... 0 1 cn ⎠
0 0 ... ... 0 0 0
⎧
⎪
⎪ x1 = c1
⎪
⎪
⎨ x2 = c2
⎪ .. ..
⎪
⎪ . .
⎪
⎩
xn = cn
⎛ ⎞
1 0 ⋆ ... ⋆ 0 ... 0 0⋆ ... ⋆ 0 . . . 0 c1
⎜ ⎟
⎜ 0 1 ⋆ ... ⋆ 0 ... 0 0⋆ ... ⋆ 0 . . . 0 c2 ⎟
⎜ ⎟
⎜ .. . .. .. . . . . ⎟
⎜ . 0
... ... 0 1 . . . .. . . . . . .. ... . . .. .. ⎟
⎜ ⎟
⎜ .. .. . .. .. .. .. . . . . ⎟
⎜ . . . . . . . ..
. . . 0 . . . . . .. ... . . .. .. ⎟
⎜ ⎟
⎜ .. .. . .. . . . . . ⎟
⎜ . . . . . . . ..
. ... . 1 0 .. . . . .. ... . . .. .. ⎟
⎜ ⎟
⎜ .. .. . . ⎟
⎜ . . . . . . . ..
. ... ... 0 1 ⋆ . . . ⋆ 0 . . . .. cs ⎟
⎜ ⎟
⎜ . . . ⎟
⎜ 0 0 . . . . . . .. ... . . . .. 0 0 . . . 0 1 . . . .. cs+1 ⎟
⎜ ⎟
⎜ .. .. . . .. .. . . .. . ⎟
⎜
⎜ . . . . . . . . .. ... . . . .. . . . . . .. .. . 0 .. ⎟
⎟
⎜ . ⎟
⎜
⎜ 0 0 ... ... 0 ... . . . . . . .. 0 . . . 0 0 . . . 1 cp ⎟
⎟
⎜ . ⎟
⎜
⎜ 0 0 ... ... 0 ... . . . . . . .. 0 . . . 0 0 . . . 0 0 ⎟
⎟
⎜ .. .. .. .. .. . .. .. . . . . ⎟
⎜
⎝ . . . . . ... . . . .. . . . . . .. .. . . . .. .. ⎟
⎠
.
0 0 ... ... 0 ... . . . . . . .. 0 . . . 0 0 . . . 0 0
donde las zonas de estrellas representan submatrices con entradas arbitra-
rias.
Para analizar la solución de este sistema intentemos aplicar el algoritmo de
sustitución hacia atrás. Supongamos que s es la primera fila (comenzando
desde abajo) con descanso (escalón de ancho mayor que una columna). Las
ecuaciones s + 1, s + 2, . . . , p son entonces
xs+1 = cs+1
xs+2 = cs+2
..
.
xp = cp
la ecuación s es
xh + as h+1 xh+1 + . . . + ass xs = cs
despejando se tiene
xh = cs − (as h+1 xh+1 + . . . + ass xs )
42 1. ECUACIONES LINEALES Y MATRICES
0=1
6
Recordemos que un resultado de lógica elemental establece que A ⇒ B si y solo si
negación de B ⇒ negación de A
1.5. SISTEMAS HOMOGÉNEOS 43
Se puede observar que todas las soluciones se pueden obtener como combi-
nación lineal de ciertas soluciones fijas. !
ax + by = c.
cada ecuación representa una recta y su solución no es otra cosa que las
coordenadas de los puntos que pertenecen a la intersección de ambas. De
ese modo un sistema 2 × 2 compatible determinado (una única solución)
se corresponde con dos rectas que se cortan en un único punto (ver figura
1.13), un sistema indeterminado (infinitas soluciones) se corresponde con
dos rectas coincidentes y un sistema incompatible con dos rectas paralelas
distintas (ver figuras 1.14 y 1.15 respectivamente).
2
x+y =2
1
2x + y = 2
1 2
Figura 1
2
x+y =2
1 2x + 2y = 4
1 2
Figura 2
2
x+y =1 x+y =2
1
1 2
Figura 3
ÁLGEBRA DE MATRICES
49
50 2. ÁLGEBRA DE MATRICES
⎛ ⎞ ⎛ ⎞
1 1
1 2 0 0 2 −1
⎜ ⎟ ⎜ ⎟
EJEMPLO 2.1. Sean A = ⎝ 1 2 −1 ⎠ y B = ⎝ 2 2 0 ⎠,
√
0 −1 2 1 −2 2
entonces
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 1 1 1
1 2 0 0 2 −1 1 + 0 2 + 2 0 − 1
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 1 2 −1 ⎠ + ⎝ 2 2 0 ⎠ = ⎝ 1+2 2 + 2 −1 + 0 ⎠
√ √
0 −1 2 1 −2 2 0 + 1 −1 − 2 2+2
⎛ ⎞
1 1 −1
⎜ ⎟
= ⎝ 3 4 −1 ⎠
√
1 −3 2+2
!
Resulta útil destacar alguna de las propiedades que tienen estas opera-
ciones.
Propiedades:
[S1] [Conmutativa] A + B = B + A, ∀ A, B ∈ Mm×n .
" # " #
[S2] [Asociativa] A + B + Z = A + B + Z , ∀ A, B, Z ∈ Mm×n .
[S3] [Neutro de la suma] Existe O ∈ Mm×n tal que A + O = O + A = A,
∀ A ∈ Mm×n .
[S4] [Existencia de opuesto] Para cada A ∈ Mm×n existe B ∈ Mm×n tal
que A + B = O (Notación: B = −A).
" #
[P1] [Asociativa del producto] αβ A = α(βA), ∀ α, β ∈ R y A ∈ Mm×n .
2.2. PRODUCTO DE MATRICES 51
p
7
cij = aih bhj
h=1
52 2. ÁLGEBRA DE MATRICES
pues
Vale la pena observar que las matrices no deben ser necesariamente del
mismo tamaño para poder multiplicarlas. De hecho si se mira con cuidado
la definición se observa que para poder hacerlo la cantidad de filas de la
primera debe coincidir con la cantidad de columnas de la segunda. Cuando
esto ocurra se dice que las matrices son conformables. !
⎛ ⎞ ⎛ ⎞
1 2 1 x
⎜ ⎟ ⎜ ⎟
EJEMPLO 2.5. Sea A = ⎝ 2 1 1 ⎠ y X = ⎝ y ⎠ entonces
1 1 2 z
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 2 1 x x + 2y + z
⎜ ⎟⎜ ⎟ ⎜ ⎟
A.X = ⎝ 2 1 1 ⎠⎝ y ⎠ = ⎝ 2x + y + z ⎠
1 1 2 z x + y + 2z
!
⎛ ⎞
1 2 1 8 9
⎜ ⎟
EJEMPLO 2.6. Sea A = ⎝ 2 1 1 ⎠ y X ′ = x y z entonces
1 1 2
⎛ ⎞
8 9 1 2 1 8 9
⎜ ⎟
X ′ A = x y z ⎝ 2 1 1 ⎠ = x + 2y + z 2x + y + z x + y + 2z
1 1 2
⎛ ⎞
b1k
⎜ . ⎟
con B j = ⎜ ⎝ .
. ⎟ la columna k-esima de B. Si A·B = C designemos como
⎠
ank
Ci la fila i-esima y por C k la columna k- esima de C. Entonces C k = A·B k
y Ci = Ai B, es decir que
⎛ ⎞
A·B 1 A·B 2 . . . A·B n
⎜ ⎟
⎜ ⎟
A·B = ⎜ ⎟
⎝ ⎠
...
y
⎛ ⎞
A1 ·B
⎜ ⎟
⎜ A2 ·B ⎟
A·B = ⎜
⎜ .. .. .. ⎟
⎟
⎝ . . . ⎠
Am ·B
La prueba queda como ejercicio a cargo del lector pero el ejemplo siguiente
ilustra las afirmaciones.
⎛ ⎞
0 1 1 1
2 1 0 ⎜ ⎟
EJEMPLO 2.7. Sea A = y B = ⎝ 2 1 ⎠ entonces
1 2 1
1 1
⎛ ⎞
0 1 1 1 0 1
2 1 0 ⎜ ⎟ 4 3
A·B = ⎝ 2 1 ⎠=
1 2 1 6 4
1 1
!
56 2. ÁLGEBRA DE MATRICES
1
Observe el lector que la no conmutatividad del producto de matrices obliga a probar
ambas identidades independientemente, pues en general C(A + B) ̸= (A + B)C.
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 57
⎛ ⎞
1
⎜ −2 ⎟ 8 9
⎜ ⎟
Sea D = ⎜ ⎟ entonces Dt = 1 −2 2 0 . Obsérvese que la tras-
⎝ 2 ⎠
0
puesta de una matriz columna resulta ser un matriz fila. !
Demostración. Ejercicio.
⎧
⎪
⎪ a11 x1 + a12 x2 + . . . + a1n xn = b1
⎪
⎪
⎨ a21 x1 + a22 x2 + . . . + a2n xn = b2
(S) = . ..
⎪
⎪ .. .
⎪
⎪
⎩
am1 x1 + am2 x2 + . . . + amn xn = bm
58 2. ÁLGEBRA DE MATRICES
un sistema
⎛ lineal
⎞ de m ecuaciones con n incógnitas, A la matriz del sistema
b1
⎜ ⎟
⎜ b2 ⎟
y b = ⎜ . ⎟
⎜
⎟ entonces (:
x1 , x
:2 , . . . , x
:n ) es solución de (S) si y solo si
⎝ .. ⎠
bm
⎛ ⎞
x:1
⎜ ⎟
⎜ x:2 ⎟
;
X=⎜ .. ; =b
⎟ cumple que A·X
⎜ ⎟
⎝ . ⎠
x
:n
ai1 : x2 + · · · + ain x
x1 + ai2 : :n = bi , ∀ i = 1, 2, . . . , m ⇐⇒
⎛ ⎞ ⎛ ⎞
a11 : x2 + · · · + a1n x
x1 + a12 : :n b1
⎜ ⎟ ⎜ ⎟
⎜ a21 : x2 + · · · + a2n x
x1 + a22 : :n ⎟ ⎜ b2 ⎟
⎜ .. .. .. ⎟=⎜ .. ⎟ ⇐⇒ AX
; =b
⎜ ⎟ ⎜ ⎟
⎝ . . . ⎠ ⎝ . ⎠
am1 : :2 + · · · + amn x
x1 + am2 x :n bm
a priori no muy natural. Más adelante veremos otras aplicaciones que per-
mitirán comprender más profundamente las motivaciones de la definición.
Por otra parte la ecuación 2.5 recuerda fuertemente la situación que ana-
lizamos en nuestro primer ejemplo 1.1. Al ver el sistema escrito en forma
matricial nos vemos tentados a “pasar dividiendo” A para “despejar” X.
Naturalmente, por el momento, esto carece de sentido pero, si analizamos
con más cuidado el procedimiento utilizado para resolver la ecuación ax = b
observamos que la clave reside en que todo número no nulo tiene inverso,
esto es dado a ∈ R existe a−1 ∈ R tal que a.a−1 = 1. Podrı́amos analizar
la posibilidad de que una matriz tuviese una propiedad análoga pero para
esto necesitarı́amos saber qué puede representar el “1” en nuestro contexto.
De nuevo la clave está en analizar que propiedad abstracta caracteriza a la
unidad real. Rápidamente se observa que el 1 no es otra cosa que el neutro
multiplicativo de R es decir 1 es el único número real que verifica a,1 = a
∀a ∈ R. Veamos que el producto de matrices tiene también un neutro mul-
tiplicativo.
OBSERVACI
⎛ ⎞ ÓN 2.5. El lector puede verificar directamente que si X =
x1
⎜ ⎟
⎜ x2 ⎟
⎜ . ⎟ es una matriz columna cualquiera entonces In ·X = X.
⎜ . ⎟
⎝ . ⎠
xn
Demostración. En efecto
0 1
2 1
EJEMPLO 2.9. La matriz A = es invertible, pues existe B =
1 1
0 1
1 −1
tal que A.B = I y B.A = I (verificarlo) !
−1 2
⎛ ⎞
1 1 0
⎜ ⎟
EJEMPLO 2.10. La matriz A = ⎝ 1 0 −1 ⎠ no es invertible, pues
0 0 0
⎛ ⎞
a b c
⎜ ⎟
para cualquier matriz B = ⎝ d e f ⎠ se cumple que
g h i
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 1 2 a b c a+d b+e c+f
⎜ ⎟⎜ ⎟ ⎜ ⎟
A.B = ⎝ 1 −1 −1 ⎠ ⎝ d e f ⎠ = ⎝ a − g b−h c−i ⎠≠
0 0 0 g h i 0 0 0
⎛ ⎞
1 0 0
⎜ ⎟
̸= ⎝ 0 1 0 ⎠=I
0 0 1
y que
= In
< => ?
(B −1 ·A−1 )(A·B) = B −1 (A−1 ·A) B = B −1 ·B = In
62 2. ÁLGEBRA DE MATRICES
" # " #
A−1 A·X = A−1 ·b ⇐⇒ A−1 ·A X = A−1 ·b ⇐⇒ In ·X = A−1 ·b
⇐⇒ X = A−1 ·b
2
Obsérvese que se debe multiplicar en ambos miembros del mismo lado, pues el pro-
ducto no es conmutativo
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 63
AX = I ⇐⇒
⎛ ⎞ ⎛ ⎞
X1 X2 ... Xn A·X 1 A·X 2 . . . A·X n
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
A⎜ ⎟ = ⎜ ⎟=
⎝ ⎠ ⎝ ⎠
... ...
⎛ ⎞
e1 e2 . . . en
⎜ ⎟
⎜ ⎟
⎜ ⎟ ⇐⇒
⎝ ⎠
...
⎛ ⎞ ⎛ ⎞ ..
xj1 0 .
⎜ . ⎟ ⎜ . ⎟ ..
⎜ .. ⎟ ⎜ .. ⎟ .
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⇐⇒ (Sj ) A ⎜ xjj ⎟ = ⎜ 1 ⎟ ←− lugar j (j = 1, 2, ..., n)
⎜ . ⎟ ⎜ . ⎟ ..
⎜ . ⎟ ⎜ . ⎟
⎝ . ⎠ ⎝ . ⎠ .
xjn 0 ..
.
Como los n sistemas S1 , S2 , . . . , Sn tienen la misma matriz A de coeficientes
(con diferentes términos independientes), se pueden resolver simultáneamen-
te escalerizando la matriz ( A| I ) .. Naturalmente a priori nada asegura que
estos sistemas sean compatibles, podrı́a ocurrir que alguno no lo fuera y en
ese caso no se puede determinar la matriz X y consecuentemente A no
resulta invertible. De hecho A es invertible si y solo si los n sistemas Si ,
i = 1, . . . , n son compatibles.
0 1
2 1
EJEMPLO 2.12. Consideremos la matriz A = . Queremos ha-
4 3
0 1
x11 x12
llar (si existe) la matriz X = tal que AX = I : AX =
x21 x22
0 10 1 0 1 0 1
2 1 x11 x12 2x11 + x21 2x12 + x22 1 0
= = =
4 3 x21 x22 4x11 + 3x21 4x12 + 3x22 0 1
2.3. ECUACIONES MATRICIALES. MATRIZ INVERSA. 65
6 0 10 1 0 1
2x12 + x22 = 0 2 1 x12 0
(S2 ) ⇐⇒ =
4x12 + 3x22 = 1 4 3 x22 1
0 1 0 1
x12 0
⇐⇒ A =
x22 1
0 1 0 1
x12 − 12
Por lo tanto = . Es decir que la inversa de A es
x −2
0 122
3
2 − 12
X= . Como para ambos sistemas la matriz A es la matriz de
−2 −2
coeficientes, los podemos resolver simultáneamente
0 @ 1 0 @ 1
2 1 @@ 1 0 2 1 @@ 1 0
@ ∼ @ ∼
4 3 @ 0 1 0 1 @ −2 1 ←− F2 + (−2)F1
0 @ 1
2 0 @@ 3 −1 ←− F1 − F2
∼ @ ∼
0 1 @ −2 1
0 @ 1
1 0 @@ 32 − 12 ←− 12 F1
∼ @
0 1 @ −2 −2
!
Las filas de una matriz (al igual que las columnas y las soluciones del
sistema) son “colecciones ordenadas de números”. Hagamos entonces, un pe-
queño paréntesis para introducir la noción de “colección ordenada” o n-upla
y ciertas operaciones naturales que se corresponden con las transformaciones
elementales. Estas ideas resultarán de gran importancia en este capı́tulo y
en el resto del curso.
Recordamos que si A y B son dos conjuntos el producto cartesiano de
ambos se define como el conjunto de pares ordenados de elementos de A
yB
A × B = {(a, b) : a ∈ A y b ∈ B}.
Dos elementos (a, b) y (c, d) son iguales si a = c y b = d. Si A = B = R
entonces a
R2 = R × R = {(x, y) : x ∈ R y y ∈ R}
2.4. EL ESPACIO DE n-UPLAS 67
" #
[P1] [Asociativa del producto] αβ X = α(βX) ∀ α, β ∈ R y X ∈ Rn .
[P2] [Neutro del producto] 1.X = X, ∀ X ∈ Rn
[P3] [Distributiva] (α + β)X = αX + βX, ∀ α, β ∈ R y X, Y ∈ Rn .
[P4] [Distributiva] α(X + Y ) = αX + αY , ∀ α ∈ R y X, Y ∈ Rn .
Probemos sólo algunas, las restantes quedan a cargo del lector
[S1] Si X = (x1 , . . . , xn ) y Y = (y1 , . . . , yn ) entonces
EJEMPLO 2.14. Sea A = {(1, 2, 1), (2, −2, 2)} ⊂ R3 entonces (0, 6, 0) es
combinación lineal de A con coeficientes 2 y -1 pues
EJEMPLO 2.15. Sea A = {(1, 2, 1), (2, −2, 2), (1, 1, 1)} combinemos lineal-
mente los vectores de A con coeficientes 3,-1, 0
pues
(2, 1) = (1, 1) + (1, 0) + 0(−1, 1)
pero también
EJEMPLO 2.17. Sea A = {(2, 1), (1, 0)} y X = (1, 1). ¿Es X combinación
lineal de A? Apelando a la definición observamos que la pregunta puede
formularse de manera equivalente como ¿existen números λ1 , λ2 tales que
λ1 (2, 1) + λ2 (1, 0) = (1, 1)?. Ahora bien,
6
2λ1 + λ2 = 1
λ1 (2, 1) + λ2 (1, 0) = (1, 1) ⇐⇒ (S)
λ1 = 1
0 1
2 1 1
El sistema (S) tiene matriz ampliada A|b = de la última ecua-
1 0 1
ción se deduce que λ1 = 1 y sustituyendo en la primera se tiene que λ2 = −1
Nótese que la matriz A tiene como columnas las n-uplas del conjunto B. !
(2.8) Z = β1 Y1 + β2 Y2 + · · · + βm Ym
2.5. DEPENDENCIA LINEAL 71
Reordenando,
Por lo tanto
Z = λ1 X1 + λ2 X2 + · · · + λr Xr
probando que Z es combinación de A.
(1 2 1 4 9 3 − 1) = 2(1 2 1 2 5 3 1) − (1 2 1 0 1 1 1)
EJEMPLO 2.18. Sea B = {(2, 1, 0), (1, 1, 1), (3, 2, 1)} ¿alguna n-upla de B
es combinación lineal de las restantes? Intentemos ver si (2, 1, 0) es combi-
nación de los otros dos.
Para esto debemos determinar si existen λ1 , λ2 ∈ R tales que
⎧
⎪
⎨ λ1 + 3λ2 = 2
(S) λ1 + 2λ2 = 1
⎪
⎩
λ1 + λ2 = 0
sea compatible. Para resolver el sistema (S) escribamos la matriz ampliada
⎛ ⎞
1 3 2
⎜ ⎟
A = ⎝ 1 2 1 ⎠,
1 1 0
al escalerizarla se obtiene
⎛ ⎞
1 3 2
⎜ ⎟
A = ⎝ 0 −1 −1 ⎠
0 0 0
Por lo tanto el sistema (S) es compatible determinado y Sol(S) = {(−1, 1)}.
En consecuencia,
1
(2.10) (1, 1, 1) = (2, 2, 2) + 0(0, 0, 1) y (2, 2, 2) = 2(1, 1, 1) + 0(0, 0, 1)
2
pero sin embargo
pues el sistema ⎧
⎪
⎨ 2λ1 + λ2 = 0
2λ1 + λ2 = 0
⎪
⎩
2λ1 + λ2 = 1
es incompatible. Vale la pena observar también, que la n-upla (0, 0, 1) no
puede despejarse de (2.10) pues en cualquiera de las dos combinaciones
lineales tiene coeficiente nulo. !
entonces λ1 = λ2 = . . . = λm = 0
1. Sea A = {(1, 1, −1), (1, 0, 1), (1, 1, 1)} supongamos que λ1 , λ2 , λ3 son
tres números reales tales que
escalerizándola se obtiene
⎛ ⎞
1 1 1 0
⎜ ⎟
⎝ 0 −1 0 0 ⎠
0 0 −2 0
⎧
⎪
⎪ λ1 + λ2 + 2λ4 + λ5 = 0
⎪
⎨ λ +λ +λ =0
1 3 4
⎪
⎪ 2λ 1 + λ 2 + λ 3 + 3λ4 + λ5 = 0
⎪
⎩
λ2 − λ3 + λ4 = 0
La matriz del sistema es:
⎛ ⎞
1 1 0 2 1 0
⎜ 1 0 1 1 0 0 ⎟
⎜ ⎟
⎜ ⎟
⎝ 2 1 1 3 1 0 ⎠
0 1 −1 1 0 0
Escalerizándola se obtiene:
⎛ ⎞
1 1 0 2 1 0
⎜ 0 1 −1 1 1 0 ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 0 0 0 1 0 ⎠
0 0 0 0 0 0
y en consecuencia la solución es λ1 = −λ3 − λ4 , λ2 = λ3 − λ4 , λ5 = 0,
λ3 , λ4 ∈ R El sistema es entonces compatible indeterminado y por lo
tanto A es L.D. En efecto sustituyendo en (2.12) se tiene que para
cualquier valor real de λ3 y λ4 se cumple que
(−λ3 − λ4 )(1, 1, 2, 0) + (λ3 − λ4 )(1, 0, 1, 1) + λ3 (0, 1, 1, −1) +
λ4 (2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
en particular poniendo por ejemplo λ3 = 1 y λ4 = 2 tenemos que
(−3)(1, 1, 2, 0) + (−1)(1, 0, 1, 1) + (0, 1, 1, −1) +
2(2, 1, 3, 1) + 0(1, 0, 1, 0) = (0, 0, 0, 0)
de donde podemos “despejar” cualquier n-upla salvo la última (tiene
coeficiente cero) como combinación lineal de las restantes. Por ejem-
plo,
1 1
(1, 1, 2, 0) = (1, 0, 1, 1) − (0, 1, 1, −1)
3 3
2
− (2, 1, 3, 1) + 0(1, 0, 1, 0)
3
2.5. DEPENDENCIA LINEAL 79
!
Supongamos que (S) es un sistema n×n indeterminado, cada una de sus
ecuaciones pueden pensarse en cierto sentido como “datos” o “información”
que permite resolver el problema. Si (S) es indeterminado ya hemos visto
que algunas ecuaciones (o filas de su matriz asociada) son combinación de las
restantes, esto puede considerarse como “redundancia en la información” que
estas aportan. Nos interesa saber cuanta es la “información” no redundante
con que contamos y esto es cuantas ecuaciones independientes tienen el
sistema. De nuevo planteamos el problema en el contexto de n-uplas.
DEFINICIÓN 2.10. Sea A ⊂ Rn un conjunto finito, llamaremos rango
del conjunto A a la mayor cantidad de elementos de A que forman un
conjunto L.I.
Naturalmente si A es L.I. entonces rango(A) = card(A). El siguiente
resultado indica un camino para calcular el rango de un conjunto.
PROPOSICIÓN 2.15. Sea A = {X1 , X2 , . . . , Xm } ⊂ Rn un conjunto cual-
quiera y sea B = {Xh1 , Xh2 , . . . , Xhr } ⊂ A un subconjunto de A que cumple
las siguiente dos condiciones:
1. B es L.I.
2. Xs es combinación lineal de B ∀ s ̸= h1 , h2 , . . . , hr
entonces rango(A) = r
Demostración. Como B es L.I. y card(B) = r entonces rango(A) ≥ r. El
resultado estará probado si verificamos que cualquier subconjunto de A con
más de r elementos es L.D.
Sea C = {Xk1 , Xk2 , . . . , Xkq } ⊂ A un subconjunto cualquiera de A con q
elementos, q > r.
Observemos primeramente que la segunda condición de la hipótesis implica
que todos los elementos de A son combinación lineal de B pues cualquier
n-upla es combinación de si misma. Por lo tanto existen números aij , con
i = 1, . . . , r, j = 1, . . . , q tales que
(2.13) Xkj = a1j Xh1 + a2j Xh2 + . . . + arj Xhr , ∀ j = 1, 2, . . . , q
80 2. ÁLGEBRA DE MATRICES
A = {(1, 1, 2, 0), (1, 0, 1, 1), (0, 1, 1, −1), (2, 1, 3, 1), (1, 0, 1, 0)}
2.5. DEPENDENCIA LINEAL 81
del ejemplo 2.20. Ya sabemos que es L.D. por lo cual rango(A) < 5. Nuestra
intención es construir con los elementos de A un conjunto B en las condi-
ciones de la proposición anterior. Para construir un conjunto L.I. con los
elementos de A debemos quitar las n-uplas que sean combinación lineal de
las restantes.
Como ya vimos, en nuestro caso, (1, 1, 2, 0) es combinación de las otras
ası́ que consideramos el conjunto
Escalerizándola se obtiene
⎛ ⎞
1 0 2 1 0
⎜ 0 1 1 0 0 ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 0 0 1 0 ⎠
0 0 0 0
LEMA 2.16. Sea E ∈ Mm×n una matriz escalerizada reducida con p es-
calones ubicados en las columnas j1 , j2 , . . . , jp entonces los conjuntos B =
{E j1 , E j2 , . . . , E jp } de columnas y B ′ = {E1 , E2 , . . . , Ep } de filas cumplen
2.6. EL RANGO DE UNA MATRIZ 83
entonces
(−1)E j + β1 E j1 + β2 E j2 + · · · + βp E jp = O.
Por lo tanto la n-upla (α1 , α2 , . . . , αn ) con
⎧
⎪
⎨ −1, si h = j.
αh = βji , si h = ji para algún i.
⎪
⎩
0 si h ̸= ji para todo i.
es solución del sistema homogénea con matriz E|O y consecuentemente tam-
bién del sistema equivalente A|O por lo tanto
TEOREMA 2.18. Sea A una matriz m×n entonces rangof (A) = rangoc (A)
Todo número real no nulo es invertible, sin embargo tal como se vio en el
ejemplo 2.10 existen matrices no nulas que no poseen inversa, se impone por
lo tanto obtener algún resultado que caracterice a las matrices invertibles,
observemos que de (2.7) se deduce que si A ∈ Mn×n es una matriz invertible
el sistema AX = b es compatible determinado por lo tanto el teorema de
Rouche-Frobenius asegura que rango(A) = n, probaremos en esta sección
como principal resultado que el recı́proco es también cierto.
A·B = In ⇐⇒ A·B j = ej , ∀j = 1, 2, . . . , n
86 2. ÁLGEBRA DE MATRICES
Donde ⎛ ⎞
0
⎜ . ⎟
⎜ .. ⎟
⎜ ⎟
⎜ ⎟
ej = ⎜ 1 ⎟ ←− fila j-esima
⎜ . ⎟
⎜ . ⎟
⎝ . ⎠
0
Ahora bien, como rango(A) = n el teorema de Rouché-Frobenius asegura
que n sistemas de ecuaciones AX = ej con j = 1, 2, . . . , n son compatibles y
consecuentemente se tiene que ∀ j = 1, 2, . . . , n existe B j tal que A·B j = ej .
Por lo tanto eligiendo B como la matriz cuya columna j-esima es B j se tiene
probado el directo.
(⇐) Veamos ahora el recı́proco. Supongamos que existe B tal que A·B = In .
Entonces, llamando B j a la columna j-esima de la matriz B se tiene
⎛ ⎞ ⎛ 1 2 ⎞
A·B 1 A·B 2 . . . A·B n e e . . . en
⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟
⎜ ⎟ = A·B = In = ⎜ ⎟
⎝ ⎠ ⎝ ⎠
... ...
Mirado los extremos de la igualdad anterior se deduce que los sistemas
AX = ej ∀j = 1, 2, . . . , n
son todos compatibles.
El rango(A) ≤ n pues A es n × n, supongamos por absurdo que rango(A) =
r < n. Entonces, en virtud del lema 2.17, una forma escalerizada de la ma-
triz A debe tener r < n escalones (filas no nulas). Por lo tanto, al aplicar
el algoritmo de Gauss a la matriz A alguna fila, supongamos que la h, de-
bió anularse. Pero entonces el sistema AX = eh resulta incompatible pues
al escalerizarlo, la h- esima ecuación se transforma en 0 = 1 y esto na-
turalmente es absurdo pues todos los sistemas AX = ej eran compatibles
∀ j = 1, 2, . . . , n, ası́ que debe ser rango(A) = n como querı́amos.
Estamos ahora en condiciones de probar que que para que una matriz sea
invertible es suficiente que tenga un “inverso a derecha”
2.8. MATRICES ELEMENTALES 87
(⇐) Supongamos que existe X ∈ Mn×n tal que A·X = In entonces por el
lema 2.21 rango(A) = n. De la observación 2.19 se deduce que
rango(At ) = rango(A) = n,
por lo que, utilizando nuevamente el lema 2.21, existe C ∈ Mn×n tal que
At ·C = In . Transponiendo se tiene que
" #t
C t ·A = At ·C = (In )t = In .
Por lo tanto D = C t es una “inversa a izquierda” de A.
Veamos que D = X, en efecto
" # " #
D = D·In = D A·X = D·A X = In ·X = X
entonces
A·X = X·A = In
y consecuentemente A es invertible.
(⇐) Si rango(A) = n el lema 2.21 asegura que existe B ∈ Mn×n tal que
A·B = In pero entonces por el lema 2.9 A es invertible.
2- intercambio de filas
3- sumarle a una fila un múltiplo de otra fila
..
.
⎛ ⎞ ..
1 0 ··· 0 0 0 ··· 0 .
⎜ ⎟ ..
⎜ 0 1 ··· 0 0 0 ··· 0 ⎟ .
⎜ .. .. . . .. .. .. . . .. ⎟
⎜ . . ⎟ ..
⎜ . . . . . . ⎟ .
⎜ .. .. ⎟
⎜ ⎟ ..
⎜ . . ··· 1 0 0 ··· 0 ⎟ .
(2.15) E1 = ⎜
⎜ .. .. ⎟
⎟
⎜ . . ··· 0 α 0 ··· 0 ⎟ ←− Fila i
⎜ .. .. ⎟ ..
⎜ ⎟
⎜ . . ··· 0 0 1 ··· 0 ⎟ .
⎜ .. .. .. .. .. .. . . .. ⎟ ..
⎜ ⎟
⎝ . . . . . . . . ⎠ .
0 0 ··· 0 0 0 ··· 1 ..
.
..
.
operación e1
I −→ E1
2.8. MATRICES ELEMENTALES 89
La matriz
(2.17) ⎛ ⎞
1 ··· ··· ··· ··· ··· ··· ··· ··· ..
⎜ . ⎟ .
⎜ .. .. .. .. .. .. .. ⎟ ..
⎜ . . ··· . . . ··· . ⎟ .
⎜ ..⎟
⎜ ··· ··· 1 ··· ··· ··· ··· ··· .⎟ ←− Fila j
⎜ ⎟
⎜ . .. .. .. .. .. .. ⎟
.. ..
⎜ .. . . 1 . . . . ⎟
. .
⎜ ⎟
⎜ . .. .. .. ⎟
.. ..
E3 = ⎜
⎜ .. . . ··· . ··· ··· ··· ⎟
⎟. .
⎜ . .. .. ⎟.. ..
⎜ .. . . ··· ··· 1 ··· ··· ⎟ . .
⎜ ⎟
⎜ . .. ⎟ ..
⎜ .. . α ··· ··· ··· 1 ··· ⎟ ←− Fila i
.
⎜ ⎟
⎜ . .. .. .. .. .. .. ⎟ .. ..
⎜ . . ⎟ .
⎝ . . . ··· . . . ⎠ .
..
··· ··· ··· ··· ··· ··· ··· ··· 1 .
90 2. ÁLGEBRA DE MATRICES
operación e3
I −→ E3
operación e
A −→ B;
operación e
I −→ E
DETERMINANTES
3.1. Definición
por sus coeficientes, en general no escribiremos los paréntesis con los que en
general encerramos el çuadrado” de los números.
0 1
3 1
EJEMPLO 3.2. (a) Calculemos el determinante de la matriz A =
7 2
⎛ ⎞
3 −4 −3
⎜ ⎟
(b) Calculemos el determinante de la matriz A = ⎝ −1 2 7 ⎠
−2 4 0
|A| = (−1)1+1 a11 |A11 | + (−1)2+1 a21 |A21 | + (−1)3+1 a31 |A31 | =
@ @ @ @ @ @
@ 2 7 @ @ −4 −3 @ @ −4 −3 @
@ @ @ @ @ @
= 3@ @ − (−1) @ @ + (−2) @ @=
@ 4 0 @ @ 4 0 @ @ 2 7 @
= 3 (−28) + (−12) + (−2) (−22) = −52
⎛ ⎞
2 0 1 1
⎜ 2 2 −4 −1 ⎟
⎜ ⎟
(c) Calculemos el determinante de la matriz A = ⎜ ⎟
⎝ −3 1 1 1 ⎠
2 −2 0 0
y por otro
@ @ @ @
@ a @ @ @
@ 11 a12 @ @ a11 a12 @
|A|+|B| = @ @+@ @ = (a11 a22 − a12 a21 )+(a11 b22 − a12 b21 )
@ a21 a22 @ @ b21 b22 @
def
|C| = (−1)1+1 a11 |C11 | + . . . +
(3.18)
+ (−1)i+1 (ai1 + bi1 ) |Ci1 | + . . . + (−1)n+1 an1 |Cn1 |
3.2. PROPIEDADES DE LOS DETERMINANTES 99
@ @
@ a12 ··· a1n @
@ @
@ .. .. @
@ . ··· . @
@ @
@ @
@ ak−12 ··· ak−1n @
@ @
@ ak+12 ··· ak+1n @@
@
|Ck1 | = @ .. .. .. @=
@ . . . @
@ @
@ @
@ ai2 + bi2 · · · ain + bin @
@ .. .. .. @
@ . @
@ . . @
@ @
@ an2 ··· ann @
@ @ @ @
@ a12 ··· a1n @ @ a ··· a1n @@
@ @ @ 12
@ .. .. @ @ .. .. @
@ . ··· . @ @ . ··· . @
@ @ @ @
@ @ @ @
@ ak−12 ··· ak−1n @ @ ak−12 · · · ak−1n @
@ @ @ @
@ ak+12 ··· ak+1n @ @ ak+12 · · · ak+1n @
@ @ @ @
=@ .. .. .. @+@ .. .. .. @ = |Ak1 | + |Bk1 | ;
@ . . . @ @ . . . @
@ @ @ @
@ @ @ @
@ ai2 ··· ain @ @ bi2 ··· bin @
@ .. .. .. @ @ .. .. .. @
@ . @ @ . @
@ . . @ @ . . @
@ @ @ @
@ an2 ··· ann @ @ an2 · · · ann @
@ @
@ a12 ··· a1n @
@ @
@ .. .. @
@ . ··· . @
@ @
@ ai−12 ··· ai−1n @
@ @
Pero como |Ci1 | = @ @ = |Ai1 | = |Bi1 | resulta que
@ ai+12 ··· ai+1n @
@ @
@ .. .. .. @
@ . . . @
@ @
@ an2 ··· ann @
|C| = (−1)1+1 a11 |A11 | + . . . + (−1)i+1 ai1 |Ai1 | + . . . + (−1)n+1 an1 |An1 | +
+ (−1)1+1 a11 |B11 | + . . . + (−1)i+1 bi1 |Bi1 | + . . . + (−1)n+1 an1 |Bn1 |
= |A| + |B|
@ @
@ a a12 @
@ 11 @
|B| = @ @ = a11 αa22 − a12 αa21 =
@ αa21 αa22 @
@ @
@ a @
@ 11 a12 @
= α (a11 a22 − a12 a21 ) = α @ @ = α |A|
@ a21 a22 @
def
(3.19) |B| = (−1)1+1 a11 |B11 | + . . . +
+ (−1)i+1 αai1 |Bi1 | + . . . + (−1)n+1 an1 |Bn1 |
@ @ @ @
@ a12 ··· a1n @ @ a12 ··· a1n @
@ @ @ @
@ .. .. @ @ .. .. @
@ . ··· . @ @ . ··· . @
@ @ @ @
@ @ @ @
@ ak−12 ··· ak−1n @ @ ak−12 ··· ak−1n @
@ @ @ @
@ ak+12 ··· ak+1n @ @ ak+12 ··· ak+1n @
@ @ @ @
|Bk1 | = @ .. .. .. @ = α@ .. .. .. @ = α |Ak1 |
@ . . . @ @ . . . @
@ @ @ @
@ @ @ @
@ αai2 ··· αain @ @ ai2 ··· ain @
@ .. .. .. @ @ .. .. .. @
@ . @ @ . @
@ . . @ @ . . @
@ @ @ @
@ an2 ··· ann @ @ an2 ··· ann @
102 3. DETERMINANTES
@ @
@ a12 ··· a1n @
@ @
@ .. .. @
@ . ··· . @
@ @
@ ai−12 ··· ai−1n @
@ @
y que |Bi1 | = @ @ = |Ai1 |
@ ai+12 ··· ai+1n @
@ @
@ .. .. .. @
@ . . . @
@ @
@ an2 ··· ann @
Demostración. En efecto
@ @ @ @
@ αa αa1n @@ @ a @
@ 11 αa12 · · · @ 11 a12 ··· a1n @
@ @ @ @
@ αa21 αa22 · · · αa2n @ @ αa αa22 ··· αa2n @
|αA| = @@ . . . @ = α @ .21 .. .. @=
. @ @ .. @
@ .. .. .. .. @ @ .. . . . @
@ @ @ @
@ αan1 αan2 · · · αann @ @ αan1 αan2 ··· αann @
@ @ @ @
@ a a · · · a @ @ a ··· @
@ 11 12 1n @ @ 11 a12 a1n @
@ @ @ @
@ a21 a22 · · · a2n @ @ a a22 ··· a2n @
= αα @@ . . . @ = αα . . . α @ 21. .. .. @=
. @ @ .. @
@ .. .. .. .. @ @ .. . . . @
@ @ @ @
@ αan1 αan2 · · · αann @ @ an1 an2 ··· ann @
= αn |A|
3.2. PROPIEDADES DE LOS DETERMINANTES 103
2. Intercambio de filas
Si B es la matriz que se obtiene de A intercambiando dos de sus filas
entonces
@ @ @ @
@ a11 a12 · · · a1n @ @ a11 a12 ··· a1n @
@ @ @ @
@ .. .. .. @ @ .. .. .. @
@ . . ··· . @ @ . . ··· . @
@ @ @ @
@ aj1 aj2 · · · ajn @ @ ai1 ai2 ··· ain @
@ @ @ @
@ .. .. .. @ @ .. .. .. @
|B| = @@ . . ··· . @ = −@
@ @ . . ··· . @ = − |A|
@
@ @ @ @
@ ai1 ai2 ··· ain @ @ aj1 aj2 ··· ajn @
@ @ @ @
@ .. .. .. .. @ @ .. .. .. .. @
@ . . . . @ @ . . . . @
@ @ @ @
@ an1 an2 · · · ann @ @ an1 an2 · · · ann @
⎛ ⎞ ⎛ ⎞
a11 a12 ··· a1n a11 a12 ··· a1n
⎜ .. .. .. ⎟ ⎜ .. .. .. ⎟
⎜ . . ··· . ⎟ ⎜ . . ··· . ⎟
⎜ ⎟ ⎜ ⎟
⎜ a ai2 ··· ain ⎟ ⎜ a ··· ai+1n ⎟
⎜ i1 ⎟ ⎜ i+11 ai+12 ⎟
A=⎜ ⎟ y B=⎜ ⎟
⎜ ai+11 ai+12 ··· ai+1n ⎟ ⎜ ai1 ai2 ··· ain ⎟
⎜ ⎟ ⎜ ⎟
⎜ .. .. .. .. ⎟ ⎜ .. .. .. .. ⎟
⎝ . . . . ⎠ ⎝ . . . . ⎠
an1 an2 ··· ann an1 an2 ··· ann
104 3. DETERMINANTES
⎛ ⎞ ..
a11 a12 ··· a1n .
⎜ .. .. .. ⎟ ..
⎜ . . ··· . ⎟ .
⎜ ⎟
⎜ a ··· ⎟
ai+1n ⎟ ←− Fila i
⎜ i+11 ai+12
Pero siendo B = ⎜ ⎟
⎜ ai1 ai2 ··· ain ⎟ ←− Fila i + 1
⎜ ⎟
⎜ .. .. .. .. ⎟ ..
⎝ . . . . ⎠ .
an1 an2 ··· ann ..
.
Pero
con lo cual
⎛ ⎞ ..
a11 a12 ··· a1n .
⎜ . .. .. ⎟ .
⎜ .. . ··· . ⎟ ..
⎜ ⎟
⎜ ⎟
⎜ ai1 ai2 ··· ain ⎟ ←− fila i de A
⎜ ⎟
⎜ ai+11 ai+12 ··· ai+1n ⎟ ←− fila i + 1 de A
⎜ ⎟
⎜ ⎟ ←−
A = ⎜ ai+21 ai+22 ai+2n ⎟ fila i + 2 de A
⎜ .. .. .. ⎟ .
⎜ . . ··· . ⎟ ..
⎜ ⎟
⎜ ⎟
⎜ ak+11 ak+12 ··· ak+1n ⎟ ←− fila i + k de A
⎜ ⎟
⎜ .. .. .. .. ⎟ ..
⎝ . . . . ⎠ .
an1 an2 ··· ann ..
.
⎛ ⎞ .
a11 a12 ··· a1n ..
⎜ . .. .. ⎟ ..
⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ ⎟
⎜ ai+11 ai+12 ··· ai+1n ⎟ ←− fila i de A1
⎜ ⎟
⎜ ai1 ··· ain ⎟
⎜ ai2 ⎟ ←− fila i + 1 de A1
⎜ a ··· ai+2n ⎟
A1 = ⎜ i+21 ai+22 ⎟ ←− fila i + 2 de A1
⎜ . .. .. ⎟ ..
⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ ⎟
⎜ aj1 aj2 ··· ajn ⎟ ←− fila i + k de A1
⎜ ⎟
⎜ .. .. .. .. ⎟ ..
⎝ . . . . ⎠ .
an1 an2 ··· ann ..
.
⎛ ⎞ .
a11 a12 ··· a1n ..
⎜ . .. .. ⎟ ..
⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ ⎟
⎜ ai+11 ai+12 ··· ai+1n ⎟ ←− fila i de A2
⎜ ⎟
⎜ ai+21 ai+22 ··· ai+2n ⎟
⎜ ⎟ ←− fila i + 1 de A2
⎜ ··· ain ⎟
A2 = ⎜ ai1 ai2 ⎟ ←− fila i + 2 de A2
⎜ . .. .. ⎟ ..
⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ ⎟
⎜ aj1 aj2 ··· ajn ⎟ ←− fila i + k de A2
⎜ ⎟
⎜ .. .. .. .. ⎟ ..
⎝ . . . . ⎠ .
an1 an2 ··· ann ..
.
−→ · · · −→ · · · −→
3.2. PROPIEDADES DE LOS DETERMINANTES 107
⎛ ⎞ .
a11 a12 ··· a1n ..
⎜ . .. .. ⎟ ..
⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ ⎟
⎜ ai+11 ai+12 ··· ai+1n ⎟ ←− fila i de Ak−1
⎜ ⎟
⎜ ai+21 ai+22 ··· ai+2n ⎟
⎜ ⎟ ←− fila i + 1 de Ak−1
⎜ . .. .. ⎟ ..
Ak−1 = ⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ a ··· ain ⎟
⎜ i1 ai2 ⎟ ←− fila i + k − 1 de Ak−1
⎜ ⎟
⎜ ai+k1 ai+k2 ··· ai+kn ⎟ ←− fila i + k de Ak−1
⎜ ⎟
⎜ .. .. .. .. ⎟ ..
⎝ . . . . ⎠ .
an1 an2 ··· ann ..
.
⎛ ⎞ ..
a11 a12 ··· a1n .
⎜ . .. .. ⎟ ..
⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ ⎟
⎜ ai+11 ai+12 ··· ai+1n ⎟ ←− fila i de Ak
⎜ ⎟
⎜ ai+21 ai+22 ··· ai+2n ⎟
⎜ ⎟ ←− fila i + 1 de Ak
⎜ . .. .. ⎟ ..
Ak = ⎜ .. . ··· . ⎟
⎜ ⎟ .
⎜ a ··· ai+kn ⎟
⎜ i+k1 ai+k2 ⎟ ←− fila i + k − 1 de Ak
⎜ ⎟
⎜ ai1 ai2 ··· ain ⎟ ←− fila i + k de Ak
⎜ ⎟
⎜ .. .. .. .. ⎟ ..
⎝ . . . . ⎠ .
an1 an2 ··· ann ..
.
Como los k cambios de filas son consecutivos, por la primer parte, se
tiene que
|A1 | = − |A|
|A2 | = − |A1 |
..
.
|Ak | = − |Ak−1 |
108 3. DETERMINANTES
3. Determinantes nulos
a) Si A tiene una fila de ceros entonces |A| = 0
Demostración. En efecto
@ @ @ @
@ a a · · · a @ @ a11 a12 ··· a1n @
@ 11 12 1n @ @ @
@ . .. .. @@ @@ .. .. .. @
@ .. . ··· . @ @ . . ··· . @
@ @
@ @ @ @
|A| = @ 0 0 ··· 0 @=@ 1−1 1−1 ··· 1 − 1 @
@ . .. .. @@ @@ .. .. .. @@
@ . .. ..
@ . . . . @ @ . . . . @
@ @ @ @
@ an1 an2 · · · ann @ @ an1 an2 · · · ann @
@ @ @ @
@ a @ @ a1n @@
@ 11 a12 · · · a1n @ @ a11 a12 · · ·
@ . .. .. @@ @@ .. .. .. @@
@ .. . ··· . @ @ . . ··· . @
@
@ @ @ @
= @ 1 1 ··· 1 @+@ −1 −1 · · · −1 @ =
@ . .. .. @@ @@ .. .. .. @@
@ . .. ..
@ . . . . @ @ . . . . @
@ @ @ @
@ an1 an2 · · · ann @ @ an1 an2 · · · ann @
@ @ @ @
@ a11 a12 · · · a1n @ @ a11 a12 · · · a1n @@
@ @ @
@ . .. .. @@ @@ .. .. .. @@
@ .. . ··· . @ @ . . ··· . @
@
@ @ @ @
= @ 1 1 ··· 1 @−@ 1 1 ··· 1 @=0
@ . .. .. @@ @@ .. .. .. @@
@ . .. ..
@ . . . . @ @ . . . . @
@ @ @ @
@ an1 an2 · · · ann @ @ an1 an2 · · · ann @
Demostración. En efecto
@ @ @ @
@ a11 a12 · · · a1n @ @ a11 a12 · · · a1n @
@ @ @ @
@ .. .. .. @ @ @ .. .. .. @
@ . . · · · . @ . . ··· . @
@ @ @ @
@ a ai2 · · · ain @ @ @ ai1 ai2 · · · ain @
@ i1 @ @
@ . . . @ @ .. .. .. @
@
|A| = @ .. .. ··· .. @ = α @@
@ . . ··· . @=0
@
@ @ @ @
@ αai1 αai2 · · · αain @ @ ai1 ai2 ··· ain @
@ @ @ @
@ .. .. .. . @
.. @ @ .. .. .. .. @
@ . . . @ . . . . @
@ @ @ @
@ an1 an2 · · · ann @ @ an1 an2 · · · ann @
@ @
@ a11 a12 ··· a1n @
@ @
@ .. .. .. .. @
@ . . . . @
@ @
@ @
@ an−11 an−12 ··· an−1n @
|A| = @ @=
@ .. .. .. .. @
@ . . . . @
@ @
@ C
i=n−1 C
i=n−1 C
i=n−1 @
@ αi ai1 αi ai2 · · · αi ain @
@ @
i=1 i=1 i=1
@ @
@ a a12 ··· a1n @
@ 11 @
@ . .. .. .. @
@ .. . . . @
7 @@
i=n−1 @
@
= @ an−11 an−12 · · · an−1n @ =
@ .. .. .. @
i=1 @ .. @
@ . . . . @
@ @
@ αi ai1 αi ai2 · · · αi ain @
@ @
@ a11 a12 ··· a1n @@
@
@ . .. .. .. @
@ .. . . . @
i=n−1
7 @ @
@ @
= αi @ an−11 an−12 · · · an−1n @ = 0
@ .. .. .. @
i=1 @ .. @
@ . . . . @
@ @
@ ai1 ai2 ··· ain @
Demostración. En efecto
@ @
@ a11 a12 ··· a1n @
@ @
@ .
.. .. .. @
@ . ··· . @
@ @
@ ai1 ai2 ··· ain @
@ @
@ .. .. .. @
@
|B| = @ . . ··· . @=
@
@ @
@ aj1 + αai1 aj2 + αai2 ··· ajn + αain @
@ @
@ .. .. .. .. @
@ . . . . @
@ @
@ an1 an2 ··· ann @
@ @ @ @
@ a11 a12 · · · a1n @@ @@ a11 a12 ··· a1n @
@ @
@ .. .. .. @@ @@ .. .. .. @
@ . . ··· . @ @ . . ··· . @
@ @
@ ai1 ai2 · · · ain @@ @@ ai1 ai2 ··· ain @
@ @
@ .. .. .. @@ @@ .. .. .. @
= @@ . . ··· . @+@ . . ··· . @=
@
@ @ @ @
@ aj1 aj2 · · · ajn @@ @@ αai1 αai2 ··· αain @
@ @
@ .. .. .. .. @ @ .. .. .. .. @
@ . . . . @@ @@ . . . . @
@ @
@ an1 an2 · · · ann @ @ an1 an2 ··· ann @
@ @
@ a11 a12 · · · a1n @@
@
@ .. .. .. @@
@ . . ··· . @
@
@ a ai2 · · · ain @@
@ i1
@ . .. .. @@
= @@ .. . ··· . @ = |A|
@ @
@ ai1 ai2 ··· ain @@
@
@ .. .. .. .. @
@ . . . . @@
@
@ an1 an2 · · · ann @
Demostración. En efecto
@ @
@ a11 a12 ··· a1n @
@ @
@ .
.. .. .. @
@ . ··· . @
@ @
@ a a ··· ain @
@ i1 i2 @
@ .. .. .. @
@ . . ··· . @=
@ @
@ @
@ βaj1 + αai1 βaj2 + αai2 ··· βajn + αain @
@ @
@ .. .. .. .. @
@ . . . . @
@ @
@ an1 an2 ··· ann @
@ @ @ @
@ a11 a12 ··· a1n @ @ a11 a12 ··· a1n @
@ @ @ @
@ .. .. .. @ @ .. .. .. @
@ . . ··· . @ @ . . ··· . @
@ @ @ @
@ ai1 ai2 ··· @
ain @ @ ai1@ ai2 ··· ain @
@ @
@ .. .. .. @@ @@ .. .. .. @
= @@ . . ··· . @+@ . . ··· . @=
@
@ @ @ @
@ βaj1 βaj2 ··· βajn @@ @@ αai1 αai2 ··· αain @
@ @
@ .. .. .. .. @ @ .. .. .. .. @
@ . . . . @@ @@ . . . . @
@ @
@ an1 an2 · · · ann @ @ an1 an2 ··· ann @
@ @
@ a11 a12 · · · a1n @
@ @
@ .. .. .. @
@ . . ··· . @
@ @
@ a @
@ i1 ai2 · · · ain @
@ . .. .. @
= β @@ .. . ··· . @ = β |A|
@
@ @
@ aj1 aj2 · · · ajn @
@ @
@ .. .. .. .. @
@ . . . . @
@ @
@ an1 an2 · · · ann @
3.2. PROPIEDADES DE LOS DETERMINANTES 113
⎛ ⎞
a11 a12 · · · a1n
⎜ ⎟
⎜ 0 a22 · · · a2n ⎟
Ejercicio Probar que si A = ⎜⎜ .. .. .. .. ⎟ (ceros por debajo
⎟
⎝ . . . . ⎠
0 0 · · · ann
de la diagonal principal), entonces |A| = a11 a22 . . . ann
@ @ @ @ @ @
@ 0 1 5 @ @ 3 −6 9 @ @ 1 −2 3 @
@ @ (A) @ @ (B) @ @ (C)
@ @ @ @ @ @
EJEMPLO 3.3. @ 3 −6 9 @ = − @ 0 1 5 @ = −3 @ 0 1 5 @ =
@ @ @ @ @ @
@ 2 6 1 @ @ 2 6 1 @ @ 2 6 1 @
@ @
@ 1 −2 3 @
@ @ (D)
@ @
−3 @ 0 1 5 @ =
@ @
@ 0 10 −5 @
@ @ @ @
@ 1 −2 3 @ @ 1 −2 3 @@ @ @
@ @ (E) @ @ 1 5 @
@ @ @ @ @ @
− (3) (5) @ 0 1 5 @ = − (3) (5) @ 0 1 5 @ = − (3) (5) @ @=
@ @ @ @ @ 0 −11 @
@ 0 2 −1 @ @ 0 0 −11 @
− (3) (5) (−11) = 165
(A) Se intercambian las filas 1 y 2
(B) La fila 1 es múltiplo de 3
(C) A la fila 3 se le restó 2 veces la fila 1
(D) La fila 3 es múltiplo de 5
(E) A la fila 3 se le restó 2 veces la fila 2 !
NOTAS:
1) Desarrollo por cualquier fila o columna
El determinante se ha definido usando los elementos de la primer columna
de la matriz A con sus respectivas matrices adjuntas
def
|A| = (−1)1+1 a11 |A11 | + . . . + (−1)i+1 ai1 |Ai1 | + . . . + (−1)n+1 an1 |An1 |
(desarrollo por la primera columna)
114 3. DETERMINANTES
Pero se puede probar 1 que dicha definición coincide con cualquier desarrollo
por cualquier columna o fila de A:
def
|A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + . . . + (−1)i+n ain |Ain |
(desarrollo por la i − ésima fila)
def
|A| = (−1)i+1 a1i |A1i | + (−1)i+2 a2i |A2i | + . . . + (−1)i+n ani |Ani |
(desarrollo por la i − ésima columna)
2) Propiedades ”por columnas”
También se puede probar que
@ @
|A| = @At @
con lo cual en todas las propiedades anteriores se puede cambiar la palabra
”fila” por ”columna”, es decir que las propiedades valen para las columnas
operación e1 operación ek
A −→ ······ −→ B
Es decir que
Ek , . . . E2 E1 A = B
3.5. DETERMINANTE DE UN PRODUCTO DE MATRICES 117
Como
rango(A) = “cantidad de escalones no nulos de B”
Concluimos que “cantidad de escalones no nulos de B”< n, es decir que B
tiene por lo menos una fila de ceros.
A es invertible ⇔ |A| =
̸ 0
A = E1 E2 . . . Ek
Ek , . . . E2 E1 A = B
Pero como |Ei | ≠ 0 y |B| = 0 (pues por el Lema 3.6 B tiene por lo menos una
fila de ceros), concluimos que |A| = 0, lo cual contradice nuestra hipótesis
es decir que
A = E1−1 E2−1 . . . Ek−1 A′
Luego
@ @
|AB| = @E1−1 E2−1 . . . Ek−1 A′ B @
Pero por el Lema 3.6, A′ tiene una fila de ceros, y por lo tanto A′ B
también (por la definición del producto de matrices), con lo cual |A′ B| =
0 ⇒ |AB| = 0
Hemos probado que
|AB| = |A| |B| = 0
A = E1 E2 . . . Ek
|AB| = |(E1 E2 . . . Ek ) B|
⎛ ⎞
c11 c12 . . . c1n
⎜ ⎟
⎜ def c21 c22 . . . c2n ⎟
A la matriz cof (A) = ⎜
⎜ .. .. .. .. ⎟
⎟
⎝ . . . . ⎠
cn1 cn2 . . . cnn
se le llama matriz de cofactores de A
Por lo tanto dii = ai1 ci1 + ai2 ci2 + . . . + aij cij + . . . + ain cin , pero por (3.31)
|A| = ai1 ci1 + ai2 ci2 + . . . + aij cij + . . . + ain cin , con lo cual dii = |A| .
Probemos 2. Calculamos el elemento dij de la matriz A [cof (A)]t
⎛ ⎞
. . . . . . . . . cj1 . . .
⎜ ⎟
⎜ . . . . . . . . . cj2 . . . ⎟
⎜ .. .. .. . . . ⎟
⎜ ⎟
⎝ . . . . .. ⎠
. . . . . . . . . cjn . . .
⎛ . .. .. ⎞
.. ⎛ ⎞
. ... . ... ... ... ↓ ...
⎜ ⎟
⎜ .. .. .. ⎟⎜ ... ... ... ↓ ... ⎟
⎜ . . ... . ⎟⎜ ⎟
⎜ ⎟⎜ ⎟
⎜ ai1 ai2 . . . ain ⎟⎜ → → → dij . . . ⎟
⎜ ⎟⎜ ⎟
⎜ . .. .. . ⎟⎜ .. .. .. . . . ⎟
⎜ .. . . .. ⎟⎝ . . . . .. ⎠
⎝ ⎠
.. .. . ... ... ... ... ...
. . . . . ..
Por lo tanto dij = ai1 cj1 + ai2 cj2 + . . . + aik cjk + . . . + ain cjn .
Por otro lado consideremos la matriz B que se obtiene de A cambiando la
3.6. CÁLCULO DE LA MATRIZ INVERSA POR DETERMINANTES 121
Esto prueba que |B| = dij . Como |B| = 0 (pues tiene dos filas iguales), se
prueba lo deseado.
⎛ ⎞ ⎛ ⎞
|A| 0 . . . 0 1 0 ... 0
⎜ ⎟ ⎜ ⎟
t
⎜ 0 |A| . . . 0 ⎟ ⎜ 0 1 ... 0 ⎟
A [cof (A)] = ⎜
⎜ .. .. . . . ⎟ = |A| ⎜
⎟ ⎜ .. .. . . .. ⎟
⎟ = |A| I
⎝ . . . .. ⎠ ⎝ . . . . ⎠
0 0 . . . |A| 0 0 ... 1
⎛ ⎞
2 16 −10
⎜ ⎟
Por lo tanto cof (A) = ⎝ 1 −9 −5 ⎠ con lo cual
−8 4 6
3.7. REGLA DE CRAMER 123
⎛ ⎞ ⎛ ⎞
1 1 4
2 1 −8 − 17 − 34 17
1 1 ⎜ ⎟ ⎜ ⎟
A−1 = [cof (A)]t = 8
⎝ 16 −9 4 ⎠ = ⎝ − 17 9
34
2
− 17 ⎠.
|A| −34 5 5 3
−10 −5 6 17 34 − 17
Por lo tanto
1
(3.32) xj = (c1j b1 + c2j b2 + . . . + cnj bn ) j = 1, 2 . . . , n
|A|
124 3. DETERMINANTES
EJEMPLO 3.5. Como |A| = 0 se tiene que rango (A) < n. Por otro lado
D = ( A| b) es la matriz ampliada del sistema, como las columnas de Aj
si A 0
4.1. Introducción
127
128 4. RECTAS Y PLANOS EN EL ESPACIO
F2
Fr
F1
Figura 1
Por ejemplo cuando se aplican dos fuerzas F⃗1 y F⃗2 sobre un mismo cuerpo
el resultado es el mismo que si se aplicara una única fuerza F⃗r con módulo,
dirección y sentido igual a la diagonal del paralelogramo de lados F⃗1 y F⃗2
(ver figura 4.1). Se dice entonces que
4.2. Vectores
A B′
A′
Figura 2
vector distinga objetos por su punto de aplicación ası́ que deberemos ser más
cuidadosos en nuestra definición y adoptar una que no distinga entre dos
flechas como (A, B) y (A′ , B ′ ). Una manera de lograr esto es identificándolas
mediante una relación de equivalencia.
Para ello definimos una relación de equivalencia entre pares ordenados
de puntos de E: AB ∼ /A′ B ′ si y sólo si ABB ′ A′ es un paralelogramo.
Ésta es una relación de equivalencia de acuerdo con la definición dada en el
Capı́tulo 0.
Obsérvese que:
1) Es fácil probar que AB ∼ A′ B ′ si y sólo si el punto medio C de AB ′ /
coincide con el de A′ B; o sea que una misma simetrı́a central de centro C
lleva A en B ′ y A′ en B.
2) También se puede dar una definición de la relación de equivalencia en
término de traslaciones.
3) Todas estas definiciones sólo utilizan elementos de la geometrı́a plana.
Llamaremos vector del espacio E a una clase de equivalencia deter-
minada por esta relación. Cualquier pareja de puntos de una clase de equi-
valencia representa al correspondiente vector. Si la pareja es AB, el vector
por ella representado se escribirá de cualquiera de las siguientes maneras
−−→
v = AB = B − A. Dada una representación AB de un vector v llamaremos
origen (o punto base) al punto A, y extremo al punto B.
Denominaremos con la letra V al conjunto de estos vectores. Obsérvese
−→
que el espacio V incluye al vector nulo − →o = AA, para cualquier A ∈ E.
Dado un punto P ∈ E y un vector v ∈ V , es claro que existe un único
4.3. OPERACIONES CON VECTORES. 131
−−→
punto Q ∈ E tal que P Q = v, o sea que hay un único representante de v
que tiene origen en P : ese representante es P Q. Dado P , y si v está dado
−−
→
por una pareja AB (o sea v = AB) para hallar Q alcanza con construir el
paralelogramo P ABQ. De esta manera hemos definido una función que a
pareja de punto de E y vector de V , le hace corresponder otro punto de E ,
−−→
de la siguiente manera: (P, v) −→ Q ⇐⇒ P Q = v. Escribiremos / Q = P +v
y diremos que Q es la suma de P más v.
Es fácil ver que el vector suma no depende del representante elegido para
−−→ −−→ −−→ −−→ −→
v ; o sea que si A′ B ′ = v (y B ′ C ′ = w) entonces A′ B ′ + B ′ C ′ = AC. Para
verificar esta independencia de los representantes, se recomienda -como para
casi todas las pruebas de este capı́tulo- hacer los dibujos correspondientes.
−−→
Conviene observar desde ya que para cualquier v = AB , resulta − →
o +v =
−
→
v + o = v (alcanza con tomar el representante AA o BB, según el caso,
−−→ −−→ −− → −→ →
de −→
o ). Además el vector BA sumado a v da − →o : AB + BA = AA = − o .
132 4. RECTAS Y PLANOS EN EL ESPACIO
x = a1 + λ(b1 − a1 ) + µ(c1 − a1 ),
(4.35) y = a2 + λ(b2 − a2 ) + µ(c2 − a2 ),
z = a3 + λ(b3 − a3 ) + µ(c3 − a3 ).
@ @
@ b −a b −a @
@ 1 1 2 2 @
c = k@ @.
@ c1 − a1 c2 − a2 @
Recı́procamente toda ecuación de la última forma, en la que por lo menos
uno de los coeficientes a, b, c es distinto de cero, representa un plano porque,
suponiendo, por ejemplo c ̸= 0, ella equivale a las tres ecuaciones
d a b
x = λ, y = µ, z = − − λ − µ
c c c
que son de la forma(4.36). Obsérvese que los coeficientes a, b, c sólo dependen
de los vectores directores del plano. Dado que planos paralelos se pueden
determinar con los mismos vectores directores, resulta que dos planos
ax + by + cz + d = 0, a′ x + b′ y + cz + d′ = 0.
son paralelos si y sólo si a = pa′ ; b = pb′ ; c = pc′ para algún real
p. Si, además, d = pd′ ambas ecuaciones representan el mismo plano.
Observamos también que, por ejemplo de (4.38) se puede deducir
x − a1 y − a2 x − a1 z − a3
= , =
x1 x2 x1 x3
que se reduce a
(4.41) ax + by + cz + d = 0, a′ x + b′ y + c′ y + d′ = 0.
Estas dos ecuaciones indican la propiedad bien conocida de toda recta puede
determinarse por dos planos que se cortan en ella.
1 − λ = 2µ; λ = 1; 0 = 2 + µ
Propiedades:
1) ∥v∥" 0; ∥v∥= 0 si y solo si v = 0.
2) ∥av∥ = |a| ∥v∥ para todo a ∈ R y para todo v ∈ V
3) ∥u + v∥ # ∥u∥ + ∥v∥, para todo u, v ∈ V
Demostración
1) Es inmediato.
−−
→
2) Si a = 0 es trivial. Si a ̸= 0 y v = AB, por definición del producto
−→
de un número por un vector , av = AC, donde d (A, C) = |a| d (A, B). Luego
∥av∥ = d (A, C) = |a| d (A, B) = |a| ∥v∥.
3) Un lado de un triángulo es menor o igual que la suma de los otros
dos (es la propiedad triangular de geometrı́a métrica).
v
Diremos que v es un versor si ∥v∥ = 1. Para todo v ̸= 0 se tiene que ∥v∥ es
E E
E v E 1
un versor pues E ∥v∥ E = ∥v∥ ∥v∥ = 1.
Propiedades:
4) u.v = v.u
5) (a.u) .v = u. (a.v) = a. (u.v)
6) (u1 + u2 ) .v = u1 .v + u2 .v ; u. (v1 + v2 ) = u.v1 + u.v2 .
7) v.v " 0 y v.v = 0 si y sólo si v = 0
Demostración:
4) Es inmediato.
5) Si a = 0 la demostración es trivial . Si a " 0, áng (au, v) =
áng (u, v) = θ, luego
( a.u ) .v = ∥au∥ . ∥v∥ cosθ = |a| . ∥u∥ . ∥v∥ cos θ = a (u.v).
Si a < 0 , áng (au, v) = π + áng (u, v) = π + θ, luego ( a.u ) v =
∥a.u∥ ∥v∥ cos (π + θ) = − |a| ∥u∥ ∥v∥ cos θ = a ∥u∥ ∥v∥ cos θ =a(u.v).
6) Consideremos primero el caso ∥u∥ = 1. Entonces v1 .u = p1 , v2 .u =
p2 . (v1 + v2 ) u = p (proyección de u1 + u2 ). Es claro que p = p1 + p2 , luego
(v1 + v2 ) .u = v1 .u + v2 .u. (ver figura)
5.1. PRODUCTO ESCALAR 147
E Consideremos
E ahora el caso general. Por el razonamiento anterior, como
E u′ E u u u
E ∥u∥ E = 1, tenemos (v1 + v2 ) . ∥u∥ = v1 . ∥u∥ + v2 . ∥u∥ , luego (v1 + v2 ) .u =
v1 .u + v2 .u
7) Es inmediata pues v.v = ∥v∥2 .
√ %
En particular: ∥v∥ = v.v = a21 + a22 + a23 .
−−→
Si P = O + a1 i + a2 j + a3 k y Q = O + b1 i + b2 j + b3 k entonces P Q =
Q − P = (b1 − a1 ) vH
1 + (b2 − a2 ) v2 + (b3 − a3 ) v3 , luego
d (P, Q) = ∥P Q∥ = (b1 − a1 )2 + (b1 − a1 )2 + (b3 − a3 )2 .
148 5. PRODUCTO ESCALAR Y VECTORIAL
Poniendo P = (x, y, z), P0 = (0, 0, −d/c) y n = av1 +bv2 +cv3 , esta ecuación
se escribe: n. (P − P0 ) = 0. Por tanto, es la ecuación del plano perpendicular
a π por P0 .
pp′ + qq ′ + rr ′
cos θ = % % .
p2 + q 2 + r 2 p′ 2 + q ′ 2 + r ′ 2
f ) Distancia de un punto a un plano: Definimos la distancia d (Q, π)
de Q al plano π como el mı́nimo de d(Q,P) donde P ∈ π. Es claro que el
mı́nimo de d(Q,P) se obtiene cuando P=P1 =π ∩@r, donde r es @la perpendi-
@ n @
cular a π por Q. Luego : d (Q, π) = d (Q, P1 ) = @(Q − P0 ) . ∥n∥ @ , siendo P0
un punto cualquiera del plano π.
(Q − Po ) · n = a (x − xo ) + b (y − yo ) + c (z − zo ) = ax + by + cz + d.
5.3. APLICACIONES: ECUACIONES DE ALGUNAS SUPERFICIES 151
@ @ @ @
@ n @ @√ @
Luego : d (Q, π) = @(Q − P0 ) . ∥n∥ @ = @ ax+by+cz+d
a2 +b2 +c2
@
6
f (x, y, z) = 0
- O bien en la forma reducida
g (x, y, z) = 0
152 5. PRODUCTO ESCALAR Y VECTORIAL
⃗
6Ecuación de la superficie de 6 revolución con eje Oz Sea r el eje
x=0 x=0
r: , y C la generatriz C:
y=0 z = f (y)
" #
Se puede escribir como: (x + y + z)2 − x2 + y 2 + z 2 = 14 Cortándola
en el plano:x + y + z + α = 0 se obtiene:
6
x+y+z+α=0
" #
(x + y + z)2 − x2 + y 2 + z 2 = 14
⎧
⎪
⎨ x = f (t)
Si V = (a, b, c) y C = y = g (t)
⎪
⎩
z = h (t)
−
→ −→ −→
Consideremos la terna ordenada de vectores de V , { i , j , k }, que cons-
tituye una base de V . Estas las vamos a clasificar en dos grupos: uno formado
por las ternas {i, j, k} tales que para un observador parado en v3 , la rotación
de ángulo convexo (o sea, de medida < π) que lleva i en j es de sentido anti-
horario; el otro formado por las ternas en las que esa rotación tiene sentido
horario.
158 5. PRODUCTO ESCALAR Y VECTORIAL
Para definir el producto vectorial necesitamos elegir uno de los dos tipos
como terna preferida. Nos quedaremos para esto con las ternas del primer
tipo que llamaremos positivas.
Esta convención sirve para definir el producto vectorial como una función
de V ×V en V (ası́ como el producto escalar era una función de V ×V en R)
que a cada par de vectores v, w le asocia un vector, que denotaremos v ∧ w,
que cumple:
a) ∥v ∧ w∥ = ∥v∥ . ∥w∥ .sen θ (θ ángulo de v con w )
b) (v ∧ w) .v = 0 y (v ∧ w) .w = 0
c) Si v ̸= 0 y w ̸= 0 la terna {v, w, v ∧ w} es positiva.
Propiedades:
1) ∥v ∧ w∥ es el doble del área del triángulo determinado por esos vec-
tores.
2) v ∧ w = 0 si y sólo si v y w son colineales (en particular, si alguno de
ellos es el vector 0).
3) Respecto de la condición c) de la definición, corresponde observar que
si v ∧ w ̸= 0 la terna {v, w, v ∧ w} es una base, pues por b) esos vectores no
son coplanares salvo que v y w sean colineales, en cuyo caso v ∧ w = 0
4) v ∧ w = − (w ∧ v) ( en particular, esta operación no es conmutativa)
Para verificar esto basta notar que si para cierto observador la rotación del
ángulo < π que lleva v en w es de sentido antihorario, para el mismo obser-
vador la que lleva w en v es de sentido horario. De modo que el observador
debe ubicarse del lado opuesto del plano u,w para que esa rotación aparezca
de sentido trigonométrico . Luego esa debe ser la ubicación de w ∧ v para
que la terna [w, v, w ∧ v] sea positiva.
5) Este producto no es asociativo. Se puede deducir que:
(u ∧ v) ∧ w + (v ∧ w) ∧ u + (w ∧ u) ∧ v = 0
i ∧ i = j ∧ j = k ∧ k = 0;
i ∧ j = k; j ∧ k = i; k ∧ i = j
j ∧ i = −k, k ∧ j = −i; i ∧ k = −j
Esta expresión del producto vectorial puede también tomarse como su de-
finición. Más precisamente, dada una terna ortonormal cualquiera {i,j,k }
(positiva o negativa), puede definirse el producto de dos vectores por la
expresión dada en 4.9). Se comprueba entonces sin dificultad que el vec-
tor: u = (a2 b3 − a3 b2 ) i − (a1 b3 − a3 b1 ) j + (a1 b2 − a2 b1 ) k verifica ∥u∥ =
∥v∥ . ∥w∥ .sen θ y u.v = u.w = 0. Si además {i, j, k} es una terna positiva
puede verificarse, que {v, w, u} es también positiva. Luego u = v ∧ w , por
lo tanto esta definición de v ∧ w coincide con la inicial.
" #
eliminando x0 , y0 , z0 resulta (x + y)2 z 2 − 2xy = 1 !
b)Intersección
6 de dos planos no paralelos:
ax + by + cz + d = 0
Sea r : una recta (dada como intersección
a′ x + b′ y + c′ z + d′ = 0
de dos planos no paralelos). Supongamos que queremos las ecuaciones pa-
ramétricas de esa recta, es decir, las de la forma: x = x0 + λp, y = y0 +
λq, z = z0 + λr (o también P = P0 + λv). Para esto se necesita hallar un
punto P0 = (x0 , y0 , z0 ) de la recta y un vector v = p i + q j + r k de la direc-
ción de r. Esto se puede hacer sin usar el producto vectorial, resolviendo el
sistema de ecuaciones
6
ax + by + cz + d = 0
a′ x + b′ y + c′ z + d′ = 0
v∧w
de la dirección de s puede tomarse n = ∥v∧w∥ . Luego :
" # 1 @ −→@@
−
@
d r, r ′ = d (A, π) = @(v ∧ w) .AB @
∥v ∧ w∥
sean:
v = a1 i + a2 j + a3 k, w = b1 i + b2 j + b3 k, u = c1 i + c2 j + c3 k.
Entonces:
@ @ @ @ @ @
@ a a @ @ a a @ @ a a @
@ 2 3 @ @ 1 3 @ @ 1 2 @
v∧w =@ @i − @ @j +@ @ k.
@ b2 b3 @ @ b1 b3 @ @ b1 b2 @
@ @
@ @ @ @ @ @ @ c c c @
@ a a @ @ a a @ @ a a @ @ 1 2 3 @
@ @ @ @ @ @ @ @
v ∧ w.u = @ 2 3 @ c1 − @ 1 3 @ c2 + @ 1 2 @ c3 = @ a1 a2 a3 @
@ b2 b3 @ @ b1 b3 @ @ b1 b2 @ @ @
@ b1 b2 b3 @
(Por desarrollo por la primer fila de ese determinante)
Usando el hecho de que si se permutan dos filas de una matriz entre sı́ el
determinante sólo cambia de signo, resulta que dos de esas permutaciones
no cambian el determinante; luego:
@ @ @ @ @ @
@ c c c @ @ b b b @ @ a a a @
@ 1 2 3 @ @ 1 2 3 @ @ 1 2 3 @
@ @ @ @ @ @
@ a1 a2 a3 @ = @ c1 c2 c3 @ = @ b1 b2 b3 @
@ @ @ @ @ @
@ b1 b2 b3 @ @ a1 a2 a3 @ @ c1 c2 c3 @
166 5. PRODUCTO ESCALAR Y VECTORIAL
Esta condición permite escribir la ecuación vectorial del plano dado por
tres puntos A, B, C en otra forma. Decir que P pertenece a ese plano equivale
a decir que los vectores P − A, B − A y C − A son coplanares, o sea (P −
A, B − A, C − A) = 0.
Pasando a coordenadas, si P=(x,y,z),A=(a1 , a2 , a3 ), B = (b1 , b2 , b3 ) y
C = (c1 , c2 , c3 ) esta ecuación se escribe:
@ @
@ @ @ x y z 1 @
@ x−a y − a2 z − a3 @ @ @ @
@ 1 @ a a a 1 @
@ @ @ 1 2 3 @
@ b1 − a1 b2 − a2 b3 − a3 @ = 0, ó también: @ @ = 0.
@ @ @ b1 b2 b3 1 @
@ c1 − a1 c2 − a2 c3 − a3 @ @ @
@ c c c 1 @
1 2 3
Para ver esto obsérvese que si se le resta la 2da. fila a la 1ra., la 3da. y la
4ta. filas, el determinante no cambia. Ası́ se tiene:
@ @
@ x−a y − a2 z − a3 0 @@ @ @
@ 1 @ x−a y − a2 z − a3 @
@ a a2 a3 1 @@ @ 1 @
@ 1 @ @
@ @ = @ b1 − a1 b2 − a2 b3 − a3 @ = 0.
@ b1 − a1 b2 − a2 b3 − a3 0 @ @ @
@ @ @ c1 − a1 c2 − a2 c3 − a3 @
@ c −a c −a c −a 0 @
1 1 2 2 3 3
CAPı́TULO 6
ESPACIOS VECTORIALES
Demostración. 1) Sean 0⃗1 y 0⃗2 dos neutros: 0⃗1 = 0⃗1 + 0⃗2 = 0⃗2 , luego son
iguales.
2) Sean (−u)1 y (−u)2 dos opuestos de u:
(−u)1 = ⃗0 + (−u)1 = ((−u)2 + u) + (−u)1 = (−u)2 + (u + (−u)1 ) =
(−u)2 + ⃗0 = (−u)2 , luego coinciden.
(la suma de dos sucesiones es definida como la sucesión que se obtiene su-
mando los términos n-ésimos de las sucesiones dadas),
def
λ · {an } = λ · (a1 , a2 , . . . , an ) = (λ · a1 , λ · a2 , . . . , λ · an ) = {λ · an }
PROPOSICIÓN 6.7. 0 · u = ⃗0 , ∀u ∈ V
Demostración. 0 · u = 0 · u + ⃗0 = 0 · u + (u − u) = (0 · u + 1 · u) − u =
(0 + 1) · u − u = 1 · u − u = u − u = ⃗0
PROPOSICIÓN 6.8. α · ⃗0 = ⃗0 , ∀α ∈ K
Demostraci
8 9ón. Sea u8 un vector cualquiera
9 de V, ⃗0 = α · u − α · u =
= α · ⃗0 + u − α · u = α · ⃗0 + α · u − α · u = α · ⃗0 + (α · u − α · u) =
= α · ⃗0 + ⃗0 = α · ⃗0.
6.3. Subespacios
q = p1 + p2
π
p2
p1
⃗0
176 6. ESPACIOS VECTORIALES
r = {(x, y, z) ∈ R3 : ax + by + cz = 0; a′ x + b′ y + c′ z = 0}
! $
EJEMPLO 6.18. En {R3 , R, +, ·} W= (a1 , a2 , a3 ) ∈ R3 tales que a3 = 0
entonces W es un subespacio de V.
EJEMPLO 6.22. Sea V el espacio vectorial del ejemplo 6.6, y sea C[a, b]
el conjunto de las funciones f que son continuas. f : [a, b] → R. Entonces
C[a, b] es un subespacio de V. Recordar que la suma de funciones continuas
es una función continua, ası́ como también lo es el producto de una función
continua por un escalar.
1
Para entender que es un espacio de dimensión finita véase más adelante la definición
6.8)
178 6. ESPACIOS VECTORIALES
EJEMPLO 6.25. Sea {Cn , R, +, ·} el espacio vectorial del ejemplo 6.8 Sea
W ’ el subconjunto formado por las n-uplas de números complejos cuyos
términos tienen parte real igual a cero. Es un subespacio. En este ejemplo es
importante que el cuerpo K sea R y no C. Observar que el mismo subconjunto
W ’, considerado como subconjunto del espacio vectorial {Cn , C, +, ·} no es
un subespacio.
g
Notación: Si A es un generador de S pondremos A −→ S
g
EJEMPLO 6.27. Sea V = R3 y A = {(1, 0, 0), (0, 1, 0)} ¿A−→V ?.
Sea v = (a, b, c) ∈ R3 un vector cualquiera de R3 para que A genere a R3
debemos poder escribir v como combinación lineal de A cuales quiere sean
a,b y c. Sea α1 y α2 reales tales que
⎧
⎪
⎨ α1 = a
(a, b, c) = α1 (1, 0, 0) + α2 (0, 1, 0) ⇐⇒ α2 = b
⎪
⎩
0=c
Es claro que el sistema anterior es compatible si y solo si c = 0 entonces A
no genera R3 . !
g
entonces A = {(1, 0, 0), (0, 1, 0)}−→S. !
EJEMPLO
F G Sean v1 , v2 , . . . , vn ∈ V (V espacio vectorial ), entonces
6.33.
⃗0, v1 , v2 , ...., vn es l.d !
Demostración. (⇐)
Sabemos que existe vk ∈ A, 1 # k # n, tal que vk es combinación lineal
de los anteriores:
o sea
⃗0 = λ1 v1 + λ2 v2 + · · · + λk−1 vk−1 + (−1)vk + 0 · vk+1 + · · · + 0 · vn .
λ1 v1 + λ2 v2 + ... + λn vn = ⃗0.
Demostración. (⇒)
En primer lugar, como A genera a V, entonces cualquier vector de V se
puede escribir como c.l. de vectores de A. Veremos ahora que esa combina-
ción lineal es única.
En efecto, supongamos que pueda escribirse un vector v como combina-
ción lineal de A, en dos formas distintas:
v = α1 v1 + · · · + αn vn y v = β1 v1 + · · · + βn vn
α1 = β1 , α2 = β2 , . . . , αn = βn
Pero como cada vector (incluyendo al nulo) sólo se puede escribir de única
manera como combinación lineal de A debe ser λi = 0. ∀i = 1, 2, . . . , n y
consecuentemente A es L.I.
C = {(1, 0, 0, ..., 0) , (0, 1, 0, ..., 0) , (0, 0, 1, ..., 0) , ..., (0, 0, 0, ..., 1)}
190 6. ESPACIOS VECTORIALES
b coordB
B −→
v coordB (v)
V Rn
i-esimo
lugar
↓
ei = (0, . . . , 0, 1, 0, . . . , 0)
v = (x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en
entonces
coordC (v) = (x1 , x2 , . . . , xn ).
EJEMPLO 6.38. Sea V = R3 y B = (1, 1, 0), (0, 1, 0), (0, 0, 1) es fácil com-
probar y queda a cargo del lector que B es L.I. verifiquemos que también
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSIÓN 191
por lo tanto
" #
coordB (a, b, c) = (a, b − a, c)
" #
por ejemplo si v = (1, 2, 1) entonces coordB (1, 2, 1) = (1, 1, 1).
En el otro sentido, supongamos que w ∈ R3 es un vector tal que sus coor-
denadas en la base B son coordB (w) = (1, 2, 1) entonces el vector
EJEMPLO 6.44. En el ejemplo 6.37 vimos que C es una base (la base
b
canónica) de Rn por lo tanto dim(Rn ) = n. De manera análoga C −→(Cn , C, +·)
" #
por lo tanto dim (Cn , C, +, ·) = n. Por el contrario en el ejemplo 6.39 se
vio que C no es base de (Cn , R, +, ·) pero si lo es
Demostración. (⇐)
Para probar que A es base , alcanza probar que A es generador de
todo el espacio, puesto que A es L.I. por hipótesis. Para esto veremos que
cualquier vector puede ponerse como combinación lineal de A. Es claro que
los vectores de A son ellos mismos combinación de A ası́ que consideremos
un vector v ∈ V cualquiera tal que v ∈ / A, entonces el conjunto A′ = A ∪ {v}
tiene n + 1 elementos y en consecuencia es por hipótesis un conjunto L.D.
Entonces existen escalares λ1 , λ2 , . . . , λn , λ no todos nulos tales que
(6.45) λ1 v1 + λ2 v2 + · · · + λn vn + λv = ⃗0
λ1 v1 + λ2 v2 + · · · + λn vn = ⃗0
6.5. BASE DE UN ESPACIO VECTORIAL Y DIMENSIÓN 197
EJEMPLO 6.47. Sea A = {x2 +x−1, x+1, x2 +3x−3, x2 −1, −x2 +2x+1} ⊂
P2 entonces A es L.D. pues dim(P2 ) = 3 y card(A) = 5 !
EJEMPLO 6.48. Sea A = {(1, 0, 1, 0), (−1, 0, 1, 0), (0, 1, 0, 1), (0, −1, 0, 1)} ⊂
R4 como es fácil de verifica A es L.I. y como card(A) = 4 = dim(R4 ) enton-
ces A es base de R4 . !
200 6. ESPACIOS VECTORIALES
EJEMPLO 6.49. Sea S = [(1, 1, 1), (2, 1, 0), (−1, 0, 1)], hallar una base de
S y determinar su dimensión. Para esto comenzamos por encontrar un ge-
nerador, lo cual obviamente es inmediato, el conjunto
A = {(1, 1, 1), (2, 1, 0), (−1, 0, 1)}
es por definición un generador de S como desconocemos la dimensión del
subespacio no podemos aplicar la proposición 6.30 y debemos verifica si A es
L.I. o no. Es fácil de ver que A es L.D. pues (1, 1, 1) − (2, 1, 0) = (−1, 0, 1).
Entonces A no es base pero de la proposición 6.29 existe A′ ⊂ A que si
lo es. Como el vector (−1, 0, 1) es c.l. de los restantes elementos de A la
g
proposición 6.16 A′ = {(1, 1, 1), (2, 1, 0)}−→S. Es fácil verificar además que
b
A′ es L.I. en consecuencia A′ −→S y por lo tanto dim(S) = 2. !
F G
Si W ̸= ⃗0 , alcanza probar que existe una base de W con una cantidad
finita de elementos p. Una vez demostrado eso, por el teorema 6.23 resulta p
# n, pues una base de W, es un conjunto L.I., con p elementos, y una base
de V es un conjunto
F G que genera a todo el espacio, con n elementos.
Como W ̸= ⃗0 entonces existe algún vector w1 ∈ W, w1 ̸= ⃗0. Si {w1 }
genera a W, es base de W, y ya está probado. Si {w1 } no genera a W, existe
un vector w2 ∈ W que no es combinación lineal de w1 .
Afirmamos que {w1 , w2 } es L.I. . En efecto, si λ1 w1 + λ2 w2 = ⃗0, λ2 = 0
pues de lo contrario se podrı́a despejar w2 en función de w1 , lo cual no
es posible porque w2 no es combinación lineal de w1 . Entonces λ2 = 0, y
entonces λ1 w1 = ⃗0. Como w1 ̸= ⃗0 se deduce λ1 = 0.Tenemos ahora que
{w1 , w2 } es L.I. . Si genera a W, ya tenemos una base. Si no genera a W,
existe un tercer vector w3 ∈ W que no es combinación lineal de los dos
primeros. Igual que antes se prueba que el conjunto {w1 , w2 , w3 } es L.I..
Se puede repetir el razonamiento en una cantidad menor que n + 1 de
pasos hasta construir una base de W, porque de lo contrario tendrı́amos un
conjunto L.I. de n + 1 vectores, contradiciendo el teorema 6.26 que dice
que los conjuntos L.I. no pueden tener más de n elementos, donde n es la
dimensión del espacio.
a11 v11 + a12 v12 + ... + a1p1 v1p1 + a21 v21 + a22 v22 + ...
+a2p2 v2p2 + ... + an1 vn1 + an2 vn2 + ... + anpn vnpn = ⃗0;
···
Demostración. (⇒)
Supongamos v = v1 +v2 y v ′ = v1′ +v2′ con v1 , v1′ ∈ V1 , v2 , v2′ ∈ V2 . Luego,
v1 − v1′ = v2 − v2′ ∈ V1 y V2 , por lo que , por hipótesis v1 − v1′ = v2 − v2′ = ⃗0,
lo que prueba que la suma es directa.
(⇐)
Sea v ∈ V1 ∩ V2 luego − v ∈ V1 ∩ V2 . Por lo tanto:
⃗0 = v + (−v) = ⃗0 + ⃗0 y por definición de suma directa, ⃗0 = v = −v.
F G
Entonces V1 ∩ V2 = ⃗0 .
CAPı́TULO 7
TRANSFORMACIONES LINEALES.
C 1 = {f : R → R / f es derivable} ⊂ F = {f : R → R} .
205
206 7. TRANSFORMACIONES LINEALES.
PROPOSICI
8 9 ÓN 7.2. Sea T : V → W una transformación lineal. Enton-
⃗ ⃗
ces, T 0 = 0.
8 9
Demostración. T ⃗0 = T (0. v) = 0 . T (v) = ⃗0.
7.1. TRANSFORMACIONES LINEALES 207
EJEMPLO 7.5. Sea T : R2 → R2 lineal tal que T (1, 0) = T (0, 1) = (2, 3).
Como {(1, 0) , (0, 1)} es la base canónica de R2 , T esta determinada.
Luego
.
7.2. OPERACIONES CON TRANSFORMACIONES LINEALES. 209
! $
Luego: Im (T ) = (a, b) ∈ R2 : b = 2a .
2) Hallemos la imagen de T.
L
(a, b) ∈ Im (T ) ⇔ existe (x0 , y0 , z0 ) ∈ R3 T (x0 , y0 , z0 ) = (a, b)
6
x0 + y0 = a
⇔ existe (x0 , y0 , z0 ) ∈ R3 tal que
y0 + z0 = b
6
x+y =a
⇔ el sistema es compatible.
y+z = b
Como el sistema es siempre compatible, resulta que Im (T ) = R2 .
2) Hallar la Im (T )
0 1 0 1
a b x0 y0
∈ Im (T ) ⇔ existe ∈ M2x2 (R) tal que
c d z0 t0
0 1 0 1
x0 y0 a b
T =
z0 t0 c d
0 1
x0 y0
⇔ existe ∈ M2x2 (R) tal que
z0 t0
0 10 1 0 1
1 −1 x0 y0 a b
=
−2 2 z0 t0 c d
0 1
x0 y0
⇔ existe ∈ M2x2 (R) tal que
z0 t0
0 1 0 1
x0 − z0 y 0 − t0 a b
=
−2x0 + 2z0 −2y0 + 2t0 c d
⇔ existen x0 , y0 , z0 , t0 ∈ R tales que
⎧
⎪
⎪ x0 − z0 = a
⎪
⎨ y 0 − t0 = b
⎪ −2x0 + 2z0 = c
⎪
⎪
⎩
−2x0 + 2z0 = d
⎧
⎪
⎪ x−z = a
⎪
⎨ y−t = b
⇔ el sistema tiene solución.
⎪ −2x + 2z = c
⎪
⎪
⎩
−2x + 2z = d
⎧
⎪
⎪ x−z = a
⎪
⎨ y−t = b
⇔ el sistema tiene solución
⎪
⎪ 0 = 2a + c
⎪
⎩
0 = 2b + d
⇔ 2a + c = 0 y 2b + d = 0.
7.3. IMAGEN Y NÚCLEO DE UNA TRANSFORMACIÓN LINEAL. 215
60 1 I
a b
Ası́ la Im (T ) = ∈ M2x2 (R) : 2a + c = 0 y 2b + d = 0 .
c d
T (α v1 + β v2 ) = α T (v1 ) + β T (v2 ) = α . ⃗0 + β . ⃗0 = ⃗0 ⇒
⇒ α v1 + β v2 ∈ N (T )
Luego N (T ) es un subespacio de V.
EJEMPLO 7.13. Hallemos una base del núcleo y una base de la imagen
de la transformación lineal T : R4 → R3 definida por
T (x, y, z, t) = (x − y + z + t, x + 2z − t, x + y + 3z − 3t)
⇔ (x − y + z + t, x + 2z − t, x + y + 3z − 3t) = (0, 0, 0)
216 7. TRANSFORMACIONES LINEALES.
⎧ ⎧
⎪
⎨ x−y+z+t = 0 ⎪
⎨ x−y+z+t = 0
⇔ x + 2z − t = 0 ⇔ y + z − 2t = 0
⎪
⎩ ⎪
⎩
x + y + 3z − 3t = 0 2y + 2z − 4t = 0
6 6
x−y+z+t = 0 x = −2z + t
⇔ ⇔
y + z − 2t = 0 y = −z + 2t
Luego los vectores del núcleo de T son de la forma
(−2z + t, −z + 2t, z, t) con z, t ∈ R. Como
w = (x − y + z + t, x + 2z − t, x + y + 3z − 3t)
⇔ ∃x, y, z, t ∈ R tal que v = (x, x, x)+(−y, 0, y)+z (1, 2, 3)+t (1, −1, −3) .
Luego todo vector de la imagen de T es combinación lineal de
{(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)}
(observar que dichos vectores están en la imagen pues son imagen respecti-
vamente de los vectores de la base canónica).
" #
Pero el conjunto anterior es L.D. pues tiene 4 vectores y dim R3 =3.
Observemos que
(1, 2, 3) = 2 (1, 1, 1) + (−1, 0, 1)
(1, −1, −3) = −1 (1, 1, 1) + (−2) (−1, 0, 1)
Luego reducimos el generador L.D. hasta obtener el generador
{(1, 1, 1) , (−1, 0, 1)}
que sı́ es L.I Luego {(1, 1, 1) , (−1, 0, 1)} es base de Im (T ).
7.3. IMAGEN Y NÚCLEO DE UNA TRANSFORMACIÓN LINEAL. 217
α1 v1 + · · · + αn vn = ⃗0.
αd+1 ed+1 + · · · + αn en = α1 e1 + · · · + αd ed
T (v) = w = T (α1 e1 + · · · + αn en ) =
F G
ii) ⇒ iii) Supongamos, por absurdo, que N (T ) ̸= ⃗0v .Entonces existe
v ∈ N (T ) con v ̸= ⃗0v .
Luego A = {v} es L.I. en V ⇒ T (A) = T (v) es L.I. en W y por
porhiptesis
ii) T (v) = ⃗0w es L.I. Absurdo.
iii) ⇒ i)SiT (v1 ) = T (v2 ) ⇒ T (v1 ) − T (v2 ) = ⃗0w luego T (v1 − v2 ) =
⃗0w ⇒ v1 − v2 ∈ N (T ) por iii) v1 − v2 = ⃗0v es decir v1 = v2 .
w = α1 T (v1 ) + . . . + αn T (vn )
w = T (α1 v1 + . . . . + αn vn )
Demostración.
6
T es lineal e inyectiva (1)
i) ⇒ ii)T es lineal y biyectiva ⇔
T es lineal y sobreyectiva (2)
6
B es L.I. (1′ )
Por otro lado, B es una base de V ⇔
B es generador de V (2′ )
De (1) y (1’) aplicando la Proposición 7.13 se obtiene que T (B) es
L.I.(1”)
De (2) y (2’) aplicando la Proposición 7.14 se obtiene que T (B) es
generador de W (2”) De (1”) y (2”) se tiene que T (B) es una base de W.
ii) ⇒ iii) Inmediato. iii) ⇒ i) Sabemos que existe B0 es base de V
tal que T (B0 ) es base de W, en particular existe B0 es generador de V tal
que T (B0 ) es generador de W, luego por la proposición 7.14 T es sobre-
yectiva.Probemos
F G que T es inyectiva, lo cual es equivalente a probar que
N (T ) = ⃗0 , si v ∈ N (T ) ⊆ V por ser B0 = {v1 , . . . , vn } base de V se
cumple que existen α1 , . . . ., αn ∈ K tales que v = α1 v1 + . . . . + αn vn .
Luego usando la linealidad de T se obtiene que T (v) = α1 T (v1 ) + . . . +
αn T (vn ). Pero como v ∈ N (T ), se tiene que T (v) = ⃗0
α1 T (v1 ) + . . . + αn T (vn ) = ⃗0
Pero T (B0 ) = {T (v1 ) , . . . , T (vn )} es L.I. (por ser base) entonces α1 =
. . . . = αn = 0 Ası́ v = ⃗0.
Demostración. Sean w1 y w2 ∈ W y λ y µ ∈ K.
Observando que T T −1 (w) = w y que T es lineal,
λ w1 + µ w2 = λT T −1 (w1 ) + µT T −1 (w2 ) =
" #
= T λT −1 (w1 ) + µT −1 (w2 )
⎛ ⎞
β1
⎜ . ⎟
w = β1 v1 + . . . + βn vn ⇒ coordB (w) = ⎜ . ⎟
⎝ . ⎠
βn
⎞⎛
0
⎜ . ⎟
Como coordB (v) = ⎜ . ⎟ ⃗
⎝ . ⎠ ⇔ v = 0v1 + . . . + 0vn ⇔ v = 0
0
F G
N (coordB ) = ⃗0 ⇒ coordB es inyectiva.
Esto es
8 9
B ((T ))A = [coordB T (v1 ) ] , [coordB T (v2 )] , . . . , [coordB T (vn )] =
⎛ ⎞
a11 a21 · · · an1
⎜ ⎟
⎜ a12 a22 · · · an2 ⎟
=⎜
⎜ .. .. .. ⎟
⎟
⎝ . . . ⎠
a1m a2m · · · anm
Nota. La matriz asociada se obtiene çolgando” las coordenadas respecto
a la base de W de los vectores de la base de V . Obsérvese que los subı́ndices
de esta matriz están colocados de manera distinta a la habitual; alcanzarı́a
con cambiar las denominaciones de los subı́ndices de las coordenadas de
T (vj ) para obtener la forma habitual.
T (1, 0) = (4, 2, 1)
T (0, 1) = (−2, 1, 1)
2) Calculamos las coordenadas de estos en la base B
⎛
⎞
4
⎜ ⎟
⇒ coordB (T (1, 0)) = ⎝ 2 ⎠
1
T (0, 1) = (−2, 1, 1) = −2 (1, 0, 0) + 1 (0, 1, 0) + 1 (0, 0, 1)
⎛ ⎞ ⎛ ⎞
−2 4 −2
⎜ ⎟ ⎜ ⎟
⇒ coordB (T (0, 1)) = ⎝ 1 ⎠ . Luego B ((T ))A = ⎝ 2 1 ⎠.
1 1 1
T (p1 ) = (2, 1)
T (p2 ) = (1, 1)
T (p3 ) = (0, 4)
2) Calculamos las coordenadas de estos en la base B
0 1
1
T (p1 ) = (2, 1) = 1 (1, 1) + 1 (1, 0) ⇒ coordB (T (p1 )) =
1
0 1
1
T (p2 ) = (1, 1) = 1 (1, 1) + 0 (1, 0) ⇒ coordB (T (p2 )) =
0
0 1
4
T (p3 ) = (0, 4) = 4 (1, 1) − 4 (1, 0) ⇒ coordB (T (p3 )) =
−4
0 1
1 1 4
Luego B ((T ))A = .
1 0 −4
228 7. TRANSFORMACIONES LINEALES.
OBSERVACIÓN 7.22. La matriz B ((T ))A como recién vimos, queda com-
pletamente determinada conocidas la transformación lineal T y las bases A
y B del dominio y codominio respectivamente.
Recı́procamente, dada una matriz M de tamaño m×n y dos bases A y B
de los espacios V y W respectivamente, queda completamente determinada
una transformación lineal T tal que B ((T ))A =M.
7.6. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL. 229
Demostración. Sea C ((T ))B = (ai j ), B ((S))A = (bj k ) y C ((T ))B B ((S))A =
(ci j ) con 1 # i # t, 1 # j # n, 1 # k # s.
C
n
Por definición de producto de matrices ci k = ai j bj k .
j=1
Calculemos C ((T ◦ S))A . Sea uk ∈ A.
⎛ ⎞
7n
(T ◦ S) (uk ) = T (S (uk )) = T ⎝ bj k vj ⎠ =
j=1
⎛ ⎞
n
7 n
7 t
7 t
7 n
7 t
7
bj k T (vj ) = bj k ai j wi = ⎝ ai j bj k ⎠ wi = ci k wi .
j=1 j=1 i=1 i=1 j=1 i=1
Resulta, por definición de matriz asociada C ((T ◦ S))A = (ci j ).
⎛ ⎞
x1
⎜ ⎟
⎜ x2 ⎟
y siendo coordA (v) = ⎜
⎜ .. ⎟ y A = {v1 , v2 , . . . , vn } tenemos que
⎟
⎝ . ⎠
xn
v = x1 v1 + x2 v2 + . . . + xn vn . Luego aplicando T y usando la linealidad
T (v) =
x1 (a11 w1 + a21 w2 + . . . + am1 wm ) + x2 (a12 w1 + a22 w2 + . . . + am2 wm )
+ . . . + xn (a1n w1 + a2n w2 + . . . + amn wm ) =
= (x1 a11 + x2 a12 + . . . + xn a1n ) w1 + (x1 a21 + x2 a22 + . . . + xn a2n ) w2
+ . . . + (x1 am1 + x2 am2 + . . . + xn amn ) wm .
⎛ ⎞
x1 a11 + x2 a12 + . . . . + xn a1n
⎜ ⎟
⎜ x1 a21 + x2 a22 + . . . . + xn a2n ⎟
Luego coordB (T (v)) = ⎜
⎜ .. ⎟=
⎟
⎝ . ⎠
x1 am1 + x2 am2 + . . . . + xn amn
⎛ ⎞ ⎛ ⎞
a11 a12 . . . a1n x1
⎜ ⎟ ⎜ ⎟
⎜ a21 a22 . . . a2n ⎟ ⎜ x2 ⎟
=⎜
⎜ .. .. .. ⎟
⎟
⎜
⎜ .. ⎟ =
⎟ B ((T ))A coordA (v)
⎝ . . . ⎠ ⎝ . ⎠
am1 am2 . . . amn xn
⎛ ⎞
1 −1 0
⎜ ⎟
EJEMPLO 7.18. Sea T : R3 → R3 tal que B ((T ))A = ⎝ 2 0 0 ⎠
3 4 1
siendo A = B = {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} . Hallar T (2, 0, −1).
Como (2, 0, −1) = 2 (1, 0, 0) + (−1) (1, 1, 0) + 1 (1, 1, 1)
234 7. TRANSFORMACIONES LINEALES.
⎛ ⎞
2
⎜ ⎟
resulta que coordA (2, 0, −1) = ⎝ −1 ⎠
1
Luego de acuerdo al Teorema 7.27 se cumple que
coordB (T ((2, 0, −1))) =B ((T ))A coordA (2, 0, −1) =
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 −1 0 2 3
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
=⎝ 2 0 0 ⎠ ⎝ −1 ⎠ = ⎝ 4 ⎠
3 4 1 1 −3
Ası́ T (2, 0, −1) = 3 (1, 0, 0) + 4 (1, 1, 0) + (−3) (1, 1, 1) = (4, 1, −3)
Demostración. (Ejercicio).
EJEMPLO
⎛ 7.19. Hallemos
⎞ bases del núcleo y de la imagen de la matriz
1 0 1
⎜ ⎟
A=⎝ 2 1 1 ⎠ . Sea (x, y, z) ∈ N (A) . Entonces
−1 1 −2
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
x 0 1 01 x 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
A⎝ y ⎠ = ⎝ 0 ⎠ ⇔ ⎝ 2 1 1 ⎠ ⎝ y ⎠=⎝ 0 ⎠⇔
z 0 −1 1 −2 z 0
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
1 0 1 x 0 1 0 1 x 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 1 −1 ⎠ ⎝ y ⎠ = ⎝ 0 ⎠ ⇔ ⎝ 0 1 −1 ⎠ ⎝ y ⎠ = ⎝ 0 ⎠
0 1 −1 z 0 0 0 0 z 0
⎧ ⎧
⎪
⎨ x+z =0 ⎪
⎨ x = −z
⇔ ⇔ y=z
⎪
⎩ y−z =0 ⎪
⎩
z cualquiera
Luego los vectores del núcleo de A son de la forma (−z, z, z) = z (−1, 1, 1).
Ası́ {(−1, 1, 1)} es base del N (A) (¿por qué?)
Por otro lado de acuerdo a la Proposición 7.30 resulta que
{(1, 2, −1) , (0, 1, 1) , (1, 1, −2)} genera a la Im (A). Como
(1, 1, −2) = (1, 2, −1)−(0, 1, 1) , el generador es L.D. y lo reducimos hallando
{(1, 2, −1) , (0, 1, 1)} que es un generador L.I. –y por tanto una base– de
Im (A) (verifique).
EJEMPLO 7.20. Hallar una base del núcleo y una base de la imagen de
la matriz
⎛ ⎞
1 −1 1 1
⎜ ⎟
A=⎝ 1 0 2 −1 ⎠ . Sea (x, y, z, t) ∈ N (T ) . Entonces
1 1 3 −3
⎛ ⎞ ⎛ ⎞
x ⎛ ⎞ ⎛ ⎞ x ⎛ ⎞
⎜ y ⎟ 0 1 −1 1 1 ⎜ ⎟ 0
⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎜ y ⎟ ⎜ ⎟
A⎜ ⎟ = ⎝ 0 ⎠ ⇔ ⎝ 1 0 2 −1 ⎠ ⎜ ⎟ = ⎝ 0 ⎠ ⇔
⎝ z ⎠ ⎝ z ⎠
0 1 1 3 −3 0
t t
7.8. NÚCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 237
⎛ ⎞
⎛ ⎞ x ⎛ ⎞
1 −1 1 1 ⎜ ⎟ 0
⎜ ⎟⎜ y ⎟ ⎜ ⎟
⎝ 0 1 1 −2 ⎠ ⎜ ⎟ = ⎝ 0 ⎠ ⇔
⎝ z ⎠
0 2 2 −4 0
t
⎛ ⎞
⎛ ⎞ x ⎛ ⎞
1 −1 1 1 ⎜ ⎟ 0
⎜ ⎟⎜ y ⎟ ⎜ ⎟
⎝ 0 1 1 −2 ⎠ ⎜ ⎟ = ⎝ 0 ⎠
⎝ z ⎠
0 0 0 0 0
t
⎧ ⎧
⎪
⎪ ⎪
⎪ x = −2z + t
⎪
⎨ x−y+z+t = 0 ⎪
⎨ y = −z + 2t
⇔ ⇔
⎪
⎪ y + z − 2t = 0 ⎪
⎪ z = cualquiera
⎪
⎩ ⎪
⎩
t = cualquiera
Ası́ los vectores del núcleo de A son de la forma
(−2z + t, −z + 2t, z, t) = z (−2, 1, 0, 1) + t (1, 2, 0, 1)
Luego {(−2, 1, 0, 1) , (1, 2, 0, 1)} es un generador L.I. del N (A) (verifique) y
por lo tanto es base.
Por la proposición 7.30 {(1, 1, 1) , (−1, 0, 1) , (1, 2, 3) , (1, −1, −3)} es un
generador de la Im (A) que claramente es L.D.
Observando que (1, 2, 3) = 2 (1, 1, 1) + (−1, 0, 1)
(1, −1, −3) = −1 (1, 1, 1) + (−2) (−1, 0, 1)
reducimos el generador anterior hasta obtener {(1, 1, 1) , (−1, 0, 1)} que es
un generador L.I. de la Im (A) y por lo tanto es base.
(linealidad de T )
⇒ T (x1 v1 + . . . + xn vn ) = oV
⇒ x1 v1 + . . . + xn vn ∈ N (T ) .
> ?< =
coord−1
A (x)
7.8. NÚCLEO E IMAGEN: TRANSFORMACIONES LINEALES Y MATRICES. 239
6 0 1 0 1 0 1 0 1
1 1 0 0 1 −1 1 0
= −2 +1 +1 +0 ,
1 1 −1 0 0 0 0 0
0 1 0 1 0 1 0 1I
1 1 0 0 1 −1 1 0
−2 +1 +0 +1 =
1 1 −1 0 0 0 0 0
60 1 0 1I
−1 −3 −1 −2
= ,
−3 −2 −3 −2
es una base del núcleo de T.
n
2) Si y = (y1 ,⎛ ⎞) ∈ ⎛
. . . ., ym ⎞ ))A ) ⇒ existe x = (x1 , . . . ., xn ) ∈ R tal
Im (B ((T
x1 y1
⎜ . ⎟ ⎜ . ⎟
que B ((T ))A ⎜ . ⎟ ⎜ . ⎟
⎝ . ⎠=⎝ . ⎠⇒
xn ym
T (x1 v1 + . . . + xn vn ) = coord−1
B (y) .
> ?< =
= v0
Demostración. (Ejercicio).
244 7. TRANSFORMACIONES LINEALES.
{1 (2, 0, −1) + 1 (0, 1, 4) + (−1) (0, 0, 3) , 2 (2, 0, −1) + 1 (0, 1, 4) + 1 (0, 0, 3)}
{(2, 0, −4) , (5, 1, 5)} es base de la Im (T ).
7.9. CAMBIO DE BASE. 245
Demostración. (Ejercicio).
B′ ((IW ◦ T ◦ IV ))A′ =B ′ ((T ))A′ ⇒ B′ ((IW ))B B ((T ◦ IV ))A′ =B ′ ((T ))A′
0 1 0 1
3 −2 4 −2
EJEMPLO 7.27. La matriz B = y la matriz A =
1 2 2 1
0 1 0 1
1 −1 0 1
son semejantes, pues existe P = cuya inversa es P −1 =
1 0 −1 1
0 1 0 1 0 1 0 1
3 −2 0 1 4 −2 1 −1
tal que = (verifique!).
1 2 −1 1 2 1 1 0
OBSERVACI
0 1 ÓN 7.43.
0 No vale
1 el recı́proco de la proposición anterior pues
1 0 1 0
A= yB= cumplen
0 1 1 1
Demostración. (Ejercicio).
biyectiva.
Definimos F de la siguiente manera: Fijemos A base de V y B base de
W. Luego, a cada transformación T ∈ L (V, W ) le asignamos por imagen
250 7. TRANSFORMACIONES LINEALES.