Transformaciones Lineales
Transformaciones Lineales
MARCO A. PÉREZ
A BSTRACT. El objetivo de estas notas es simplemente hacer un repaso de los contenidos del curso “Geometría y
Álgebra Lineal 1” que nos serán más necesarios a lo largo del semestre, a saber, los conceptos y propiedades de:
transformaciones lineales, núcleo e imagen, teorema de las dimensiones, matriz asociada a una transformación
lineal y cambio de bases.
En Álgebra Lineal, los conjuntos con estructura que nos interesan son los espacios vectoriales, y las
funciones que preservan la estructura de espacio vectorial son las llamadas transformaciones lineales, que
definimos a continuación.
Definición 1.1. Sean V y W dos espacios vectoriales sobre un cuerpo K (= R o C), y T : V → W una función
entre ellos. Se dice que T es una transformación lineal si se cumplen las siguientes condiciones:
(1) Para todo v1 , v2 ∈ V , se tiene que
T (v1 + v2 ) = T (v1 ) + T (v2 ).
(2) Para todo v ∈ V y α ∈ R, se tiene que
T (αv) = αT (v).
Para el caso en el cual V = W , a T : V → V se le denomina operador lineal.
Se pueden notar a partir de la definición anterior los siguientes resultados.
Proposición 1.2. Sea T : V → W una función entre K-espacios vectoriales V y W . Las siguientes afirmaciones se
cumplen:
(1) T es una transformación lineal si, y sólo si,
T (αv1 + v2 ) = αT (v1 ) + T (v2 ), (i)
para todo v1 , v2 ∈ V y α ∈ K.
(2) Si T es una transformación lineal, entonces T (0V ) = 0W .
Ejemplo 1.3. Las afirmaciones hechas en los siguientes ejemplos se dejan como ejercicio.
1
(2) Para todo K-espacio vectorial V , la función identidad id : V → V es claramente una transformación
lineal.
Si W es otro K-espacio vectorial, la función cero 0 : V → W (que envía a todo vector de V en 0W )
es también una transformación lineal.
(3) Recordemos que Mm×n (K) denota el K-espacio vectorial de matrices de orden m × n con entradas
en K. Sea A ∈ Mm×n (K), digamos
a11 a12 · · · amn
A = ... .. .. .. .
. . .
am1 am2 ··· amn
n m
Considere la función TA : K → K dada por
k1
a11 a12 ··· amn
.. ..
.. · k2
T (k1 , . . . , kn ) =
.. ,
. . . . ..
.
am1 am2 ··· amn
kn
para todo (k1 , . . . , kn ) ∈ Kn . Entonces, T es lineal.
Vemos entonces que toda matriz induce una transformación lineal. Más adelante se verá que,
de hecho, toda transformación lineal entre espacios vectoriales de dimensión finita es de la forma
anterior.
(4) Sean C 0 (R) el espacio vectorial de las funciones continuas f : R → R, y C 1 (R) el subespacio de
C 0 (R) dado por las funciones derivables en R y con derivada continua. Considere la función
D : C 1 (R) → C 0 (R) dada por
D(f ) = f 0 ,
para toda f ∈ C 1 (R). Entonces, D es lineal.
Una aplicación importante de los conceptos de núcleo e imagen es que nos permiten clasificar cuándo
una transformación lineal es inyectiva o sobreyectiva.
Definición 2.3. Una transformación lineal T : V → W es inyectiva (resp., sobreyectiva) si T es inyectiva
(resp., sobreyectiva) como función.
Las transformaciones lineales inyectivas son también conocidas como monomorfismos. Por otro lado,
las transformaciones lineales sobreyectivas también son llamadas epimorfismos. Un isomorfismo es una
transformación lineal T : V → W que es monomorfismo y epimorfismo. En tal caso, diremos que V y W
son espacios isomorfos.
Tenemos el siguiente resultado.
Proposición 2.4. Sea T : V → W una transformación lineal. Las siguientes equivalencias se cumplen.
(1) T es un monomorfismo si, y sólo si, Ker(T ) = {0V }.
(2) T es un epimorfismo si, y sólo si, Im(T ) = W .
Ejemplo 2.5. Supongamos que tenemos un K-espacio vectorial V de dimensión n, equipado con una base
A = {v1 , . . . , vn }. Luego, para cada v ∈ V , existen escalares α1 , . . . , αn ∈ K únicos tales que
v = α1 v1 + · · · + αn vn .
A la n-upla de escalares (k1 , . . . , kn ) se le llaman las coordenadas de v en la base A. Esto nos permite definir
una función
coordA : V → Kn
dada por
coordA (v) := (α1 , . . . , αn ),
para cada v ∈ V . Como ejercicio, demuestre que coordA es un isomorfismo de espacios vectoriales.
Ejemplo 4.2.
(1) Dada A ∈ Mm×n (R) y la transformación lineal TA definida en el Ejemplo 1.3 (3). Note que la matriz
asociada a TA en las bases canónicas de Rn y Rm es precisamente A.
2 Tenga en cuenta que B no es la base canónica E2 de R2 . A pesar de que ambas tienen los mismos vectores, el orden en el que
aparecen es diferente.
6
Cabe preguntarse ahora si, en el caso en el que se nos dan B ((T ))A , A y B, es posible hallar la expresión que
define a T . Terminamos esta sección dando una respuesta afirmativa a esto.
7
Teorema 4.4. Sean V y W dos espacios vectoriales sobre un cuerpo K y con bases
A = {v1 , v2 , . . . , vn } ⊆ V y B = {w1 , w2 , . . . , wm } ⊆ W.
Para toda transformación lineal T : V → W , se cumple la siguiente igualdad:
coordB (T (v)) = B ((T ))A · coordA (v).
Sabemos que dadas dos transformaciones lineales T, S : V → W , podemos formar una nueva transfor-
mación lineal T + S : V → W . Si se nos dan bases A de V y B de W , sabemos que podemos hallar la
matriz asociada a T + S en bases A y B. Lo interesante aquí es que, en lugar de calcular B ((T + S))A con
el procedimiento mostrado anteriormente, podemos hallar esta matriz simplemente sumando las matrices
B ((T ))A y B ((S))A . Algo similar para con la transformación lineal α · T , para cualquier escalar α ∈ K, y la
matriz B ((α · T ))A . De manera más específica, tenemos el siguiente resultado.
Teorema 5.1. Sean V y W dos K-espacios vectoriales con bases A ⊆ V y B ⊆ W . Dadas dos transforma-
ciones lineales T, S : V → W y un escalar α ∈ K, las matrices asociadas a las transformaciones
T + S : V → W, α · T : V → W,
v 7→ (T + S)(v) := T (v) + S(v), v 7→ (α · T )(v) := α · T (v),
vienen dadas por:
B ((T + S))A = B ((T ))A + B ((S))A ,
B ((α · T ))A = α · B ((T ))A ,
donde las operaciones que salen a la derecha son la suma de matrices y la multiplicación de una matriz por
un escalar.
Ahora consideremos la situación en la que tenemos dos transformaciones lineales T : V → W y S : W →
U donde V , W y U tienen bases A, B y C, respectivamente. Podemos hallar la matriz asociada en bases A
y C de la composición S ◦ T : V → U , mediante el producto de las matrices asociadas de T y S. Específica-
mente, tenemos lo siguiente.
6. C AMBIO DE BASES
En la sección anterior estudiamos cómo hallar las coordenadas de T (v) en una base teniendo la matriz
asociada a T y las coordenadas de v relativas a una base del dominio de T . Ahora nos centraremos en la
situación más simple en donde sólo trabajaremos con un espacio vectorial V , pero para el cual consider-
aremos dos bases diferentes A y A0 . El problema aquí será cómo conocer las coordenadas de v ∈ V respecto
a A0 si conocemos las coordenadas de v respecto a A. Veremos que esto será un caso particular del Teorema
4.4 haciendo T = idV (la identidad sobre V ).
8
Sean entonces A = {v1 , v2 , . . . , vn } y A0 = {v10 , v20 , . . . , vn0 } dos bases del K-espacio vectorial V . Tomamos
vj ∈ A, para el cual existen aij ∈ K, con 1 ≤ i ≤ n, tales que
Es decir,
a1j
a2j
coordA0 (vj ) = . (i)
..
.
anj
Notamos además que si consideramos la tranformación lineal identidad V → V , donde tomamos A como
base del dominio y A0 como base del codominio (es decir, idV : (V, A) → (V, A0 )), entonces
por lo que al colocar (i) como columnas de una matriz, nos da la matriz A0 ((I))A . Esta matriz asociada a I
en bases A y A0 tiene un nombre particular, que presentamos a continuación.
a la matriz
A0 ((I))A = coordA0 (v1 ) coordA0 (v2 ) · · · coordA0 (vn )
se le conoce como la matriz de cambio de la base A a la base A0 .
Lo siguiente es una consecuencia del Teorema 4.4, y nos dice cómo obtener las coordenadas de cualquier
vector v ∈ V respecto a la base A0 , si conocemos sus coordenadas respecto a la base A.
Corolario 6.2. Sean A y A0 dos bases de un espacio vectorial V . Entonces, para cualquier v ∈ V , se tiene
coordA0 (v) = A0 ((I))A · coordA (v) y coordA (v) = coordA ((I))A0 · coordA0 (v).
Ejemplo 6.3.
(1) Consideremos a R3 con la base canónica A = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, y el conjunto
Para verificar que A0 es una base de R3 , basta colocar los elementos de A0 como columnas de una
matriz, calcularle su determinante y ver que es diferente de 0.
1 3 0
0 1
det 0 −1 1 = 1 · det −1 1 − 3 · det
2 −2
2 0 −2 0 −2
= ((−1)(−2) − 1 · 0) − 3 · (0 · (−2) − 1 · 2)
= 2 − 3(−2) = 2 + 6 = 8 6= 0.
Sabemos que las coordenadas de v = (x, y, z) respecto a A son x, y y z (en este orden). Entonces, para
conocer las coordenadas de v respecto a A0 , podemos calcularlas directamente, o usar la expresión
coordA0 ((I))A · coordA (v).
9
1/4
1 1 1
(1, 0, 0) = · (1, 0, 2) + · (3, −1, 0) + · (0, 1, −2), coordA0 (1, 0, 0) = 1/4 ,
4 4 4
1/4
3/4
3 1 3
(0, 1, 0) = · (1, 0, 2) − · (3, −1, 0) + · (0, 1, −2), coordA0 (0, 1, 0) = −1/4 ,
4 4 4
3/4
3/8
3 1 1
(0, 0, 1) = · (1, 0, 2) − · (3, −1, 0) − · (0, 1, −2), coordA0 (0, 0, 1) = −1/8 .
8 8 8
−1/8
Así:
1/4 3/4 3/8 2 6 3
1
A0 ((I))A =
1/4 −1/4 −1/8 = 2 −2 −1 .
8
1/4 3/4 −1/8 2 6 −1
Finalmente:
coordA0 (x, y, z) = A0 ((I))A · coordA (x, y, z)
2 6 3 x
1
= 2 −2 −1 · y
8
2 6 −1 z
x 3y 3z
2x + 6y + 3z 4 + 4 + 8
1
= 2x − 2y − z = x4 − y4 − z8 ,
8 x 3y z
2x + 6y − z 4 + 4 − 8
x 3y 3z x y z x 3y z
(x, y, z) = + + (1, 0, 2) + − − (3, −1, 0) + + − (0, 1, −2)
4 4 8 4 4 8 4 4 8
(2) Consideremos el espacio P2 de polinomios con coeficientes en R y grado menor o igual a 2. Sea
A = {1, x, x2 } la base canónica de P2 y A0 = {4x − 1, 2x2 − x, 3x2 + 3}. Verifique que A0 es una base
de P2 , y calcule las coordenadas de cualquier p ∈ P2 en la base A0 .
Para verificar que A0 es una base de P2 , calculamos las coordenadas de los elementos de A0
respecto a A, con los vectores columna resultantes formamos una matriz, y verificamos que su
determinante es diferente de cero.
−1
4x − 1 = −1 · 1 + 4 · x + 0 · x2 , coordA (4x − 1) = 4 ,
0
0
2x2 − x = 0 · 1 + (−1) · x + 2 · x2 , coordA (2x2 − x) = −1 ,
2
3
3x2 + 3 = 3 · 1 + 0 · x + 3 · x2 , coordA (4x − 1) = 0 .
3
−1 0 3
−1 0 4 0
det 4 −1 0 = −1 · det + 3 · det = −1(−3) + 3 · 12 = 39 6= 0.
2 3 0 3
0 2 3
Entonces, A0 es una base de P2 .
Notamos que
−1 0 3
A ((I))A0 = 4 −1 0 ,
0 2 3
10
por lo que para obtener A0 ((I))A , simplemente calculamos la inversa de la matriz anterior.
−1
−1 0 3 −3 6 3
−1 1
A0 ((I))A = (A ((I))A0 ) = 4 −1 0 = −12 −3 12 .
27
0 2 3 8 2 1
Entonces, dado p(x) = a + bx + cx2 , tenemos:
−3 6 3 a
1
coordA0 (p) = A0 ((I))A · coordA (p) = −12 −3 12 · b
27
8 2 1 c
3a 6b 3c
a 2b c
27 + 27 + 27 9 + 9 + 9
= − 12a27 − 3b
27 + 12c
27
= − 4a − b + 4c ,
9 9 9
8a 2b c 8a 2b c
27 + 27 + 27 27 + 27 + 27
1 1 1
p(x) = (a + 2b + c)(4x − 1) + (−4a − b + 4c)(2x2 − x) + (8a + 2b + c)(3x2 + 3).
9 9 27
Ahora que sabemos cómo cambiar las coordenadas de un vector entre dos bases, estudiaremos cómo
cambia la matriz asociada a una transformación lineal T : V → W cuando se tienen dos bases A y A0 de V ,
y B y B 0 de W .
Teorema 6.4. Sea T : V → W una transformación lineal, A y A0 dos bases de V , y B y B 0 dos bases de W .
Entonces, si conocemos la matriz B ((T ))A de T en bases A y B, podemos conocer la matriz B0 ((T ))A0 de T
en bases A0 y B 0 mediante la siguiente expresión:
B0 ((T ))A0 = B0 ((idW ))B · B ((T ))A · A ((idV ))A0 ,
donde idV : V → V y idW : W → W son las transformaciones lineales identidad sobre V y W , respectiva-
mente.
Cerramos esta sección presentando un par de propiedades de la matriz asociada a la transformación
identidad. La primera de ellas es inmediata y la segunda (la cual usamos en el ejemplo anterior) es conse-
cuencia del Corolario 5.3.
Proposición 6.5. Sea V un K-espacio vectorial de dimensión n, con bases A y A0 , y sea idV : V → V la transfor-
mación lineal identidad sobre V . Entonces, las siguientes condiciones se cumplen:
(1) A ((idV ))A = In , donde In denota la matriz identidad de orden n.
(2) A0 ((idV ))A es invertible, y (A0 ((idV ))A )−1 = A ((idV ))A0 .
7. M ATRICES SEMEJANTES
En el Teorema 6.4 vimos la igualdad B0 ((T ))A0 = B0 ((idW ))B · B ((T ))A · A ((idV ))A0 . Hablando de man-
era muy informal, podríamos decir que las matrices B0 ((T ))A0 y B ((T ))A se parecen, pues A ((idV ))A0 y
B0 ((idW ))B son matrices invertibles asociadas a operadores identidad. De hecho, B0 ((T ))A0 y B ((T ))A com-
parten algunos de sus valores importantes, como lo son su determinante y traza (en el sentido de que estos
coinciden). Al parecer, el determinate y la traza son un tipo de invariantes asociados a matrices de la forma
B0 ((T ))A0 y B ((T ))A . De hecho, esto último sigue siendo cierto cuando se define determinada relación entre
matrices cuadradas (no necesariamente asociadas a una transformación lineal). Dicha relación se conoce en
álgebra lineal como semejanza.
Definición 7.1. Sean A, B ∈ Mn (K) dos matrices cuadradas de orden n. Diremos que A y B son semejantes
si existe una matriz invertible P ∈ Mn (K) tal que
B = P −1 · A · P.
11
Ejemplo 7.2.
(1) Aunque sirvió para motivar el concepto de semejanza, B0 ((T ))A0 y B ((T ))A no necesariamente son
semejantes, pues aunque B0 ((T ))A0 = B0 ((idW ))B · B ((T ))A · A ((idV ))A0 , la matriz B0 ((idW ))B no tiene
por qué ser la inversa de A ((idV ))A0 .
donde A ((idV ))A0 = (A ((idV ))A0 )−1 , por lo que A ((T ))A0 y A0 ((T ))A sí son semejantes.
El concepto de semejanza entre matrices está estrechamente relacionado con el de representación matri-
cial de operadores lineales. En efecto, ya vimos en la parte 1. del ejemplo anterior que si T : V → V es
un operador lineal sobre V y si se consideran dos bases A y A0 de V , entonces A ((T ))A0 y A0 ((T ))A son
semejantes.
Ahora, si tenemos dos matrices semejantes A y B de orden n y con coeficientes en K, podemos escribir
tanto A como B como matrices asociadas a un mismo operador lineal. En efecto, dicho operador podemos
definirlo como
T : Kn → Kn
x 7→ A · x
donde x = (x1 , . . . , xn ). Es fácil ver que
A = E ((T ))E ,
donde E = {e1 , . . . , en } es la base canónica de Kn . Ahora, como A y B son semejantes, sabemos que existe
una matriz invertible P ∈ Mn (K) tal que B = P −1 · A · P . Dado que la matriz P es invertible, tenemos que
el conjunto B = {P · e1 , . . . , P · en } es una base de Kn . Más aún, podemos ver que P = E ((idKn ))U , por lo
cual P −1 = U ((idKn ))E . Por lo tanto, por el Teorema 6.4, tenemos:
B = P −1 · A · P = U ((idKn ))E · E ((T ))E · E ((idKn ))U = U ((T ))U .
Esto se especifica en el siguiente resultado.
Teorema 7.3. Dadas dos matrices A, B ∈ Mn (K). Entonces, A y B son semejantes si, y solamente si, A y B son
matrices asociadas a un mismo operador lineal sobre Kn ; es decir, existe un operador lineal T : Kn → Kn y bases A y
B de Kn tales que A = A ((T ))A y B = B ((T ))B .
12
Al principio de esta sección comentamos que tanto la traza como el determinante de matrices son invari-
antes bajo la relación de semejanza. Para explicar mejor en qué significa esto, supongamos de nuevo que
tenemos la situación
B = P −1 · A · P.
Para cualquier par de matrices cuadradas M y N (del mismo orden), recordamos por propiedades del
determinante y de la traza que det(M · N ) = det(M ) · det(N ) y tr(M · N ) = tr(N · M ). Entonces, para el
caso que nos compete, tenemos:
det(B) = det(P −1 · A · P ) = det(P −1 ) · det(A) · det(P ) = (det(P ))−1 · det(A) · det(P )
= det(A),
tr(B) = tr(P −1 · A · P ) = tr(A · P −1 · P )
= tr(A).
Resumamos esto en el siguiente resultado.
Teorema 7.4. Sean A y B dos matrices semejantes en Mn (K). Entonces, las siguientes propiedades se cumplen:
rg(A) = rg(B),
det(A) = det(B),
tr(A) = tr(B),
donde rg(A) denota el rango de la matriz A (número máximo de filas de A que son linealmente independientes).
(M. A. Pérez) I NSTITUTO DE M ATEMÁTICA Y E STADÍSTICA “P ROF. I NG . R AFAEL L AGUARDIA”. FACULTAD DE I NGENIERÍA .
U NIVERSIDAD DE LA R EPÚBLICA . M ONTEVIDEO 11300. URUGUAY
Email address: mperez@fing.edu.uy
13