0% encontró este documento útil (0 votos)
63 vistas13 páginas

Transformaciones Lineales

(1) El documento introduce el concepto de transformación lineal como una función entre espacios vectoriales que preserva la estructura vectorial. (2) Se definen el núcleo e imagen de una transformación lineal como subespacios especiales asociados a la transformación. (3) El teorema de las dimensiones establece una relación entre la dimensión del dominio, el núcleo y la imagen de una transformación lineal.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
63 vistas13 páginas

Transformaciones Lineales

(1) El documento introduce el concepto de transformación lineal como una función entre espacios vectoriales que preserva la estructura vectorial. (2) Se definen el núcleo e imagen de una transformación lineal como subespacios especiales asociados a la transformación. (3) El teorema de las dimensiones establece una relación entre la dimensión del dominio, el núcleo y la imagen de una transformación lineal.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 13

TRANSFORMACIONES LINEALES

MARCO A. PÉREZ

A BSTRACT. El objetivo de estas notas es simplemente hacer un repaso de los contenidos del curso “Geometría y
Álgebra Lineal 1” que nos serán más necesarios a lo largo del semestre, a saber, los conceptos y propiedades de:
transformaciones lineales, núcleo e imagen, teorema de las dimensiones, matriz asociada a una transformación
lineal y cambio de bases.

1. E L CONCEPTO DE TRANSFORMACIÓN LINEAL Y EJEMPLOS


En algunas áreas de la matemática es común el estudio de estructuras y relaciones entre éstas. Por ejem-
plo, parte del Análisis Matemático consiste en el estudio de conjuntos abiertos y funciones continuas entre
dichos conjuntos. Los conjuntos abiertos son conjuntos “con estructura”, y las funciones continuas son fun-
ciones que “preservan estructura”.

En Álgebra Lineal, los conjuntos con estructura que nos interesan son los espacios vectoriales, y las
funciones que preservan la estructura de espacio vectorial son las llamadas transformaciones lineales, que
definimos a continuación.

Definición 1.1. Sean V y W dos espacios vectoriales sobre un cuerpo K (= R o C), y T : V → W una función
entre ellos. Se dice que T es una transformación lineal si se cumplen las siguientes condiciones:
(1) Para todo v1 , v2 ∈ V , se tiene que
T (v1 + v2 ) = T (v1 ) + T (v2 ).
(2) Para todo v ∈ V y α ∈ R, se tiene que
T (αv) = αT (v).
Para el caso en el cual V = W , a T : V → V se le denomina operador lineal.
Se pueden notar a partir de la definición anterior los siguientes resultados.
Proposición 1.2. Sea T : V → W una función entre K-espacios vectoriales V y W . Las siguientes afirmaciones se
cumplen:
(1) T es una transformación lineal si, y sólo si,
T (αv1 + v2 ) = αT (v1 ) + T (v2 ), (i)
para todo v1 , v2 ∈ V y α ∈ K.
(2) Si T es una transformación lineal, entonces T (0V ) = 0W .

Ejemplo 1.3. Las afirmaciones hechas en los siguientes ejemplos se dejan como ejercicio.

(1) La función T : R3 → R2 dada por


T (x, y, z) = (2x − y + 3z, 7x + 5y − 6z)
para todo (x, y, z) ∈ R3 , es una transformación lineal.

1
(2) Para todo K-espacio vectorial V , la función identidad id : V → V es claramente una transformación
lineal.
Si W es otro K-espacio vectorial, la función cero 0 : V → W (que envía a todo vector de V en 0W )
es también una transformación lineal.

(3) Recordemos que Mm×n (K) denota el K-espacio vectorial de matrices de orden m × n con entradas
en K. Sea A ∈ Mm×n (K), digamos
 
a11 a12 · · · amn
A =  ... .. .. ..  .

. . . 
am1 am2 ··· amn
n m
Considere la función TA : K → K dada por
 
  k1
a11 a12 ··· amn
.. ..

..  ·  k2 
T (k1 , . . . , kn ) = 
 .. ,

. . . .   ..
 . 
am1 am2 ··· amn
kn
para todo (k1 , . . . , kn ) ∈ Kn . Entonces, T es lineal.
Vemos entonces que toda matriz induce una transformación lineal. Más adelante se verá que,
de hecho, toda transformación lineal entre espacios vectoriales de dimensión finita es de la forma
anterior.

(4) Sean C 0 (R) el espacio vectorial de las funciones continuas f : R → R, y C 1 (R) el subespacio de
C 0 (R) dado por las funciones derivables en R y con derivada continua. Considere la función
D : C 1 (R) → C 0 (R) dada por
D(f ) = f 0 ,
para toda f ∈ C 1 (R). Entonces, D es lineal.

(5) Sea v0 ∈ R3 un vector fijo. Entonces, la función Tv0 : R3 → R dada por


Tv0 (v) = hv0 , vi
para todo v ∈ R3 , es una transformación lineal. Recuerde que hv0 , vi denota el producto escalar
entre v0 y v.

(6) La función T : R → R dada por


T (x) = x + 3,
para todo x ∈ R, no es lineal.

Proposición 1.4. Las siguientes afirmaciones se cumplen:


(1) Si T, S : V → W son transformaciones lineales entre K-espacios vectoriales y α ∈ K, entonces la suma
T + S : V → W y el producto por un escalar α · T : V → W también lo son.
(2) Si T : V → W y S : W → U son transformaciones lineales entre K-espacios vectoriales, entonces la com-
posición S ◦ T : V → U también lo es.

2. S UBESPACIOS ESPECIALES ASOCIADOS A UNA TRANSFORMACIÓN LINEAL


Dada una transformación lineal T : V → S, existen un par de conjuntos asociados a T de mucha impor-
tancia: el núcleo y la imagen de T , que se definen como sigue.
2
Definición 2.1. El núcleo de T es el subconjunto de V dado por
Ker(T ) := {v ∈ V : T (v) = 0W }.
Es decir, Ker(T ) son dodos los vectores de V que son enviados, a través de T , al elemento neutro de W .1
La imagen de T se define como el subconjunto de W dado por
Im(T ) := {w ∈ W : w = T (v) para algún v ∈ V }.
Otras notaciones para el núcleo y la imagen de T también utilizadas son N (T ) y T (V ), respectivamente.
Resulta que Ker(T ) e Im(T ) no son solamente conjuntos, como muestra el siguiente resultado.
Proposición 2.2. Para toda transformación lineal T : V → W , las siguientes afirmaciones se cumplen:
(1) Ker(T ) es un subespacio de V .
(2) Im(T ) es un subespacio de W .

Una aplicación importante de los conceptos de núcleo e imagen es que nos permiten clasificar cuándo
una transformación lineal es inyectiva o sobreyectiva.
Definición 2.3. Una transformación lineal T : V → W es inyectiva (resp., sobreyectiva) si T es inyectiva
(resp., sobreyectiva) como función.
Las transformaciones lineales inyectivas son también conocidas como monomorfismos. Por otro lado,
las transformaciones lineales sobreyectivas también son llamadas epimorfismos. Un isomorfismo es una
transformación lineal T : V → W que es monomorfismo y epimorfismo. En tal caso, diremos que V y W
son espacios isomorfos.
Tenemos el siguiente resultado.
Proposición 2.4. Sea T : V → W una transformación lineal. Las siguientes equivalencias se cumplen.
(1) T es un monomorfismo si, y sólo si, Ker(T ) = {0V }.
(2) T es un epimorfismo si, y sólo si, Im(T ) = W .

Ejemplo 2.5. Supongamos que tenemos un K-espacio vectorial V de dimensión n, equipado con una base
A = {v1 , . . . , vn }. Luego, para cada v ∈ V , existen escalares α1 , . . . , αn ∈ K únicos tales que
v = α1 v1 + · · · + αn vn .
A la n-upla de escalares (k1 , . . . , kn ) se le llaman las coordenadas de v en la base A. Esto nos permite definir
una función
coordA : V → Kn
dada por
coordA (v) := (α1 , . . . , αn ),
para cada v ∈ V . Como ejercicio, demuestre que coordA es un isomorfismo de espacios vectoriales.

3. T EOREMA DE LAS DIMENSIONES


El núcleo y la imagen de una transformación lineal están relacionados a través del siguiente resultado.
Teorema 3.1 (de las dimensiones). Sea T : V → W una transformación lineal entre espacios vectoriales de dimen-
sión finita. Entonces,
dim(V ) = dim(Ker(T )) + dim(Im(T )).
Ejemplo 3.2.
(1) Sea T : R4 → R2 una transformación lineal tal que
Ker(T ) = {(x, y, z, w) ∈ R4 : x = 5y y z = 7w}.
Demuestre que T es sobreyectiva.

1 La notación Ker(T ) viene de la palabra “kernel”, que significa “núcleo” en Alemán.


3
Una manera de probar que R2 = Im(T ) es verificando que dim(Im(T )) = 2, ya que sabemos que
Im(T ) es subespacio de R2 . Esto lo podemos hacer mediante el teorema de las dimensiones. En
efecto,
dim(R4 ) = dim(Ker(T )) + dim(Im(T ))
4 = dim({(5y, y, 7w, w) ∈ R4 : y, w ∈ R}) + dim(Im(T ))
4 = 2 + dim(Im(T ))
2 = dim(Im(T )).
(2) Demuestre que no existe una transformación lineal T : R5 → R2 con núcleo igual a
Ker(T ) = {(x, y, z, w, t) ∈ R5 : x = 3y, y z = w = t}.
Supongamos que existe una tal transformación lineal T . Entonces,
dim(R5 ) = dim(Ker(T )) + dim(Im(T ))
5 = dim({(3y, y, z, z, z) ∈ R5 : y, z ∈ R})
5 = 2 + dim(Im(T ))
3 = dim(Im(T )).
Lo anterior es una contradicción, pues al ser Im(T ) un subespacio de R2 , forzosamente se tiene que
dim(Im(T )) ≤ 2.
Cerramos esta sección con algunas observaciones del teorema de las dimensiones.
Observación 3.3. Sean V y W K-espacios vectoriales de dimensión finita.
(1) Si dim(V ) > dim(W ), entonces ninguna transformación lineal T : V → W es inyectiva.
En efecto, supongamos que existe una transformación lineal T : V → W inyectiva. Luego,
dim(Ker(T )) = 0. Entonces, por el teorema de las dimensiones, se tiene que
dim(V ) = dim(Ker(T )) + dim(Im(T )) = dim(Im(T )) ≤ dim(W ),
lo cual es una contradicción.
(2) Si dim(V ) < dim(W ), entonces ninguna transformación lineal T : V → W es sobreyectiva.
En caso de existir tal transformación lineal, se tendría que dim(W ) = dim(Im(T )). Luego, nueva-
mente por el teorema de las dimensiones, se tiene que
dim(V ) = dim(Ker(T )) + dim(Im(T )) = dim(Ker(T )) + dim(W ) ≥ dim(W ),
lo cual es una contradicción.
(3) El teorema de las dimensiones nos da otra forma de calcular el rango de una matriz. Sea A ∈
Mm×n (K), y considere la transformación lineal TA : Kn → Km definida en el Ejemplo 1.3 (3). Se
puede demostrar que
rango(A) = dim(Im(TA )).
Luego, por el teorema de las dimensiones, tenemos que
rango(A) = n − dim(Ker(TA )).

4. M ATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL


Supongamos que tenemos dos espacios vectoriales V y W sobre un cuerpo K. Fijamos una base para V y
otra para W , llamémoslas A y B, respectivamente. Si suponemos que V tiene dimensión n y W dimensión
m, entonces pordemos escribir a A y B como sigue:
A = {v1 , . . . , vn },
B = {w1 , . . . , wm }.
4
Ahora, sea T : V → W una transformación lineal de V en W . Veamos cómo hallar una representación
matricial para T . Por el Ejemplo 2.5, podemos considerar:
   
a11 a12  
 a21   a22  a1n
coordB (T (v1 )) =  .  , coordB (T (v2 )) =  . , ··· coordB (T (vn )) =  ...  .
     
 ..   .. 
amn
am1 am2
Todo lo anterior permite obtener una representación matricial para T .

Definición 4.1. La representación matricial de T : V → W en las bases A ⊆ V y B ⊆ W (o matriz asociada


a T en las bases A y B) es la matriz
 
a11 a12 · · · a1n
 a21 a22 · · · a2n  
B ((T ))A :=  ..  = coordB (T (v1 )) coordB (T (v2 )) · · · coordB (T (vn ))
 
. .. ..
 .. . . . 
am1 am2 · · · amn
cuya i-ésima columna es el vector coordB (T (vi )).
Veamos ejemplos sobre cómo calcular B ((T ))A a partir de T , A y B dados.

Ejemplo 4.2.
(1) Dada A ∈ Mm×n (R) y la transformación lineal TA definida en el Ejemplo 1.3 (3). Note que la matriz
asociada a TA en las bases canónicas de Rn y Rm es precisamente A.

(2) Sea T : R3 → R2 la transformación lineal dada por


T (x, y, z) = (x + y, 2z − x).
(i) Si E2 y E3 denota las bases canónicas de R2 y R3 , encuentre la matriz de T en E2 y E3 .
(ii) Si consideramos las bases A = {v1 , v2 , v3 } ⊆ R3 y B = {w1 , w2 } ⊆ R2 , donde
v1 = (1, 0, −1), v2 = (1, 1, 1), v3 = (1, 0, 0),
w1 = (0, 1), w2 = (1, 0),
encuentre la matriz asociada a T en bases A y B.

Resolvamos primero lo que concierne a representaciones en bases canónicas. Recordemos que E3


viene dada por los vectores
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1);
mientras que E2 viene dada por los vectores
1 = (1, 0), 2 = (0, 1).
Primero calculamos T (e1 ), T (e2 ) y T (e3 ), y escribimos los resultados en términos E2 .
T (e1 ) = (1 + 0, 2 · 0 − 1) = (1, −1) = 1 · (1, 0) + (−1) · (0, 1),
T (e2 ) = (0 + 1, 2 · 0 − 0) = (1, 0) = 1 · (1, 0) + 0 · (0, 1),
T (e3 ) = (0 + 0, 2 · 1 − 0) = (0, 2) = 0 · (1, 0) + 2 · (0, 1).
Tenemos entonces los siguientes vectores de coordenadas:
     
1 1 0
coordE2 (T (e1 )) = , coordE2 (T (e2 )) = , coordE2 (T (e3 )) = .
−1 0 2
Entonces, la matriz asociada a T en bases canónicas es:
 
1 1 0
E2 ((T )) E1 = .
−1 0 2
5
Veamos ahora que al cambiar las bases a considerar, va a cambiar la matriz de representación de
T . Para las bases A y B 2 de la parte (ii), tenemos los siguientes cálculos:
T (v1 ) = (1 + 0, 2 · (−1) − 1) = (1, −3) = −3 · (0, 1) + 1 · (1, 0),
T (v2 ) = (1 + 1, 2 · 1 − 1) = (2, 1) = 1 · (0, 1) + 2 · (1, 0),
T (v3 ) = (1 + 0, 2 · 0 − 1) = (1, −1) = (−1) · (0, 1) + 1 · (1, 0),
     
−3 1 −1
coordB (T (v1 )) = , coordB (T (v2 )) = , coordB (T (v3 )) = ,
1 2 1
 
−3 1 −1
B ((T ))A = .
1 2 1
(3) Sea P : C2 → C2 la transformación lineal dada por
P (z1 , z2 ) = (z1 , 0).
2
Considere a C como C-espacio vectorial, con bases B1 = {(1, 0), (0, 1)} como la base canónica, y
B2 = {(1, i), (−i, 2)}. Hallar B2 ((P ))B1 y B1 ((P ))B2 .

Para hallar B2 ((P ))B1 , tenemos los siguientes cálculos:


P (1, 0) = (1, 0) = 2 · (1, i) + (−i) · (−i, 2),
P (0, 1) = (0, 0) = 0 · (1, i) + 0 · (−i, 2),
   
2 0
coordB2 (P (1, 0)) = , coordB2 (P (0, 1)) = ,
−i 0
 
2 0
B2 ((P ))B1 = .
−i 0
Finalmente, para hallar B1 ((P ))B2 , tenemos:
P (1, i) = (1, 0) = 1 · (1, 0) + 0 · (0, 1),
P (−i, 2) = (−i, 0) = −i · (1, 0) + 0 · (0, 1),
   
1 −i
coordB1 (P (1, i)) = , coordB1 (P (−i, 2)) = ,
0 0
 
1 −i
B1 ((P ))B2 = .
0 0
Este ejemplo sirve para darnos cuenta que para operadores lineales T : V → V , si B1 y B2 son bases
de V , entonces el orden de estas bases puede alterar la forma de la matriz asociada de T , es decir,
B2 ((T ))B1 no necesariamente coincide con B1 ((T ))B2 .

Dada una transformación lineal T : V → W entre K-espacios vectoriales V y W , con bases A de V y B


de W , es fácil ver que B ((T ))A está completamente determinada por T , A y B. En otras palabras, y como
vimos en uno de los ejemplos, si cambiamos A por otra base A0 de V y B por otra base B 0 de W , entonces la
matriz B0 ((T ))A0 es diferente a la de B ((T ))A . (Más adelante veremos cómo se relacionan estas dos matrices).

Otra cosa que podemos notar es que tenemos una asignación


(T, A, B) B ((T ))A ∈ Mm×n (K).

2 Tenga en cuenta que B no es la base canónica E2 de R2 . A pesar de que ambas tienen los mismos vectores, el orden en el que
aparecen es diferente.
6
Cabe preguntarse ahora si, en el caso en el que se nos dan B ((T ))A , A y B, es posible hallar la expresión que
define a T . Terminamos esta sección dando una respuesta afirmativa a esto.

Ejemplo 4.3. Hallar la transformación lineal T : R3 → R2 , donde R3 y R2 tienes como bases a


A = {(1, 0, 1), (2, 0, 0), (0, 1, 0)} y B = {(2, −1), (0, 2)},
y sabiendo que  
2 3 −1
B ((T ))A = .
1 0 2
Tomemos un vector arbitrario (x, y, z) ∈ R3 . Queremos hallar una fórmula para T (x, y, z) (que sea lineal,
por supuesto). Primero, escribimos a (x, y, z) como combinación lineal de los elementos de la base A:
(x − z)
(x, y, z) = z · (1, 0, 1) + · (2, 0, 0) + y · (0, 1, 0).
2
Ahora, aplicamos T a la expresión anterior:
(x − z)
T (x, y, z) = z · T (1, 0, 1) + · T (2, 0, 0) + y · T (0, 1, 0).
2
Entonces, para hallar T (x, y, z), basta con conocer T (1, 0, 1), T (2, 0, 0) y T (0, 1, 0). Aunque no conocemos
dichos valores, sí sabemos cuales son sus coordenadas en la base B (información que aparece en la matriz
B ((T ))A ):

T (1, 0, 1) = 2 · (2, −1) + 1 · (0, 2) = (4, −2) + (0, 2) = (4, 0),


T (2, 0, 0) = 3 · (2, −1) + 0 · (0, 2) = (6, −3) + (0, 0) = (6, −3),
T (0, 1, 0) = −1 · (2, −1) + 2 · (0, 2) = (−2, 1) + (0, 4) = (−2, 5).
Así tenemos:
(x − z)
T (x, y, z) = z · (4, 0) + · (6, −3) + y · (−2, 5)
 2 
3z − 3x
= (4z, 0) + 3x − 3z, + (−2y, 5y)
2
 
3 3
= 3x − 2y + z, − x + 5y + z .
2 2
Por otro lado, vimos que  
z
x−z
coordA (x, y, z) = 
,
2
y
y así podemos hacer el producto de B ((T ))A por este vector, obteniendo:
 
z
2z + 23 (x − z) − y 3x z
     
2 3 −1 −y+
·  x−z
2
= = 2 2
1 0 2 2y + z 2y + z
y
Luego:
   
3x z 3x z
−y+ · (2, −1) + (2y + z) · (0, 2) = 3x − 2y + z, − + y − + 4y + 2z
2 2 2 2
 
3 3
= 3x − 2y + z, − x + 5y + z .
2 2
= T (x, y, z).
Lo que ocurre al final del ejercicio anterior se debe a un resultado más abstracto, enunciado a contin-
uación, que nos dice cómo obtener las coordenadas de T (v) en la base B, conociendo las coordenadas de v
en la base A y la matriz asociada B ((T ))A .

7
Teorema 4.4. Sean V y W dos espacios vectoriales sobre un cuerpo K y con bases
A = {v1 , v2 , . . . , vn } ⊆ V y B = {w1 , w2 , . . . , wm } ⊆ W.
Para toda transformación lineal T : V → W , se cumple la siguiente igualdad:
coordB (T (v)) = B ((T ))A · coordA (v).

5. O PERACIONES ENTRE TRANSFORMACIONES LINEALES VS .


OPERACIONES ENTRE MATRICES

Sabemos que dadas dos transformaciones lineales T, S : V → W , podemos formar una nueva transfor-
mación lineal T + S : V → W . Si se nos dan bases A de V y B de W , sabemos que podemos hallar la
matriz asociada a T + S en bases A y B. Lo interesante aquí es que, en lugar de calcular B ((T + S))A con
el procedimiento mostrado anteriormente, podemos hallar esta matriz simplemente sumando las matrices
B ((T ))A y B ((S))A . Algo similar para con la transformación lineal α · T , para cualquier escalar α ∈ K, y la
matriz B ((α · T ))A . De manera más específica, tenemos el siguiente resultado.

Teorema 5.1. Sean V y W dos K-espacios vectoriales con bases A ⊆ V y B ⊆ W . Dadas dos transforma-
ciones lineales T, S : V → W y un escalar α ∈ K, las matrices asociadas a las transformaciones
T + S : V → W, α · T : V → W,
v 7→ (T + S)(v) := T (v) + S(v), v 7→ (α · T )(v) := α · T (v),
vienen dadas por:
B ((T + S))A = B ((T ))A + B ((S))A ,
B ((α · T ))A = α · B ((T ))A ,
donde las operaciones que salen a la derecha son la suma de matrices y la multiplicación de una matriz por
un escalar.
Ahora consideremos la situación en la que tenemos dos transformaciones lineales T : V → W y S : W →
U donde V , W y U tienen bases A, B y C, respectivamente. Podemos hallar la matriz asociada en bases A
y C de la composición S ◦ T : V → U , mediante el producto de las matrices asociadas de T y S. Específica-
mente, tenemos lo siguiente.

Teorema 5.2. Sean V , W y U K-espacios vectoriales con bases A ⊆ V , B ⊆ W y C ⊆ U . Si T : V → W


y S : W → U son transformaciones lineales con matrices asociadas B ((T ))A y C ((S))B , entonces la matriz
asociada a S ◦ T : V → U en bases A y C viene dada por:
C ((S ◦ T ))A = C ((S))B · B ((T ))A ,
donde el producto que aparece a la derecha es el producto usual de matrices.
Corolario 5.3. Sea T : V → W un isomorfismo, A una base de V y B una base de W . Entonces, B ((T ))A es
invertible, y la matriz asociada a la transformación lineal inversa T −1 : W → V en bases B y A viene dada
por
−1
A ((T ))B = (B ((T ))A )−1 .

6. C AMBIO DE BASES
En la sección anterior estudiamos cómo hallar las coordenadas de T (v) en una base teniendo la matriz
asociada a T y las coordenadas de v relativas a una base del dominio de T . Ahora nos centraremos en la
situación más simple en donde sólo trabajaremos con un espacio vectorial V , pero para el cual consider-
aremos dos bases diferentes A y A0 . El problema aquí será cómo conocer las coordenadas de v ∈ V respecto
a A0 si conocemos las coordenadas de v respecto a A. Veremos que esto será un caso particular del Teorema
4.4 haciendo T = idV (la identidad sobre V ).

8
Sean entonces A = {v1 , v2 , . . . , vn } y A0 = {v10 , v20 , . . . , vn0 } dos bases del K-espacio vectorial V . Tomamos
vj ∈ A, para el cual existen aij ∈ K, con 1 ≤ i ≤ n, tales que

vj = a1j v10 + a2j v20 + · · · + anj vn0 .

Es decir,
 
a1j
 a2j 
coordA0 (vj ) =  . (i)
 
..
 . 
anj

Notamos además que si consideramos la tranformación lineal identidad V → V , donde tomamos A como
base del dominio y A0 como base del codominio (es decir, idV : (V, A) → (V, A0 )), entonces

coordA0 (vj ) = coodA0 (I(vi )),

por lo que al colocar (i) como columnas de una matriz, nos da la matriz A0 ((I))A . Esta matriz asociada a I
en bases A y A0 tiene un nombre particular, que presentamos a continuación.

Definición 6.1. Dado un K-espacio vectorial V con bases

A = {v1 , v2 , . . . , vn } y A0 = {v10 , v20 , . . . , vn0 },

a la matriz

A0 ((I))A = coordA0 (v1 ) coordA0 (v2 ) · · · coordA0 (vn )
se le conoce como la matriz de cambio de la base A a la base A0 .

Lo siguiente es una consecuencia del Teorema 4.4, y nos dice cómo obtener las coordenadas de cualquier
vector v ∈ V respecto a la base A0 , si conocemos sus coordenadas respecto a la base A.

Corolario 6.2. Sean A y A0 dos bases de un espacio vectorial V . Entonces, para cualquier v ∈ V , se tiene

coordA0 (v) = A0 ((I))A · coordA (v) y coordA (v) = coordA ((I))A0 · coordA0 (v).
Ejemplo 6.3.
(1) Consideremos a R3 con la base canónica A = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, y el conjunto

A0 = {(1, 0, 2), (3, −1, 0), (0, 1, −2)}.

Verificar que A0 es una base de R3 , y hallar las coordenadas de cualquier v = (x, y, z) ∈ R3 en la


base A0 .

Para verificar que A0 es una base de R3 , basta colocar los elementos de A0 como columnas de una
matriz, calcularle su determinante y ver que es diferente de 0.
   
1 3 0  
0 1
det  0 −1 1  = 1 · det  −1 1  − 3 · det
2 −2
2 0 −2 0 −2
= ((−1)(−2) − 1 · 0) − 3 · (0 · (−2) − 1 · 2)
= 2 − 3(−2) = 2 + 6 = 8 6= 0.

Sabemos que las coordenadas de v = (x, y, z) respecto a A son x, y y z (en este orden). Entonces, para
conocer las coordenadas de v respecto a A0 , podemos calcularlas directamente, o usar la expresión
coordA0 ((I))A · coordA (v).
9
 
1/4
1 1 1
(1, 0, 0) = · (1, 0, 2) + · (3, −1, 0) + · (0, 1, −2), coordA0 (1, 0, 0) =  1/4  ,
4 4 4
1/4
 
3/4
3 1 3
(0, 1, 0) = · (1, 0, 2) − · (3, −1, 0) + · (0, 1, −2), coordA0 (0, 1, 0) =  −1/4  ,
4 4 4
3/4
 
3/8
3 1 1
(0, 0, 1) = · (1, 0, 2) − · (3, −1, 0) − · (0, 1, −2), coordA0 (0, 0, 1) =  −1/8  .
8 8 8
−1/8
Así:
   
1/4 3/4 3/8 2 6 3
1
A0 ((I))A =
 1/4 −1/4 −1/8  =  2 −2 −1  .
8
1/4 3/4 −1/8 2 6 −1
Finalmente:
coordA0 (x, y, z) = A0 ((I))A · coordA (x, y, z)
   
2 6 3 x
1
= 2 −2 −1  ·  y 
8
2 6 −1 z
   x 3y 3z 
2x + 6y + 3z 4 + 4 + 8
1
=  2x − 2y − z  =  x4 − y4 − z8  ,
8 x 3y z
2x + 6y − z 4 + 4 − 8
   
x 3y 3z x y z  x 3y z
(x, y, z) = + + (1, 0, 2) + − − (3, −1, 0) + + − (0, 1, −2)
4 4 8 4 4 8 4 4 8
(2) Consideremos el espacio P2 de polinomios con coeficientes en R y grado menor o igual a 2. Sea
A = {1, x, x2 } la base canónica de P2 y A0 = {4x − 1, 2x2 − x, 3x2 + 3}. Verifique que A0 es una base
de P2 , y calcule las coordenadas de cualquier p ∈ P2 en la base A0 .

Para verificar que A0 es una base de P2 , calculamos las coordenadas de los elementos de A0
respecto a A, con los vectores columna resultantes formamos una matriz, y verificamos que su
determinante es diferente de cero.
 
−1
4x − 1 = −1 · 1 + 4 · x + 0 · x2 , coordA (4x − 1) =  4  ,
0
 
0
2x2 − x = 0 · 1 + (−1) · x + 2 · x2 , coordA (2x2 − x) =  −1  ,
2
 
3
3x2 + 3 = 3 · 1 + 0 · x + 3 · x2 , coordA (4x − 1) =  0  .
3
 
−1 0 3    
−1 0 4 0
det  4 −1 0  = −1 · det + 3 · det = −1(−3) + 3 · 12 = 39 6= 0.
2 3 0 3
0 2 3
Entonces, A0 es una base de P2 .
Notamos que  
−1 0 3
A ((I))A0 = 4 −1 0  ,
0 2 3
10
por lo que para obtener A0 ((I))A , simplemente calculamos la inversa de la matriz anterior.
 −1  
−1 0 3 −3 6 3
−1 1
A0 ((I))A = (A ((I))A0 ) =  4 −1 0  =  −12 −3 12  .
27
0 2 3 8 2 1
Entonces, dado p(x) = a + bx + cx2 , tenemos:
   
−3 6 3 a
1 
coordA0 (p) = A0 ((I))A · coordA (p) = −12 −3 12  ·  b 
27
8 2 1 c
 3a 6b 3c
  a 2b c 
27 + 27 + 27 9 + 9 + 9
=  − 12a27 − 3b
27 + 12c 
27
=  − 4a − b + 4c  ,
9 9 9
8a 2b c 8a 2b c
27 + 27 + 27 27 + 27 + 27

1 1 1
p(x) = (a + 2b + c)(4x − 1) + (−4a − b + 4c)(2x2 − x) + (8a + 2b + c)(3x2 + 3).
9 9 27
Ahora que sabemos cómo cambiar las coordenadas de un vector entre dos bases, estudiaremos cómo
cambia la matriz asociada a una transformación lineal T : V → W cuando se tienen dos bases A y A0 de V ,
y B y B 0 de W .

Teorema 6.4. Sea T : V → W una transformación lineal, A y A0 dos bases de V , y B y B 0 dos bases de W .
Entonces, si conocemos la matriz B ((T ))A de T en bases A y B, podemos conocer la matriz B0 ((T ))A0 de T
en bases A0 y B 0 mediante la siguiente expresión:
B0 ((T ))A0 = B0 ((idW ))B · B ((T ))A · A ((idV ))A0 ,
donde idV : V → V y idW : W → W son las transformaciones lineales identidad sobre V y W , respectiva-
mente.
Cerramos esta sección presentando un par de propiedades de la matriz asociada a la transformación
identidad. La primera de ellas es inmediata y la segunda (la cual usamos en el ejemplo anterior) es conse-
cuencia del Corolario 5.3.
Proposición 6.5. Sea V un K-espacio vectorial de dimensión n, con bases A y A0 , y sea idV : V → V la transfor-
mación lineal identidad sobre V . Entonces, las siguientes condiciones se cumplen:
(1) A ((idV ))A = In , donde In denota la matriz identidad de orden n.
(2) A0 ((idV ))A es invertible, y (A0 ((idV ))A )−1 = A ((idV ))A0 .

7. M ATRICES SEMEJANTES
En el Teorema 6.4 vimos la igualdad B0 ((T ))A0 = B0 ((idW ))B · B ((T ))A · A ((idV ))A0 . Hablando de man-
era muy informal, podríamos decir que las matrices B0 ((T ))A0 y B ((T ))A se parecen, pues A ((idV ))A0 y
B0 ((idW ))B son matrices invertibles asociadas a operadores identidad. De hecho, B0 ((T ))A0 y B ((T ))A com-
parten algunos de sus valores importantes, como lo son su determinante y traza (en el sentido de que estos
coinciden). Al parecer, el determinate y la traza son un tipo de invariantes asociados a matrices de la forma
B0 ((T ))A0 y B ((T ))A . De hecho, esto último sigue siendo cierto cuando se define determinada relación entre
matrices cuadradas (no necesariamente asociadas a una transformación lineal). Dicha relación se conoce en
álgebra lineal como semejanza.

Definición 7.1. Sean A, B ∈ Mn (K) dos matrices cuadradas de orden n. Diremos que A y B son semejantes
si existe una matriz invertible P ∈ Mn (K) tal que
B = P −1 · A · P.

11
Ejemplo 7.2.
(1) Aunque sirvió para motivar el concepto de semejanza, B0 ((T ))A0 y B ((T ))A no necesariamente son
semejantes, pues aunque B0 ((T ))A0 = B0 ((idW ))B · B ((T ))A · A ((idV ))A0 , la matriz B0 ((idW ))B no tiene
por qué ser la inversa de A ((idV ))A0 .

Pero supongamos que tenemos un operador T : V → V donde en V consideramos dos bases A y


A0 . Entonces,
A ((T ))A0 = A ((idV ))A0 · A0 ((T ))A · A ((idV ))A0 ,

donde A ((idV ))A0 = (A ((idV ))A0 )−1 , por lo que A ((T ))A0 y A0 ((T ))A sí son semejantes.

(2) Las matrices


   
3 −2 4 −2
A= y B=
1 2 2 1
son semejantes, ya que B = P −1 AP , donde
 
0 1
P =
−1 1
es invertible y
 
1 −1
P −1 = .
1 0
(3) Sea θ un número real. Entonces, las matrices
   iθ 
cos(θ) −sen(θ) e 0
y
sen(θ) cos(θ) 0 e−iθ
son semejantes, donde eiθ = cos(θ) + isen(θ).

El concepto de semejanza entre matrices está estrechamente relacionado con el de representación matri-
cial de operadores lineales. En efecto, ya vimos en la parte 1. del ejemplo anterior que si T : V → V es
un operador lineal sobre V y si se consideran dos bases A y A0 de V , entonces A ((T ))A0 y A0 ((T ))A son
semejantes.

Ahora, si tenemos dos matrices semejantes A y B de orden n y con coeficientes en K, podemos escribir
tanto A como B como matrices asociadas a un mismo operador lineal. En efecto, dicho operador podemos
definirlo como
T : Kn → Kn
x 7→ A · x
donde x = (x1 , . . . , xn ). Es fácil ver que
A = E ((T ))E ,
donde E = {e1 , . . . , en } es la base canónica de Kn . Ahora, como A y B son semejantes, sabemos que existe
una matriz invertible P ∈ Mn (K) tal que B = P −1 · A · P . Dado que la matriz P es invertible, tenemos que
el conjunto B = {P · e1 , . . . , P · en } es una base de Kn . Más aún, podemos ver que P = E ((idKn ))U , por lo
cual P −1 = U ((idKn ))E . Por lo tanto, por el Teorema 6.4, tenemos:
B = P −1 · A · P = U ((idKn ))E · E ((T ))E · E ((idKn ))U = U ((T ))U .
Esto se especifica en el siguiente resultado.
Teorema 7.3. Dadas dos matrices A, B ∈ Mn (K). Entonces, A y B son semejantes si, y solamente si, A y B son
matrices asociadas a un mismo operador lineal sobre Kn ; es decir, existe un operador lineal T : Kn → Kn y bases A y
B de Kn tales que A = A ((T ))A y B = B ((T ))B .
12
Al principio de esta sección comentamos que tanto la traza como el determinante de matrices son invari-
antes bajo la relación de semejanza. Para explicar mejor en qué significa esto, supongamos de nuevo que
tenemos la situación
B = P −1 · A · P.
Para cualquier par de matrices cuadradas M y N (del mismo orden), recordamos por propiedades del
determinante y de la traza que det(M · N ) = det(M ) · det(N ) y tr(M · N ) = tr(N · M ). Entonces, para el
caso que nos compete, tenemos:
det(B) = det(P −1 · A · P ) = det(P −1 ) · det(A) · det(P ) = (det(P ))−1 · det(A) · det(P )
= det(A),
tr(B) = tr(P −1 · A · P ) = tr(A · P −1 · P )
= tr(A).
Resumamos esto en el siguiente resultado.

Teorema 7.4. Sean A y B dos matrices semejantes en Mn (K). Entonces, las siguientes propiedades se cumplen:
rg(A) = rg(B),
det(A) = det(B),
tr(A) = tr(B),
donde rg(A) denota el rango de la matriz A (número máximo de filas de A que son linealmente independientes).

(M. A. Pérez) I NSTITUTO DE M ATEMÁTICA Y E STADÍSTICA “P ROF. I NG . R AFAEL L AGUARDIA”. FACULTAD DE I NGENIERÍA .
U NIVERSIDAD DE LA R EPÚBLICA . M ONTEVIDEO 11300. URUGUAY
Email address: mperez@fing.edu.uy

13

También podría gustarte