Fasciculo 6
Fasciculo 6
Fasciculo 6
Transformaciones Lineales
Neptalı́ Romero
Universidad Centro Occidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Departamento de Matemáticas
Noviembre, 2003
Índice general
1. Transformaciones Lineales 3
1.1. Definición y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1. Algunos ejemplos de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 4
1.1.2. Transformaciones lineales de Kn en Km . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.3. Existencia de Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.4. Ejercicios Propuestos de la sección 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2. Núcleo e Imagen de Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.1. Núcleo de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.2. Imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.2.3. Relación entre nulidad y rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.4. Invertibilidad e isomorfismos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.2.5. Ejercicios Propuestos de la sección 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3. Espacio de Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.3.1. Estructura vectorial de L(U, V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.3.2. Álgebra de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.3.3. Ejercicios Propuestos de la sección 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.4. Transformaciones lineales y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.1. Representaciones Matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.4.2. Cambios de bases y representaciones matriciales . . . . . . . . . . . . . . . . . . . 56
1.4.3. Espacio dual y Bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.4.4. Ejercicios Propuestos de la sección 1.4 . . . . . . . . . . . . . . . . . . . . . . . . . 65
2
1
Transformaciones Lineales
tomemos ahora cualquier matriz A ∈ Mn×m (K). Esta matriz induce una transformación del espacio Km
en el espacio Kn , la cual la denotamos por TA y es definida como la correspondencia que asocia a cada
X ∈ Km la matriz (o vector) unicolumna AX ∈ Kn ; esto es, TA : Km → Kn es dada por TA (X) = AX.
Se deduce de las conocidas propiedades de las operaciones de adición de matrices y de multiplicación de
un escalar por una matriz que:
Observe que TA transforma la suma de los vectores X e Y en Km , en la suma de los vectores TA (X) y
TA (Y ) en Kn ; y también transforma el producto del escalar α ∈ K por el vector X de Km , en el producto
del mismo escalar por el vector imagen mediante TA del vector X; ¡este el significado de preservar la
estructura lineal!. Ahora la definición en abstracto:
Definición 1.1. Dados dos espacios vectoriales U y V sobre el mismo cuerpo K, decimos que una
aplicación T : U → V es una transformación lineal si cumple:
3
4 Fascı́culos de Álgebra Lineal
Observación 1.1.
1. Por abuso de notación en la definición anterior se emplea en [L1] y [L2] los mismos sı́mbolos para
la adición y multiplicación por escalares tanto en U como V .
2. Una propiedad simple, pero importante, de cualquier transformación lineal es la siguiente: suponga
que T : U → V es una transformación lineal cualquiera. Sean 0U y 0V los vectores nulos de U y V
respectivamente. Dado que
entonces se deduce que T (0U ) = 0V . De esta forma, la propiedad simple a la que nos referimos
queda enunciada de la siguiente forma:
si T : U → V es una transformación lineal, entonces T envı́a el vector nulo del espacio
U en el vector nulo del espacio V .
Obviamente si T : U → V es tal que T (0U ) 6= 0V , entonces T no es una transformación lineal.
La siguiente proposición es una caracterización del concepto de transformación lineal que reune las
propiedades [L1] y [L2] en una sola.
Proposición 1.1. Sean U y V espacios vectoriales sobre K. Una aplicación T : U → V es una transfor-
mación lineal si, y sólo si, para todo u, v ∈ U y cada α ∈ K se cumple
Demostración: Supongamos inicialmente que T es lineal, es decir satisface [L1] y [L2]. Tomemos vec-
tores cualesquiera u y v en U , y cualquier escalar α ∈ K, entonces de [L1] y [L2] sigue que
2 −1
TA (X + α Y ) = TA (X) + α TA (Y ), ya que A(X + α Y ) = AX + α Y . En particular, si A = ,
0 1
x 2x − y
entonces TA = define una transformación lineal de K2 en K2 . De forma general, para
y y
a11 a12 · · · a1m
a21 a22 · · · a2m
A=
. . . . . . . . . . . . . ∈ Mn×m (K), se tiene que
an1 an2 ··· anm
x1 x1 a11 x1 + a12 x2 + · · · + a1m xm
x2 x2 a21 x1 + a22 x2 + · · · + a2m xm
TA . = A . = ..
.. .. .
xm xm an1 x1 + an2 x2 + · · · + anm xm
Entonces la aplicación D : C 1 ((a, b), R) → C((a, b), R) dada por D(f ) = f ′ , donde f ′ denota la derivada
de la función f , define una transformación lineal. Esto sigue de las conocidas propiedades del Cálculo
6 Fascı́culos de Álgebra Lineal
Diferencial: la derivada de la suma de dos funciones es la suma de las derivadas de cada una de ellas, y
la derivada del producto de un escalar y una función es el producto de dicho escalar por la derivada de
dicha función; es decir,
Ejemplo 1.5 (Integración de funciones). El ejemplo que ahora presentamos requiere del lector un
conocimiento elemental del Cálculo Integral. Sea F([a, b], R) el espacio de todas las funciones del intervalo
cerrado [a, b] en R (a < b) con las operaciones usuales de adición y multiplicación de un escalar por una
función. Es bien conocido que el conjunto C([a, b], R) de todas las funciones continuas de [a, b] en R es un
subespacio vectorial de F([a, b], R). Sea T : C([a, b], R) → F([a, b], R) la aplicación definida como sigue:
para cada función f ∈ F([a, b], R), su imagen por T es la función T (f ) : [a, b] → R dada por
Z x
T (f )(x) = f (t) dt para cada x ∈ [a, b].
a
Veamos que T es lineal; para ello mostremos que T satisface [L]; esto es, cualesquiera sean las funciones
continuas f, g : [a, b] → R y cualquiera sea el escalar α ∈ R, siempre se cumple
T (f + α g) = T (f ) + α T (g). (1.1)
Recordemos que dos funciones h1 : [a, b] → R y h2 : [a, b] → R son iguales si, y sólo si, h1 (x) = h2 (x)
para cada x ∈ [a, b]. Luego para demostrar (1.1) debemos verificar que
lo cual muestra que T es en efecto una transformación del espacio C([a, b], R) en F([a, b], R).
Empleando las mismas propiedades del Cálculo Integral se verifica que la aplicación que asigna a cada
Rb
f ∈ C([a, b], R) el valor S(f ) = a f (t)dt, define un funcional lineal del espacio C([a, b], R); se dejan los
detalles al lector.
Ejemplo 1.6 (Homotecias). Fijemos un escalar real α 6= 0. Asociemos a cada vector v ∈ R2 el vector
Hα (v) = α v. La transformación Hα : R2 → R2 ası́ definida es conocida como homotecia del plano.
Veamos que es una transformación lineal. Observe antes que la imagen mediante Hα de cualquier vector
v no nulo es otro vector en la misma dirección de v; es más, si α > 0, entonces v es dilatado si α > 1 y
contraido si es menor que 1. Por otro lado, si α < 0, entonces α v está en la misma dirección de v pero
con sentido opuesto; además, v es dilatado si α < −1 y contraido si es mayor que −1; ver figura 1.1. La
demostración de la linealidad de Hα es simple: dados u, v ∈ R2 y β ∈ R tenemos:
Hα (u + β v) = α(u + β v) = α u + α(β v)
= α u + αβ v = α u + β(α v) = Hα (u) + β Hα (v).
En general las homotecias son definidas en cualquier espacio vectorial U sobre K: fijado un número
real α 6= 0, se define Hα : U → U por Hα (u) = α u. La demostración de la linealidad es exactamente
la misma anterior. Observe que el espacio vectorial U puede ser incluso un espacio vectorial sobre los
números complejos.
Transformaciones Lineales 7
αv
Hα
0R2 0R2
Rθ (v) θ
define un operador lineal en R2 . Note que la rotación en ángulo θ del vector nulo es el propio vector nulo;
además, al multiplicar cualquier vector por el escalar cero resulta el vector nulo, por tanto consideremos
cualquier vector no nulo v ∈ R2 y cualquier escalar no nulo α ∈ R. La figura 1.3 muestra la acción de
rotar en ángulo θ a los vectores v y αv. Gráficamente observe que Rθ respeta la multiplicación por un
v
θ θ v
Rθ (v) Rθ (v)
αv
0
Rθ (α v) 0 Rθ (α v)
αv θ
Figura 1.3: Rotación en ángulo θ de los vectores v y α v con 0 < α < 1 y −1 < α < 0 respectivamente.
escalar; esto es, Rθ (α v) = α Rθ (v). Ahora tomemos dos vectores no nulos u, v ∈ R2 , veamos la acción de
Rθ sobre el vector u + v y comparemos gráficamente tal vector resultante con el vector Rθ (u) + Rθ (v).
Como se podrá observar en la figura 1.4, al rotar en ángulo θ el paralelogramo definido mediante los
vectores u y v, obtenemos el paralelogramo definido por los vectores Rθ (u) y Rθ (v). Las diagonales de
tales paralelogramos son justamente los vectores u + v y Rθ (u) + Rθ (v) respectivamente. Esto indica que
Rθ también respeta la operación de adición de vectores; es decir Rθ (u + v) = Rθ (u) + Rθ (v); por tanto
(ilustradamente) Rθ es un operador lineal en R2 .
x
Dado un vector v = ∈ R2 , nos gustarı́a conocer una expresión algebraica para su imagen Rθ (v).
y
8 Fascı́culos de Álgebra Lineal
Rθ (u) + Rθ (v)
Rθ (v) u u+v
θ
θ
Rθ (u)
0 v
1 0
Dado que Rθ es lineal y v = xe1 + ye2 , donde e1 = y e2 = son los vectores canónicos de
0 1
R2 , entonces para obtener la expresión de Rθ (v) bastará con conocer expresiones para Rθ (e1 ) y Rθ (e2 ),
pues Rθ (v) = xRθ (e1 ) + yRθ (e2 ). Los vectores e1 y e2 están anclados en el origen de R2 y sus puntos
1 x 2 2
finales están sobre el cı́rculo unitario S = : x + y = 1 . Rotemos e1 y e2 en ángulo θ, ver
y
la figura 1.5. Del conocimiento elemental de trigonometrı́a plana sabemos que si medimos (en sentido
Rθ (e1 ) e2
θ
θ
0 e1
Rθ (e2 )
S1
antihorario) un ángulo 0 ≤ ρ < 2π a partir del semieje horizontal positivo, entonces las coordenadas
x0
del punto ∈ S1 , ver figura 1.6, son dadas por las ecuaciones x0 = cos(ρ) y y0 = sen(ρ), donde
y0
cos(ρ) y sen(ρ) denotan las funciones coseno y seno evaluadas en el ángulo ρ. De esta forma los vectores
x0
0
y0
S1
cos(θ) cos(θ + π2 )
Rθ (e1 ) y Rθ (e2 ) son justamente: Rθ (e1 ) = y Rθ (e2 ) = . Por otro lado, como
sen(θ) sen(θ + π2 )
cos(α + β) = cos(α) cos(β) − sen(α) sen(β), y sen(α + β) = sen(α) cos(β) + sen(β) cos(α), entonces
− sen(θ)
Rθ (e2 ) = . De esta forma,
cos(θ)
x cos(θ) − sen(θ)
Rθ = xRθ (e1 ) + yRθ (e2 ) = x +y
y sen(θ) cos(θ)
x cos(θ) − y sen(θ) cos(θ) − sen(θ) x
= = .
x sen(θ) + y cos(θ) sen(θ) cos(θ) y
x x cos(θ) − sen(θ)
Ası́, Rθ = Aθ , donde Aθ = ; la cual se le conoce con el nombre de matriz
y y sen(θ) cos(θ)
de rotación de ángulo θ.
Ejemplo 1.8 (Rotaciones complejas). Las rotaciones en ángulo θ que hemos descrito en el ejemplo
anterior pueden expresarse en el espacio vectorial complejo C. Sea z0 = x0 + iy0 el número complejo de
módulo 1 (x20 + y02 = 1) que hace con el semieje positivo horizontal el ángulo θ, ver figura 1.7.
z0 z
z0 θ
θ z
es decir, Rθ es un operador lineal en C. Por la forma como fue escogido z0 , es claro que x0 = cos(θ)
mientras que y0 = sen(θ); luego si hacemos z = x + iy, entonces
por lo que efectivamente, z0 z es justamente el vector obtenido a partir de z rotándolo en ángulo theta
medido en sentido antihorario. Note que no es una homotecia.
Ejemplo 1.9 (Homotecia y rotación). Hemos visto el efecto geométrico de multiplicar la matriz de
rotación de ángulo θ por un vector v de R2 : rotarlo en sentido antihorario en ángulo θ.
Examinaremos ahora el efecto que tiene sobre los vectores de R2 la multiplicación por cualquier matriz
con coeficientes en R y de la forma:
a −b
A= , con a2 + b2 > 0. (1.2)
b a
10 Fascı́culos de Álgebra Lineal
a
√ − rb 2 2
Lo primero será hacer r = a2 + b2 , sigue por tanto que A = r rb a ; y como ar + rb = 1,
r r
cos(θ) − sen(θ)
entonces existe un ángulo 0 ≤ θ < 2π tal que A = r . De esta manera, si TA es la
sen(θ) cos(θ)
transformación lineal inducida por la matriz A, ver ejemplo 1.1, entonces la imagen de cualquier vector no
nulo v de R2 mediante TA , es decir TA (v) = Av, es la rotación de v en ángulo θ (en sentido antihorario)
multiplicado por el escalar r. Observe que toda matriz de rotación es del tipo (1.2) con r = 1.
De manera similar al ejemplo 1.8, esta composición de una homotecia y una rotación puede realizarse
mediante un operador lineal en C. En efecto, sea z0 = r(x0 + iy0 ) ∈ C fijo, donde r > 0 y x20 + y02 = 1. El
operador lineal T : C → C dado por T (z) = z0 z tiene el mismo efecto geométrico que el operador lineal
en R2 dado por matrices del tipo (1.2).
Ejemplo 1.10. No todas las matrices A ∈ M2×2 (R) son del tipo anterior; sin embargo, también puede
decirse como actúan geométricamente sobre vectores del plano real. Veamos cual es tal efecto. Primero
a
recordemos que si tenemos un vector ∈ R2 , entonces existen r ≥ 0 y 0 ≤ θ < 2π de manera que
b
a cos(θ) √
=r ; de hecho r = a2 + b2 y θ es el ángulo, medido en sentido antihorario, entre el vector
b sen(θ)
a
dado y el vector canónico e1 ; esta es la representación polar del vector . Consideremos ahora cualquier
b
a b
matriz no nula A = con a, b, c, d ∈ R; (la matriz nula envı́a todos los vectores al vector nulo de
c d
R2 ) De lo anterior sigue que:
a cos(θ1 ) b cos(ρ1 )
= r1 y = r2 ,
c sen(θ1 ) d sen(ρ1 )
√ √
donde r1 = a2 + c2 , r2 = b2 + d2 , θ1 es el ángulo entre el vector dado por la primera columna de A
y e1 , mientras que ρ1 es el ángulo entre el vector que define la segunda columna de A y e1 . Sea θ2 el
ángulo medido en el sentido antihorario entre el vector de la segunda columna
de A y elvector canónico
b − sen(θ2 )
e2 . Es claro que θ2 = ρ1 − π2 ; luego es claro que podemos escribir = r2 . De esta forma
d cos(θ2 )
r1 cos(θ1 ) −r2 sen(θ2 )
la matriz A se escribe como A = . Una vez conocido esto se deducen:
r1 sen(θ1 ) r2 cos(θ2 )
la imagen de cualquier vector horizontal (v = α e1 ) por TA es igual a ese mismo vector rotado en
ángulo (antihorario) θ1 y multiplicado por el escalar r1 ; y
la imagen de cualquier vector vertical (v = α e2 ) por TA es igual a ese mismo vector rotado en
ángulo (antihorario) θ2 y multiplicado por el escalar r2 .
q′ p′
r q
TA θ2
0 p θ1
r′ 0
x z
determinantes que T es lineal; es decir, para todo
, ∈ K2 y cada α ∈ K se tiene:
y w
x z x + α z y + α w x y z w
T +α
= =
+α
y w a b a b a b
x z
= T +αT .
y w
La linealidad también ocurre si en lugar de colocar los vectores como filas lo hubiesemos colocados como
columnas; esto es, tambı́en vale la identidad
x + α z a x a
= + α z a
y + α w b y b w b
x z
para todo , ∈ K2 y cada α ∈ K.
y w
Igualmente continúa siendo válida la linealidad si el vector de coordenadas x, y se coloca en la segunda
fila (resp. segunda columna).
Lo que acabamos de mostrar se puede generalizar a Rn (o Cn ) con n ≥ 3. Fijemos n − 1 vectores
v1 , · · · , vn−1 ∈ Kn (n ≥ 2) y definimos T : Kn → K por T (v) = det(v, v1 , · · · , vn−1 ); es decir, T (v) es
el determinate de la matriz cuyas columnas (o filas) son los vectores v, v1 , · · · , vn−1 , se demuestra que T
define un funcional lineal. También, como en el caso bidimensional, no importa el lugar donde coloquemos
al vector v, la linealidad sigue cumpliéndose.
Ejemplo 1.12 (Traza de una matriz). Otro ejemplo clásico de un funcional lineal lo constituye la
traza de una matriz cuadrada. Sea tr : Mn×n (K) → K la función dada por
n
X
tr(A) = a11 + a22 + · · · + ann = aii , (1.3)
i=1
donde A es la matriz cuya entrada en la fila i y columna j es el escalar aij ∈ K (i, j = 1, · · · , n). Esto es,
tr asocia a cada matriz cuadrada su traza, que es la suma de los elementos de la diagonal de A. Debido
a las propiedades conocidas de la adición de matrices y multiplicación por escales, es simple verificar que
tr es un funcional lineal; los detalles quedan para el lector.
Ejemplo 1.13 (Proyecciones). Las proyecciones son otro ejemplo de transformaciones lineales. Veamos
2 2 x x
en primer lugar su forma más simple. Sea P : R → R defina por P = ; es decir, P proyecta
y 0
12 Fascı́culos de Álgebra Lineal
x
cada vector v = sobre su primera componente vectorial; ver la figura 1.9. Es facil chequear que P es
y
lineal. De hecho,
0 P (v)
x w x + αw x + αw x w
P +α = P = = +α
y z y + αz 0 0 0
x w
= P + αP
y z
x
y z y z y z
con lo cual α = − + , β = + y γ = x + − . Luego R3 = V ⊕ W pues cada vector y tiene
2 2 2 2 2 2
z
una única componente en el subespacio V , y una única en el espacio W ; de hecho:
−y+z 2x+y−z
x 2 2
y = v + w; donde v = y y w = 0 .
z z 0
x
Esta descomposición R3 = V ⊕ W induce dos operadores lineales, uno de los cuales envı́a el vector y
z
−y+z 2x+y−z
2 x 2
en su componente v = y en V ; el otro operador envı́a y sobre su componente w = 0
z z 0
en W .
Formalmente hemos definido las proyecciones de R3 sobre los subespacios V y W respectivamente
según la descomposición R3 = V ⊕ W ; esto es, hemos definido PV : R3 → R3 (la proyección de R3
sobre V a lo largo de W ) como ; y PW : R3 → R3 (la proyección de R3 sobre W a lo largo de V ) como
2x+y−z
x 2
PW y = 0 . La verificación de que ambos, PV y PW , son lineales se dejan al lector.
z 0
Ejemplo 1.14 (Proyección de un subespacio a lo largo de otro). Los operadores lineales del
ejemplo anterior son factibles de generalizaciones a espacios vectoriales abstractos. Supongamos que U es
un espacio vectorial sobre K y que V, W son subespacios de U de manera que U = V ⊕ W ; esto significa,
como siempre, que cada vector u de U se escribe de forma única como la suma de un vector v ∈ V y un
vector w ∈ W . Se define entonces PV : U → U como PV (u) = v, siempre que v sea la componente en
V de la descomposición que tiene el vector u en la suma directa V ⊕ W . Esta transformación se conoce
con el nombre de proyección de U sobre V a lo largo de W . Veamos que PV es lineal. Sean u1 , u2 ∈ U ,
entonces existen únicos v1 , v2 ∈ V y w1 , w2 ∈ W tales que
u1 = v1 + w1 y u2 = v2 + w2 .
Supongamos entonces como hipótesis inductiva que (1.4) se cumple para todo entero n entre 1 y k − 1.
Veamos que también se cumple para n = k. Tomemos k vectores u1 , · · · , uk y k escalares α1 , · · · , αk .
Entonces
Mantengamos ahora la notación unicolumna para los vectores de los espacios Kn , sea cual fuere
el entero n ≥ 1. Cuando sea necesario anunciaremos el cambio, es decir, diremos cuando usaremos la
notación de unifila para tales vectores; aunque el pase de una notación a otra está dada por la traspuesta
de tales objetos.
En el ejemplo 1.1, página 4, se mostró que si T : Kn → K es de la forma
x1 x1
.. .
T . = a1 x1 + · · · + an xn = a1 · · · an .. (1.6)
xn xn
para escalares fijos a1 , · · · , an , entonces T es un funcional lineal. El siguiente corolario demuestra que el
recı́proco también es cierto; con ello quedan caracterizados los funcionales lineales de Kn .
Corolario 1.1. Si T : Kn → K es lineal, entonces existen escalares a1 , · · · , an en K tales que, para todo
x1
..
vector v = . ∈ Kn se cumple
xn
T (v) = a1 x1 + · · · + an xn . (1.7)
Transformaciones Lineales 15
Demostración: En Kn sea {e1 , · · · , en } la base canónica. Para cada i ∈ {1, · · · , n} sea ai = T (ei ). Dado
x1
..
que cualquier vector v = . ∈ Kn se escribe como v = x1 e1 + · · · + xn en , entonces de la proposición
xn
anterior sigue que
Corolario 1.2. Toda T : Kn → K es un funcional lineal si, y sólo si, se expresa como (1.6).
En la misma lı́nea de argumentos, y como es natural en los procesos deductivos, surge la pregunta:
¿existe una caracterización semejante a la que hemos dado a los funcionales lineales para las transforma-
ciones lineales de Kn en Km ? La respuesta es: sı́ existe. ¡Vamos a descubrirla!
Primero observemos que si T : Kn → Km es cualquier aplicación de Kn en Km (no necesariamente
lineal), entonces existen funciones T1 , · · · , Tm : Kn → K tales que, para cada v ∈ Kn se tiene
T1 (v)
T (v) = ... ; (1.8)
Tm (v)
Proposición 1.3. Dada T : Kn → Km como en (1.8). Entonces, T es una transformación lineal si, y
sólo si, cada Ti : Kn → K (i = 1, · · · , m) es un funcional lineal.
Demostración: Sabemos que T es lineal si, y sólo si, T satisface la identidad [L] (ver proposición 1.1);
es decir, para cada u, v ∈ Kn y todo α ∈ K se cumple T (u + α v) = T (u) + α T (V ), equivalentemente:
T1 (u + α v) T1 (u) T1 (v)
.. . .
T (u + α v) = . = T (u) + α T (V ) = .. + α .. ;
Tm (u + α v) Tm (u) Tm (v)
16 Fascı́culos de Álgebra Lineal
dado que
T1 (u) T1 (v) T1 (u) + α T1 (v)
.. . ..
. + α .. = . ;
Tm (u) Tm (v) Tm (u) + α Tm (v)
se concluye que T es lineal si, y sólo si, para cada i = 1, · · · , m, cada u, v ∈ Kn y todo α ∈ K se tiene
Ti (u + α v) = Ti (u) + α Ti (v). En otras palabras, T es lineal si, y sólo si, cada una de sus funciones
componentes es un funcional lineal.
Esta proposición junto a la caracterización dada para los funcionales lineales de Kn en K, ver corolario
(1.2), permite caracterizar cualquier transformación lineal de Kn en Km . En efecto:
Mostremos ahora la unicidad de la matriz A. Supongamos que A, B ∈ Mm×n (K) son tales que
T (v) = Av = Bv para cada v ∈ Kn (pensado como vectores unicolumnas). Nótese que para cualquier
vector canónico ei (i = 1, · · · , n) de Kn y cualquier matriz C ∈ Mm×n (K), se tiene que Cei es justamente
la i-ésima columna de la matriz C. Luego de Av = Bv para cada v ∈ Kn , se deduce que ambas matrices
tienen las mismas columnas, pues Aei = Bei para cada vector canónico ei (i = 1, · · · , n). Esto implica
que A = B.
Con esta proposición hemos caracterizado las transformaciones lineales del espacio Kn en el espacio
m
K , sean cuales fueren los enteros positivos n y m. Además, justifica “la universalidad” de las transfor-
maciones lineales en el ejemplo 1.1.
Transformaciones Lineales 17
2x + y
x
Ejemplo 1.16. La aplicación T : R2 → R3 dada por T = x2 + 3y no es una transfor-
y
0
mación lineal pues no es posible expresarla como la identidad 1.9; de hecho la función componente
2x + y
x x
T2 = x2 + 3y no es lineal. No obstante, si hacemos T = x + 3y , entonces T si define
y y
0
2 1
x x
una transformación lineal de R2 en R3 pues T = 1 3 , o equivalentemente, cada función
y y
0 0
componente es un funcional lineal.
Comentario 1.1. Como el lector habrá notado, hasta ahora hemos venido considerando los vectores en
los espacios Kn (n ≥ 1) como vectores (o matrices) unicolumnas. Bajo esta consideración obtuvimos una
forma universal de escribir las transformaciones lineales entre este tipo de espacios vectoriales. Segura-
mente habrá pasado por la mente del lector la pregunta: ¿qué ocurre si en lugar de haber hecho esta
consideración se hubiese asumido que los vectores de los espacios Kn (n ≥ 1) son unifilas (n-úplas)? Pues
la situación no hubiese variado mucho, excepto que en este caso la forma universal de las transformaciones
lineales entre estos espacios es como sigue. Si los vectores de los espacios Kn (n ≥ 1) son de la forma
v = x1 · · · xn , entonces T : Kn → Km es una transformación lineal si, y sólamente si, existe una
a11 a12 · · · a1m
a21 a22 · · · a2m
única matriz A =
. . . . . . . . . . . . . . . . . . . . en Mn×m (K) tal que
an1 an2 ··· anm
a11 a12 · · · a1m
a21 a22 · · · a2m
T (v) = x1 ··· xn
. . . . . . . . . . . . . . . . . . . . .
an1 an2 · · · anm
Esta consideración dual sobre la forma que pudiesen asumir los vectores de los espacios Kn (n ≥ 1)
quizá introduzca cierto “ruido” en la comprensión de los resultados que acá se exponen. No obstante
alertamos al lector que a pesar de estar latente esta posibilidad, emplearemos ambas consideraciones;
dejando claro que una vez se fije la forma que tienen estos vectores en determinada situación, ésta se
mantendrá en el análisis que se esté realizando.
Teorema 1.1. Sean U y V espacios vectoriales sobre K con U de dimensión finita n ≥ 1. Dada una
base {u1 , · · · , un } de U y vectores cualesquiera v1 , · · · , vn de V , existe una única transformación lineal
T : U → V tal que T (ui ) = vi para cada i = 1, · · · , n.
18 Fascı́culos de Álgebra Lineal
Demostración: Probemos primero la existencia de una tal transformación lineal. Dado que {u1 , · · · , un }
es base de U , entonces para cada u ∈ U existen únicos escalares α1 , · · · , αn en K tales que
u = α1 u1 + · · · + αn un . (1.10)
Definamos T (u) = α1 v1 +· · ·+αn vn , siempre que u satisfaga (1.10). Afirmamos que T es lineal y satisface
lo requerido, es decir T (ui ) = vi para todo i = 1, · · · , n. Esta segunda parte es clara pues cada vector
básico ui (i = 1, · · · , n) se escribe de manera única como
u = α1 u1 + · · · + αn un y v = β1 u1 + · · · + βn un ;
Ejemplo 1.17. Pensemos en R3 y R4 como los espacios vectoriales reales de las 3-úplas y 4-úplas,
respectivamente. Sean v1 = (1, 1, 0), v2 = (0, 1, 1), v3 = (0, 1, −1); w1 = (0, 0, 0, 0), w2 = (−1, 1, 0, −1)
y w3 = (2, 1, −1, 1) vectores en tales espacios. Nos preguntamos si existe una transformación lineal
T : R3 → R4 tal que T (vi ) = wi para cada i = 1, 2, 3. De acuerdo al teorema anterior, si el conjunto
{v1 , v2 , v3 } es base de R3 , entonces existe una única transformación lineal que envı́a vi en wi para cada
i = 1, 2, 3. Por tanto lo primero es averiguar si {v1 , v2 , v3 } es o no una base de R3 . Recordemos que si
agrupamos estos vectores en una matriz (cada uno de ellos es una de las filas de tal matriz), entonces
v1 , v2 , v3 son linealmente independientes si, y sólo si, esa matriz es invertible (tiene rango máximo). En
Transformaciones Lineales 19
1 1 0
nuestro caso, la matriz a la que nos estamos refiriendo es A = 0 1 1 . Empleando el método de
0 1 −1
reducción por filas tenemos que:
1 1 0 1 1 0 1 1 0 1 0 0
0 1 1 −7 → 0 1 1 −7 → 0 1 1 −7 → 0 1 0 ;
0 1 −1 0 0 −2 0 0 −1 0 0 1
es decir, la matriz escalonada reducida por fila de A es la matriz identidad, esto implica que A es
invertible; por tanto {v1 , v2 , v3 } es una base de R3 . Luego el teorema 1.1 garantiza la existencia de una
única T : R3 → R4 lineal tal que T (vi ) = wi para cada i = 1, 2, 3.
Para conocer una expresión algebraica de esta transformación lineal requerimos expresar cualquier
(x, y, z) como combinación lineal de v1 , v2 , v3 , pues esto permite conocer la imagen de (x, y, z) en términos
de las imagénes de los vectores v1 , v2 , v3 . Ahora bien, una cuenta simple muestra que
α1 = x
(x, y, z) = α1 v1 + α2 v2 + α3 v3 si, y sólo si, α + α2 + α3 = y ;
1
α2 − α3 = z
por lo que mediante algún método conocido para la resolución de sistemas de ecuaciones lineales tenemos:
−x + y + z −x + y − z
α1 = x, α2 = y α3 = ,
2 2
de aqui entonces que
T (x, y, z) = α1 w1 + α2 w2 + α3 w3
−x + y − 3z x−y+z
= ( , −x + y, , −z).
2 2
Pensamos que en este punto es interesante retomar aquella discusión de como son considerados los
vectores de los espacios Kn (n ≥ 1); esto es: unifilas y unicolumnas. Si mantenemos el supuesto de
considerar estos vectores como unifilas, entonces la transformación lineal T se expresa como:
−1/2 −1 1/2 0
T( x y z )= x y z 1/2 1 −1/2 0 ;
−3/2 0 1/2 −1
mientras que si expresamos los vectores de R3 y R4 como matrices unicolumnas, entonces T se escribe
matricialmente como
−1/2 1/2 −3/2
x −1 x
1 0
T y = y ,
1/2 −1/2 1/2
z z
0 0 −1
dejamos los detalles al lector. ¿Qué relación existe en estas dos representaciones?
Ejemplo 1.18. El teorema 1.1 es muy preciso pues asegura la existencia y unicidad de una transfor-
mación lineal sujeta a ciertas condiciones iniciales, éstas son: el espacio donde está definida la requerida
transformación lineal debe ser de dimensión finita, y el conjunto de vectores sobre los cuales se está im-
poniendo determinadas imagénes debe constituir una base del espacio de salida; observe que ninguna
20 Fascı́culos de Álgebra Lineal
condición sobre la dimensión del espacio de llegada es impuesta. Sin embargo, a veces (no siempre) es
posible construir transformaciones lineales sujetas a condiones iniciales que no están en el marco del
enunciado del enunciado del teorema 1.1. Veamos un ejemplo.
En R2 consideremos los vectores v1 = (1, −1) y v2 = (−2, 2). Queremos saber si existe al menos una
transformación lineral T : R2 → R4 tal que
Note que según esta ley de correspondencia T (v2 ) = (2, 0, −2, −2), lo cual es claro por construcción.
Por otra parte, si asignamos a v3 otra imagen, tendremos otra transformación lineal. Por ejemplo, si
T (v3 ) = (1, 1, 1, 1), entonces
2. Sea C2 = {(x + iy, w + iz) : x, y, w, z ∈ R} el espacio vectorial sobre C con la operaciones usuales de
adición y multiplicación por escalares. ¿Cuáles de las siguientes aplicaciones T : C2 → C2 definen
transformaciones lineales?
4. Sea CR el espacio vectorial de los números complejos sobre el cuerpo de los números reales; esto es,
C dotado de la adición usual de números complejos, pero la multiplicación por escales es sobre R;
esto es, para todo α ∈ R y cada x + iy ∈ C se tiene: α(x + iy) = αx + iαy.
¿Cuáles de las siguientes aplicaciones T : CR → R definen funcionales lineales?
a) T (x + iy) = 2x.
b) T (x + iy) = x − tan(y).
c) T (x + iy) = x + 3y − 2.
d ) T (x + iy) = ax + by, con a, b ∈ R fijos.
5. Con la misma notación del ejercicio anterior. ¿Cuáles de las siguientes aplicaciones T : CR → CR
definen transformaciones lineales?
Determine la forma general que tienen las transformaciones lineales de CR en CR . ¿Existen ejemplos
de transformaciones lineales T : CR → CR que no sean lineales cuando se consideran de C en C?
6. ¿Existe una transformación lineal T : R2 → R3 que satisfaga las condiciones que se imponen?
0 2
1 1
a) T = 0 y T = 1.
1 −1
0 1
0 2
1 −1 1
b) T = 0 = T y T = 1.
1 3 −1
0 1
0 0
1 2
c) T = 1 y T = 1.
0 0
0 2
7. ¿Existe una transformación lineal T : R3 → R2 que satisfaga las condiciones que se imponen?
1 0 0
0 1 0
a) T 1 = , T 1 = y T 1 = .
1 1 0
0 0 1
1 0 1
0 1 0
b) T 1 = , T 1 = y T 2 = .
1 1 0
0 0 0
22 Fascı́culos de Álgebra Lineal
1 2
0 0
c) T 1 = y T 2 = .
1 0
0 0
8. ¿Existe una transformación lineal T : C2 → C2 que satisfaga las condiciones que se imponen?
9. Sea P2 (R) el espacio de todas las funciones polinómicas de grado menor o igual a 2 dotado de
las operaciones usuales de adición de polinomios y de multiplicación de un número real por un
polinomio. ¿Existe una transformación lineal T : P2 (R) → R que satisfaga las condiciones que se
imponen?
10. Suponiendo que los vectores de los espacios Kn (n ≥ 1) son matrices unifila (n-úplas), demostrar
que T : Kn → Km es una transformación lineal si, y sólo si, existe una única matriz A ∈ Mn×m (K)
tal que, para cada v ∈ Kn se tiene T (v) = vA. Ver final del comentario 1.1, página 17.
x
11. Sea Pα : R2 → R2 la aplicación que envı́a el vector v = en el vector Pα (v), el cual está sobre la
y
1
recta Lα de ecuación y = α x, para α ∈ R fijo, de tal manera que Pα (v) − v sea ortogonal a ; ver
α
la figura 1.10(a). Demostrar que Pα es lineal. Esta transformación lineal se conoce con el nombre de
v v
Lα Lα
Pα (v)
Pα (v)
(a) (b)
Rα (v)
proyección ortogonal sobre la recta Lα . Determine la matriz A de orden 2 × 2 tal que Pα (v) = Av
x
para todo v = .
y
12. Proceder como en el ejercicio anterior para la aplicación Rα : R2 → R2 que se muestra en la parte
(b) de la figura 1.10. Acá, los vectores v − Pα (v) y Rα (v) − Pα (v) tienen la misma norma, y este
Transformaciones Lineales 23
1
último vector es ortogonal a . El operador Rα se conoce con el nombre de reflexión sobre la
α
recta Lα .
13. Demostrar que la función traza de una matriz: tr : Mn×n (K) → K con:
n
X
tr(A) = a11 + a22 + · · · + ann = aii ,
i=1
es un funcional lineal; acá, a11 , a22 , · · · , ann son los elementos de la diagonal de la matriz A.
14. Sean A ∈ Mn×m (K) fija. Sea T : Km → Kn dada por TA (X) = AX. Demostrar que TA es la
transformación lineal nula si, y sólo si, A es la matriz nula.
a12 a1n
a22 a2n
15. Sea n un entero mayor o igual a 2. Fijemos n − 1 vectores v2 = . , · · · , vn = . . Para
.. ..
an2 ann
x1 x1 a12 · · · a1n
x2
x a22 · · · a2n
cada v = . se define T : Kn → K por T (v) = 2 . Demostrar que T es una
.. . . . . . . . . . . . . . . . . . . .
x · · · ann
xn n a2n
transformación lineal. Igualmente ocurre si en lugar de ubicar a v en la primera columna, se ubica
en cualquier otra; e incluso cambiando las columnas por filas.
4 4
16. Sea A = . Determine el efecto de la transformación lineal TA (X) = AX en el plano R2
−4 4
sobre:
19. Sea C 2 ((a, b), R) el espacio de las funciones de clase C 2 (dos veces diferenciables con segun-
da derivada continua) definidas en el intervalo abierto (a, b) (a < b) dotado de las operaciones
usuales de adición de funciones y multiplicación de un escalar por una función. Demostrar que
D : C 2 ((a, b), R) → C((a, b), R) dada por D(f ) = f ′′ − 2f ′ + 4f es una transformación lineal. ¿Con-
tinúa siendo lineal si D(f ) = αf ′′ + βf ′ + γf + δ cualesquiera sean las constantes α, β, γ, δ ∈ R?
24 Fascı́culos de Álgebra Lineal
20. Fijados B ∈ Mn×n (R) y α ∈ R, se define T : Mn×n (R) → Mn×n (R) por T (A) = AB + αBA.
Demostrar que T es lineal.
22. Sean V, W espacios vectoriales sobre K con V de dimensión finita n ≥ 1. Si T1 y T2 son transforma-
ciones lineales de V en W , demostrar que T1 = T2 si, y sólo si, para cualquier base B = {v1 , · · · , vn }
de V se tiene que T1 (vi ) = T2 (vi ) para todo i = 1, · · · , n.
23. Sean V un espacio vectorial sobre K de dimensión finita n ≥ 1 y B = {v1 , · · · , vn } una base de V .
1 si i = j
Para cada j = 1, · · · , n determine el funcional lineal fj : V → K tal que fj (vi ) = .
0 si i 6= j
Demostrar que para cada f : V → K lineal existen únicos escalares α1 , · · · , αn ∈ K tales que,
f = α1 f1 + · · · + αn fn .
Ejemplo 1.19. Los ejemplos más simples de núcleos de transformaciones lineales son justamente los
siguientes:
realidad esta es una propiedad general de los núcleos de transformaciones lineales, tal y como se muestra
en la siguiente proposición.
Proposición 1.5. Si T : U → V es cualquier transformación lineal, entonces N (T ) es un subespacio
vectorial de U .
Demostración: Ya sabemos que para cualquier transformación lineal T , su núcleo es siempre no vacı́o.
Por tanto resta mostrar que para cada u, v ∈ N (T ) y todo α ∈ K se tiene u + αv ∈ N (T ); recordar la
caracterización de subespacios estudiada en el capı́tulo sobre espacios vectoriales.
Tomemos entonces u, v ∈ N (T ), es decir T (u) = T (v) = 0V , y α ∈ K. Luego
T (u + αv) = T (u) + αT (v) = 0V + α0V = 0V ;
con lo cual u + αv ∈ N (T ) y la demostración está completa.
Una de las importantes virtudes que tiene el núcleo de una transformación lineal es su relación con la
propiedades de inyectividad de las transformaciones lineales. Antes de entrar en los detalles haremos una
pequeña revisión de los conceptos de inyectividad, sobreyectividad y biyectividad de aplicaciones entre
dos conjuntos cualesquiera.
Recordatorio 1.1. Dado un par de conjuntos cualesquiera, digamos A y B, y una aplicación f : A → B
entre ellos:
1. se dice que f es inyectiva si, para cualquier a, b ∈ A con a 6= b se tiene f (a) 6= f (b); o equivalente-
mente, f (a) = f (b) implica a = b;
2. se dice que f es sobreyectiva si para cada b ∈ B existe a ∈ A tal que f (a) = b; en otras palabras, f
es sobreyectiva si la ecuación f (a) = b siempre tiene solución en a ∈ A para cualquier b ∈ B.
3. Finalmente, f es biyectiva si es inyectiva y sobreyectiva. En este caso es simple verificar que para
cada b ∈ B existe un único a ∈ A tal que f (a) = b.
Asociado a la noción de biyección de una aplicación f : A → B está el concepto de invertibilidad de f .
Se dice que f : A → B es invertible si existe una aplicación g : B → A tal que f ◦ g = IB y g ◦ f = IA ,
donde IA e IB denotan las aplicaciones identidad en los conjuntos A y B, respectivamente. Se verifica
además que f : A → B es invertible si, y sólo si, es biyectiva; en tal caso la aplicación g anterior es única,
y se le conoce con el nombre de inversa de f , tal aplicación se acostumbra denotarla por f −1 ..
Teorema 1.2. Una transformación lineal T : U → V es inyectiva si, y sólo si, N (T ) = {0U }.
Demostración: Supongamos que T es inyectiva. Sabemos que {0U } ⊂ N (T ) pues T (0U ) = 0V . Sea
u ∈ N (T ), es decir T (u) = 0V . Dado que T (0U ) = 0V , entonces la inyectividad de T implica que u = 0V ,
por tanto N (T ) ⊂ {0U } y ası́ N (T ) = {0U }.
Recı́procamente, supongamos que N (T ) = {0U }. Para mostrar que T es inyetiva veamos que si
T (u) = T (v) entonces u = v. Obsérvese que si T (u) = T (v), entonces
T (u) − T (v) = T (u − v) = T (0U ) = 0V ,
de donde u − v ∈ N (T ) = {0U }, sigue que u − v = 0U , por lo que u = v.
En ocasiones a lo largo de estas notas también emplearemos el término no singular para referirnos
a una transformación lineal inyectiva; claramente bajo esta nomenclatura: una transformación lineal
singular es cualquier transformación lineal no inyectiva, es decir, su núcleo contiene vectores no nulos;
o equivalentemente, una transformación lineal T : U → V es no singular si, y sólo si, su núcleo es
N (T ) = {0U }.
Transformaciones Lineales 27
−1 0 1
Ejemplo 1.23. Sea TA : R3 → R2 con TA (X) = AX, donde A = . El núcleo de TA , como
2 1 2
ya es conocido, es el conjunto solución del sistema homogéneo de ecuaciones lineales AX = 0; que en
x
−x + z = 0
nuestro caso es el conjunto de vectores X = y tales que . Emplearemos el método
2x + y + 2z = 0
z
de reducción por filas para resolver este sistema de ecuaciones lineales y ası́ conocer geométricamente a
N (TA ). Observe que empleando operaciones elementales por fila tenemos:
−1 0 1 1 0 −1 1 0 −1
7−→ 7−→ ,
2 1 2 2 1 2 0 1 4
entonces el rango de A es 2, es decir el espacio solución de sistema AX = 0, y por ende N (T ), tiene
dimensión 1, que es la diferencia entre el número de incógnitas del sistema AX = 0 y el rango de la
matriz del sistema A. Luego existe una variable
libre; observe que en este caso z es la única variable libre.
1
Al hacer, por ejemplo, z = 1, se sigue que −4 es una base de N (T ). Esto nos dice que TA es no
1
1
inyectiva (singular) y además que N (TA ) es la recta que pasa por el origen con vector director a −4 .
1
Comentario 1.2. Como es conocido, al considerar los vectores de Km y Kn como vectores unicolumnas,
cualquier transformacion lineal T : Km → Kn se expresa mediante una matriz A ∈ Mn×m (K); esto es,
existe una única de tales matrices tal que para cada X ∈ Km se tiene T (X) = AX. También sabemos
que el núcleo de T es el espacio solución de AX = 0; por tanto algunas conclusiones inmediatas podemos
extraer:
Dado que el rango de A es siempre menor o igual que el número de sus filas, entonces cuando m > n
(más incógnitas que ecuaciones) la transformación lineal siempre es no inyectiva (singular).
T es inyectiva (no singular) si, y sólamente si, la única solución del sistema AX = 0 es la solución
nula. De hecho, se puede demostrar (quedan los detalles al lector) que T es inyectiva si, y sólo si,
el rango de A es igual al número de sus columnas m.
Ejemplo 1.24. Los núcleos de funcionales lineales no nulos de Rn tienen una especial caracterı́stica,
son hiperplanos de Rn . En efecto, sea f : Rn → R un funcional lineal no nulo. Como sabemos, existen
a1 , · · · , an ∈ R no todos nulos (caso contrario f = 0) tales que, para cada (x1 , · · · , xn ) ∈ Rn se tiene
f (x1 , · · · , xn ) = a1 x1 + · · · + an xn .
encontrará información al respecto. Sin embargo, si reducimos el dominio de T , por ejemplo a Pn (R)
(el espacio de las funciones polinómicas de grado menor o igual a n), entonces con toda precisión
N (T ) = {p(x) ∈ Pn (R) : grad(p(x)) ≤ 1}, donde grad(p(x)) denota el grado de p(x). Por tanto una
base de N (T ), en este caso, es {f0 , f1 }, donde f0 (x) = 1 y f1 (x) = x para todo x ∈ R.
En el caso de que el espacio vectorial que es dominio de una transformación lineal T sea de dimensión
finita, entonces es posible obtener otra forma (equivalente) de caracterizar su inyectividad. Es siguiente
teorema ofrece una tal caracterización, en términos del concepto de independencia lineal.
Teorema 1.3. Sean U un espacio vectorial de dimensión finita n ≥ 1 y B = {u1 , · · · , un } una base de
U . Una transformación lineal T : U → V es inyectiva si, y sólo si, los vectores T (u1 ), · · · , T (un ) son
linealmente independientes en V .
Demostración: Inicialmente supongamos que T es inyectiva; veamos que los vectores T (u1 ), · · · , T (un )
son linealmente independientes en V . Sean α1 , · · · , αn escalares en K tales que
α1 T (u1 ) + · · · + αn T (un ) = 0V ,
Ejemplo 1.26. Sea T : R3 → R4 la transformación lineal tal que T (ui ) = vi (i = 1, 2, 3), donde
u1 = (1, 0, 1), u2 = (0, 1, 1), u3 = (0, 0, 1) y v1 = (0, 1, 1, −2), v2 = (−1, 2, 1, 0), v3 = (2, 0, 2, −8). Esta
transformación lineal existe y es única, ver teorema 1.1, página 17.
Dado que {u1 , u2 , u3 } es base de R3 (¡verifı́quelo!), para saber si T es inyectiva o no, basta con averiguar
si los vectores v1 , v2 , v3 son linealmente independientes en R4 . Para esto construyamos la matriz cuyas
filas son los vectores v1 , v2 y v3 ; y procedamos a redurcila por filas, si el rango de esta matriz es 3, entonces
los vectores v1 , v2 y v3 son linealmente independientes, caso contrario, serán linealmente dependientes y,
según el teorema 1.3, la transformación lineal T es no inyectiva.
0 1 1 −2
Observe que la matriz a la que nos referimos es −1 2 1 0 . Por tanto:
2 0 2 −8
0 1 1 −2 −1 2 1 0 −1 2 1 0
−1 2 1 0 −7 → 0 1 1 −2 −7 → 0 1 1 −2 ,
2 0 2 −8 2 0 2 −8 0 0 0 0
luego la matriz tiene rango 2, de donde los vectores v1 , v2 y v3 son linealmente dependientes (de hecho,
v3 es combinación lineal de v1 y v2 ); ası́ que T es no inyectiva o singular. Observe que si cambiamos v3
por v3 = (0, 0, 0, 1), entonces T es inyectiva pues en tal caso la matriz correspondiente tiene rango 3.
Corolario 1.3. Si T : U → V una transformación lineal inyectiva y dim(U ) = n para algún entero
n ≥ 1, entonces dim(V ) ≥ n.
Transformaciones Lineales 29
Demostración: Sea B = {v1 , · · · , vn } una base de U , sigue del teorema 1.3 que T (v1 ), · · · , T (vn ) son
vectores linealmente independientes en V . Por tanto, dim(V ) ≥ n.
De este corolario podemos concluir que no es posible la existencia de una transformación lineal inyec-
tiva, por ejemplo, de R3 en R2 . La intuición geométrica nos dice que es imposible “incluir” inyectivamente
un espacio con mayor dimensión en otro de dimensión menor.
En abstractos, supongamos que U y V son espacios vectoriales sobre K de dimensiones n y m respec-
tivamente, supóngase además que n > m. Sea {u1 , · · · , un } una base de U , de existir una transformación
lineal T : U → V inyectiva, T (u1 ), · · · , T (un ) son vectores linealmente independientes en V , lo cual es
imposible dado que dim(V ) = m < n.
Definición 1.3. Dada una transformación lineal T : U → V se denomina imagen de T , que denotamos
por Im(T ), al conjunto Im(T ) = {T (u) : u ∈ U }.
0V ∈ Im(T ), pues T (0U ) = 0V para toda transformación lineal T : U → V ; por tanto Im(T ) es
siempre no vacı́a.
También es claro que Im(T ) = V si, y sólo si, T es sobreyectiva, pues para cada v ∈ V existe u ∈ U
tal que T (u) = v; ver recordatorio 1.1, página 26.
U V
Im(T )
T
0U 0V
1 0 2
Ejemplo 1.28. Sean A = −1 1 0 y TA : R3 → R3 la transformación lineal asociada a A; es decir,
1 1 4
TA (X) = AX para todo X ∈ R3 ; acá estamos considerando los vectores de R3 como vectores unicolumna.
De la propia definición de imagen de una transformación lineal tenemos que Y ∈ Im(TA ) si, y sólo si,
existe X ∈ R3 tal que AX = Y ; esto significa que los vectores de Im(TA ) son los vectores Y de R3 para
los cuales el sistema de ecuaciones lineales AX = Y tiene solución.
x
Del conocimiento que se tiene sobre sistemas de ecuaciones lineales concluimos que Y = y ∈ Im(TA )
z
1 0 2 x
si, y sólo si, las matrices A y la ampliada por Y , A|Y = −1 1 0 y , tienen el mismo rango; ya
1 1 4 z
que esto equivale a que el sistema AX = Y tenga solución.
Veamos entonces cúal es el conjunto imagen de la transformación lineal TA . Empleando la reducción
x
por filas para las matrices A y su ampliada por Y = y , tenemos:
z
1 0 2 x 1 0 2 x 1 0 2 x
f2 →f2 +f1 f3 →f3 −f2
−1 1 0 y − −−−−−−→ 0 1 2 x + y −−−−−−−→ 0 1 2 x+y ;
f3 →f3 −f1
1 1 4 z 0 1 2 z−x 0 0 0 −2x − y + z
por tanto, Y pertenece a Im(TA ) si, y sólo si, −2x − y + z = 0; es decir, Im(TA ) representa el plano de
−2
R3 que pasa por el origen y tiene como vector normal a −1 .
1
Comentario 1.3. En general, sea T cualquier transformación lineal de Km en Kn ; sabemos que existe
una única matriz A ∈ Mn×m (K) tal que T (X) = AX (estamos considerando los vectores de Km y Kn
como unicolumnas). Para que un vector Y ∈ Kn pertenezca a Im(TA ) se requiere que exista X ∈ Km
tal que AX = Y . Esto es, el conjunto imagen de T son los vectores Y de Kn que hacen al sistema de
ecuaciones lineales AX = Y soluble; o equivalentemente, Y ∈ Im(T ) si, y sólo si, las matrices A y su
ampliada por Y tienen el mismo rango.
Teorema 1.4. Sea T : U → V una transformación lineal. La imagen, Im(T ), de T es un subespacio
vectorial de V .
Demostración: Sabemos que Im(T ) 6= ∅ pues contiene, por lo menos, al vector nulo del espacio V .
Para verificar que es un subespacio de V basta entonces verificar que cualesquiera sean los vectores
v1 , v2 ∈ Im(T ) y el escalar α ∈ K, se tiene v1 + αv2 ∈ Im(T ). Sean v1 , v2 ∈ Im(T ) y α ∈ K, entonces
existen u1 , u2 ∈ U tales que T (ui ) = vi para i = 1, 2. Sigue por tanto que
1 −1 0
Ejemplo 1.29. Sea TA la transformación lineal de R3 en R2 dada por la matriz A = ,
1 −1 1
x x x
1 −1 0
es decir TA y = y para todo y ∈ R3 . Vamos a caracterizar tanto el núcleo
1 −1 1
z z z
x−y
como el espacio imagen de TA . Por definición tenemos que Im(TA ) = ∈ R2 : x, y, z ∈ R ,
x−y+z
x
mientras que su núcleo es dado por N (TA ) = y ∈ R3 : x − y = 0, y x − y + z = 0 . Dado que
z
N (TA ) es el espacio solución del sistema de ecuaciones lineales AX = 0 e Im(TA ) es el conjunto de los
vectores Y ∈ R2 tales que el sistema AX = Y sea soluble, analizaremos los rangos de las matrices A y su
ampliada por Y para ası́ describir a N (TA ) e Im(TA ). Haciendo uso de operaciones elementales por fila
a
tenemos para Y = que:
b
1 −1 0 a f2 →f2 −f1 1 −1 0 a
−−−−−−−→ ;
1 −1 1 b 0 0 1 −a + b
2. El número de variables libres del sistema AX = 0 es igual a 1, de donde dim(N (TA )) = 1. Como
x−y =0
el sistema AX = 0 es equivalente por filas al sistema , entonces la variable libre es y.
z=0
1
Al asignarle un valor no nulo, por ejemplo, y = 1, entonces el vector 1 constituye una base de
0
1
N (TA ), por lo que N (TA ) es la recta de R3 que pasa por el origen con vector director 1.
0
Observe que dim(N (TA )) + dim(Im(TA )) = 3 = dim(R3 ). Esta propiedad no es una casualidad, es un
hecho general de las transformaciones lineales definidas en espacios vectoriales de dimensión finita; tal
propiedad será demostrada luego del siguiente ejemplo.
Ejemplo 1.30 (Núcleo e imagen de proyecciones). En el ejemplo 1.13 se usó la noción de proyección
de un espacio vectorial sobre un subespacio a lo largo de otro para definir un par de operadores lineales,
ver página 11. Recordemos que si U es un espacio vectorial sobre K y V, W son subespacios de U tales
que U = V ⊕ W , entonces la aplicación PV : U → U dada por PV (u) = v siempre que el vector v se
escriba de manera única como u = v + w, donde v ∈ V y w ∈ W (recuerde el concepto de suma directa)
es un operador lineal, el cual hemos denominado proyección de U sobre V a lo largo de W . La figura
siguiente muestra una idea geométrica de como actúa PV sobre los vectores del espacio U . Afirmamos
que para este operador lineal se cumplen: N (PV ) = W e Im(PV ) = V ; por lo que N (PV ) ⊕ Im(PV ) = U .
Demostremos esta afirmación. Tomemos un vector cualquiera u ∈ N (PV ), esto es PV (u) = 0U . Sean
32 Fascı́culos de Álgebra Lineal
u=v+w
PV (u) = v
0U w W
Definición 1.4. Sea T : U → V una transformación lineal. Se conoce con el nombre de nulidad de T a
la dimensión de su núcleo, la cual se denota por nul(T ); y se denomina rango de T a la dimensión de su
espacio imagen, denotándose por ran(T ).
Teorema 1.5 (Teorema de la nulidad y rango). Sean U y V espacios vectoriales sobre K, y sea T
una transformación lineal de U en V . Si U tiene dimensión finita n ≥ 1, entonces
Antes de ofrecer una demostración veamos el lema a seguir, el cual será empleado.
Lema 1.1. Sean U y V espacios vectoriales sobre K, y sea T una transformación lineal de U en V . Si U
tiene dimensión finita n ≥ 1, entonces para cualquier base B = {u1 , · · · , un }, el conjunto T (u1 ), · · · , T (un )
generan al espacio imagen de T .
Demostración: Es inmediata pues una transformación lineal inyectiva envı́a vectores de una base en
vectores linealmente independientes, y como T (u1 ), · · · , T (un ) generan a Im(T ), entonces el corolario
sigue.
Demostración: [Teorema de la nulidad y rango] Conocido entonces que las imágenes de vectores
en una base de U generan al espacio imagen Im(T ), consideraremos dos casos para la demostración del
teorema:
Caso 1: T es inyectiva.
En tal caso N (T ) = {0U } y nul(T ) = 0. Luego del corolario se tiene nul(T ) + ran(T ) = n = dim(U ).
Caso 2: T no es inyectiva.
Supongamos que nul(T ) = dim(N (T )) = k ≥ 1, obviamente k ≤ n. Sea B = {u1 , · · · , uk } una base de
N (T ). Completemos B hasta obtener una base de U , digamos {u1 , · · · , uk , uk+1 · · · , un }. Afirmamos que
{T (uk+1 ), · · · , T (un )} es una base de Im(T ), con lo cual el teorema estará demostrado en este caso pues
Sea v ∈ Im(T ), luego existe u ∈ U tal que T (u) = v. Como antes, existen escalares α1 , · · · , αn tales que
u = α1 u1 + · · · + αk uk + αk+1 uk+1 + · · · + αn un , aplicando T a ambos lados se tiene:
esto muestra que los vectores T (uk+1 ), · · · , T (un ) generan a Im(T ). Veamos ahora estos mismos vectores
que son linealmente independientes. Supongamos que para los escalares αk+1 , · · · , αn se tiene
debemos mostrar que αk+1 = · · · = αn = 0. Sigue de (1.11) que T (αk+1 uk+1 +· · ·+αn un ) = 0V , de donde
αk+1 uk+1 + · · · + αn un ∈ N (T ). Por tanto αk+1 uk+1 + · · · + αn un es combinación lineal de los vectores
de la base B de N (T ); es decir, αk+1 uk+1 + · · · + αn un = α1 u1 + · · · + αk uk , para ciertos α1 , · · · , αk .
Luego (−α1 )u1 + · · · + (−αk )uk + αk+1 uk+1 + · · · + αn un = 0U ; pero como {u1 , · · · , uk , uk+1 · · · , un }, en
particular u1 , · · · , uk , uk+1 · · · , un son linealmente independientes, entonces se tiene
α1 = · · · = αk = αk+1 = · · · = αn = 0;
Comentario 1.4 (Nulidad y rango de matrices). Consideremos una matriz cualquiera A ∈ Mn×m (K)
y la transformación lineal TA : Km → Kn por ella definida; esto es, TA (X) = AX para cada X ∈ Km ,
donde X es considerado como un vector unicolumna. Sabemos que el núcleo de TA es el espacio solución
de sistema de ecuaciones lineales homogéneo AX = 0, por tanto la nulidad de TA (nul(TA )) que es la
dimensión de N (TA ) coincide con el número de variables libres que el sistema de ecuaciones admite, que
es la dimensión del espacio solución de tal sistema de ecuaciones. También es conocido que el número de
variables libres de AX = 0 es el número de incognitas del sistema (n en este caso) menos el rango de la
matriz A, rf (A), entendiéndose por este entero rf (A) al número máximo de filas linealmente independien-
tes en la matriz A; que como sabemos es el número de filas no nulas en la matriz escalonada reducida por
filas de A; rf (A) también es denominado rango fila de A. De esta forma entonces nul(TA ) = n − rf (A);
sigue por tanto del teorema de la nulidad y rango que rf (A) = ran(T ), pues nul(T ) + ran(T ) = n.
En diferentes textos de Álgebra Lineal uno puede llegar a encontrarse con el concepto de rango columna
de la matriz A, que no es otra cosa que el número máximo de columnas linealmente independientes que
posee la matriz A; en otras palabras, el rango columna de A es la dimensión del espacio generado por los
vectores que conforman las columnas de A; denotemos este número entero por rc (A).
Haciendo uso del teorema de la nulidad y rango se demuestra que rf (A) = rc (A); es decir, el número
de filas linealmente independientes y el número de columnas linealmente independientes de una matriz
A son iguales. En efecto, dado que el espacio imagen de TA es el conjunto de las matrices unicolumnas
n × 1, digamos B, tales que AX = B para alguna matriz unicolumna X de orden m × 1, entonces al
denotar por A1 , · · · , Am las columnas de A y por x1 , · · · , xn las componentes de X tenemos
AX = x1 A1 + · · · + xn Am ,
ası́ que Im(TA ) es el espacio generado por las columnas A1 , · · · , Am de A, como era conocido, pues
estas columnas son las imágenes por TA de los vectores canónicos e1 , · · · , em de Km . Ahora bien, la
dimensión de este espacio generado por tales vectores columnas es justamente el número máximo de
vectores linealmente independientes en este conjunto generador; esto es, ran(TA ) = rc (A); sigue de lo
anterior que rf (A) = rc (A).
El siguiente corolario muestra otra de las consecuencias que se derivan del teorema de la nulidad y
rango.
Corolario 1.5. Sean U, V espacios vectoriales sobre K ambos de dimensión finita igual a n ≥ 1. Si
T : U → V es una transformación lineal, entonces son equivalentes:
i) T es biyectiva.
ii) T es inyectiva.
iii) T es sobreyectiva.
Demostración: Claramente por definición, ver recordatorio 1.1 en página 26, se tiene que i) implica
tanto a ii) (de hecho también i) implica iii)). Veamos que ii) implica iii). Si T es inyectiva, entonces
nul(T ) = 0, luego n = ran(T ). Por tanto el espacio imagen de T , Im(T ), tiene la misma dimensión de
V ; pero como el único subespacio de dimensión n de un espacio vectorial de dimensión n es el propio
espacio, entonces Im(T ) = V lo que significa que T es sobreyectiva.
Finalmente, supongamos que iii) vale, y mostremos que T es biyectiva. Para esto falta verificar que
T es inyectiva. Dado que hemos supuesto T sobreyectiva, Im(T ) = V y ran(T ) = n; luego del teorema
1.5 se tiene que nul(T ) = 0; es decir, N (T ) = {0U } y por tanto T es inyectiva.
36 Fascı́culos de Álgebra Lineal
Corolario 1.6. Dados dos espacios vectoriales U y V sobre K ambos de dimensión finita n ≥ 1, y dada
una transformación lineal T : U → V , las siguientes propiedades son equivalentes:
i) T es invertible.
De este resultado, cuya demostración (simple por demás) se deja al lector, se tiene
Corolario 1.7. Sean U y V dos espacios vectoriales sobre K ambos de dimensión finita n ≥ 1. Si
T : U → V es una transformación lineal invertible, entonces dim(U ) = dim(V )
A raı́z de esta conclusión, cabe preguntarse si el recı́proco de tal propiedad es válida; es decir, ¿será cier-
to que si dos espacios vectoriales U y V (ambos sobre el mismo cuerpo K) tienen la misma dimensión,
entonces existe una transformación lineal T : U → V que sea biyectiva? La respuesta es afirmativa, sin
embargo aplazamos su demostración para la siguiente sección.
Como se habrá notado en la hipótesis de los corolarios 1.5 y 1.6 se exige que la dimensión de los
espacios vectoriales de salida sea finita; en realidad esta condición no puede ser removida. El siguiente
ejemplo ilustra esta imposibilidad.
Ejemplo 1.32. Consideremos el conjunto R∞ de todas las sucesiones (xn )n≥0 de números reales. Tal
conjunto es un espacio vectorial sobre R cuando se le dota de las operaciones:
(xn )n≥0 + (yn )n≥0 = (xn + yn )n≥0 y α(xn )n≥0 = (αxn )n≥0 .
Puede verificarse de manera muy sencilla que R∞ dotado de estas operaciones es de dimensión infinita;
de hecho, para cada entero positivo m, las sucesiones e1 , · · · , em son linealmente independientes, donde
cada ek es la sucesión que tienen todas sus entradas iguales a 0 excepto la entrada k que es igual a 1;
ası́ que R∞ no puede tener dimensión finita pues admite una colección infinita de vectores linealmente
independientes.
Ahora definamos las transformaciones lineales T : R∞ → R∞ y S : R∞ → R∞ por
para cada (x0 , x1 , x2 , · · · ) ∈ R∞ . Es simple verificar que la transformación T es inyectiva pero no sobre-
yectiva; mientras que S es sobreyectiva pero no inyectiva. Los detalles quedan para el lector.
de biyección (ver recordatorio 1.1 en la página 26) existe una única aplicación T −1 : V → U tal que
T ◦ T −1 = IV y T −1 ◦ T = IU , donde IU e IV son las transformaciones identidad en los espacios U y
V respectivamente. Observe además que si T : U → V es una transformación lineal invertible, entonces
T −1 : V → U es también invertible y (T −1 )−1 = T .
La siguiente proposición nos dice que la linealidad es preservada por la inversa de una transformación
lineal invertible.
Proposición 1.6. Si T : U → V es una transformación lineal invertible, entonces T −1 : V → U es
también lineal.
Demostración: Para mostrar que T −1 es lineal basta chequear que para cada par de vectores v1 , v2 ∈ V
y cualquier escalar α ∈ K se cumple T −1 (v1 + α v2 ) = T −1 (v1 ) + α T −1 (v2 ).
Sean v1 , v2 ∈ V y α ∈ K. Dado que T es biyectiva existen únicos vectores u1 , u2 ∈ U tales que
T (ui ) = vi ; por definición de T −1 se tiene que T −1 (vi ) = ui para i = 1, 2. Dado que T es lineal,
T (u1 + α u2 ) = v1 + α v2 ; por tanto T −1 (v1 + αv2 ) = u1 + αu2 , sigue entonces que
ası́ T −1 es lineal.
Ejemplo 1.33 (Matrices invertibles). Sean A una matriz cuadrada de orden n con coeficientes en
K y TA : Kn → Kn la transformación lineal asociada a A, esto es, TA (X) = AX para cada vector
X ∈ Kn , los cuales son considerados como vectores unicolumna. Note que TA es invertible si, y sólo
si, N (TA ) = {0Kn }; en otras palabras, TA es invertible si, y sólo si la única solución del sistema de
ecuaciones lineales homogéneo AX = 0 es la solución nula. Supongamos entonces que A es invertible
y que TA−1 : Kn → Kn es la inversa de TA . Por ser TA−1 una transformación de Kn en Kn , existe
una única matriz B ∈ Mn×n (K) tal que T −1 (X) = BX para cada X ∈ Kn . Entonces de la identidad
T ◦ T −1 = T −1 ◦ T = IKn se deduce inmediatamente que ABX = X = BAX, para cada X ∈ Kn por
tanto AB = In = BA, donde In denota la matriz identidad de orden n. Esto nos dice que la matriz B
que define a TA−1 es justamente la matriz inversa de A.
Definición 1.5. A toda transformación lineal T : U → V invertible se le conoce con el nombre de
isomorfismo lineal, o simplemente isomorfismo. Cuando exista un isomorfismo T : U → V se dice que el
espacio vectorial U es isomorfo al espacio vectorial V .
Comentario 1.5. Note que si U es isomorfo a V , entonces V es isomorfo a U ; esto sigue del hecho que
la transformación lineal inversa T −1 : V → U es también un isomorfismo. Observe que si definimos sobre
la colección de todos los espacios vectoriales sobre K la relación ∼ dada por
U ∼ V si U es isomorfo a V,
entonces ∼ es una relación simétrica; esto es, U ∼ V implica V ∼ U . En realidad esta relación es de
equivalencia: reflexiva, simétrica y transitiva. La reflexividad sigue del hecho que para cualquier espacio
vectorial U , la transformación identidad IU : U → U es un isomorfismo. Para demostrar la transitividad,
note que si U ∼ V y V ∼ W , entonces existen isomorfismos T : U → V y S : V → W . Dado que
la composición las aplicaciones biyectivas es también biyectiva, entonces S ◦ T : U → W definida por
(S ◦ T )(u) = S(T (u)) para cada u ∈ U es biyectiva. Resta mostrar que S ◦ T es lineal para tener U ∼ W .
En efecto, cualesquiera sean u1 , u2 ∈ U y α ∈ K se tiene
(S ◦ T )(u1 + α u2 ) = S(T (u1 + α u2 )) = S(T (u1 ) + α T (u2 )) = S(T (u1 )) + α S(T (u2 ))
= (S ◦ T )(u1 ) + α (S ◦ T )(u2 );
38 Fascı́culos de Álgebra Lineal
Ejemplo 1.34. Sea P1 (R) el espacio de todas las funciones polinómicas de grado menor o igual 1.
Afirmamos que la transformación lineal T : P1 (R) → R2 definida por T (p(x)) = (a, b) para cada p(x) =
a + bx en P1 (R), es un isomorfismo. Veamos, dado que dim(P1 (R)) = 2 = dim(R2 ), basta chequear que
N (T ) = {0P1 (R) (x)}, donde 0P1 (R) (x) denota la función nula, este es 0P1 (R) (x) = 0 para todo x ∈ R.
De la definición de T sigue que si p(x) = a + bx satisface T (p(x)) = (0, 0), entonces a = b = 0; esto
es p(x) = 0 = 0P1 (R) (x), lo cual demuestra la afirmación. De esta forma P1 (R) y R2 son isomorfos. En
realidad, para cada n ≥ 1 los espacios vectoriales Pn (R) y Rn+1 son isomorfos. Dejamos al lector chequear
que la transformación lineal T : Pn (R) → Rn+1 dada por
El teorema a continuación puede catalogarse como el resultado central de esta sección; el ejemplo
anterior es una muestra del mismo.
Teorema 1.6. Si U y V son espacios vectoriales sobre K y ambos de dimensión finita n ≥ 1, entonces
ellos son isomorfos.
u = α1 u1 + · · · + αn un .
α1
..
Ası́ se establece una identificación entre u y el vector [u]B = . de Kn . Tal vector se ha denominado
αn
vector de coordenadas de u en B.
Lema 1.2. La aplicación TB : U → Kn dada por TB (u) = [u]B para cada u ∈ U es un isomorfismo.
u = α1 u1 + · · · + αn un y v = β1 u1 + · · · + βn un , (1.15)
α1 β1
.. ..
que es [u]B = . y [v]B = . ; observe además que de (1.15) sigue, por agrupación de términos
αn βn
α1 + αβ1
..
semejantes, que u + α v = (α1 + αβ1 ) u1 + · · · + (αn + αβn ) un , por lo que [u + α v]B = . , de
αn + αβn
lo cual se obtiene la identidad [u + α v]B = [u]B + α [v]B .
Para demostrar que TB es biyectiva es suficiente verificar que N (TB ) se reduce al vector nulo de U ; es
decir que el único vector de U cuyo vector de coordenadas en la base B es el vector nulo de Kn es 0U . Esto
Transformaciones Lineales 39
0
..
también es simple ya que si u ∈ U es tal que TB (u) = [u]B = . , entonces u = 0 u1 + · · · + 0 un = 0U ,
0
de cual se deduce que u ∈ N (TB ) si, y sólo si, u = 0U .
Demostración del Teorema 1.6. La demostración del teorema es consecuencia del lema anterior y de
la propiedad de equivalencia de la relación ∼. Veamos, sean U y V espacios vectoriales sobre K ambos
de dimensión finita n ≥ 1. Del lema anterior tenemos que U ∼ K n y V ∼ K n , entonces Kn ∼ V (por
la simetrı́a de ∼) y por tanto U ∼ V , por la transitividad de ∼. Note que un isomorfismo entre T de U
hacia V puede ser T = (TD )−1 ◦ TB , donde B es una base de U y D es una base de V .
Por esta razón es que puede afirmarse, quizás de manera radical, que existe un único espacio vectorial
de dimensión n sobre R: Rn ; y que existe un único espacio vectorial de dimensión n sobre C: Cn . Pues
según lo que hemos visto, efectuar operaciones lineales en un espacio vectorial abstracto de dimensión n
sobre R o C, es como efectuar las operaciones usuales en Rn , o respectivamente en Cn .
Este comentario justifica el tratamiento indiferente que hemos dado al considerar los vectores de Kn
tanto como matrices unifila como matrices unicolumna, ya el espacio de las matrices de orden n × 1 sobre
K es linealmente idéntico al espacio de las matrices de orden 1 × n sobre K.
Para finalizar, es conveniente mencionar que el teorema anterior en realidad no admite restricciones
sobre la finitud de los espacios considerados, de hecho es válido el siguiente resultado:
Teorema 1.7. Dos espacios vectoriales U y V sobre el mismo cuerpo K son isomorfos si, y sólo si,
tienen la misma dimensión.
Dar una demostración de esta afirmación para espacios de dimensión infinita requiere de herramientas
matemáticas un tanto más sofisticadas que no son consideradas en estas notas.
2. Construir, cuando sea posible, transformaciones lineales sujetas a las condiciones que se imponen:
c) T : R3 → R3 tal que su núcleo sea el plano dado por la ecuación 2x − y + z = 0. ¿es este
operador lineal único?
d ) T : R3 → R3 tal que su núcleo sea el plano dado por la ecuación 2x − y + z = 0 y su imagen
sea el plano de ecuación x + y + z = 0.
e) T : R3 → R3 tal que su núcleo sea el plano dado por la ecuación 2x − y + z = 0 y su imagen
sea la recta que pasa por el origen con vector director N = (2, −1, 1).
f ) T : U → U donde U = V ⊕ W , siendo V y W subespacios vectoriales de U , con N (T ) = V e
Im(T ) = W .
g) T : C2 → C el núcleo es generado por los vectores u1 = (i, 1 + i) y u2 = (0, 1 − i). ¿Es única?
h) T : C2 → C cuyo núcleo es {(x + iy, z + iw) : x + y − z − w = 0}.
2 1 0 1 0
i ) T : M2×2 (R) → R tal que el núcleo es generado por las matrices u1 = y u2 = ,
0 1 0 0
y su imagen es la recta de ecuación 2x + y = 0.
1 0 1 0
j ) T : M2×2 (R) → R2 tal que el núcleo es generado por las matrices u1 = , u2 =
0 1 0 0
0 1
y u3 = , y su imagen es la recta de ecuación x − y = 0.
1 0
6. Demostrar que una transformación lineal T : U → V es inyectiva si, y sólo si, T envı́a vectores
linealmente independientes de U en vectores linealmente independientes de V . Note que en este
ejercicio el espacio vectorial U no es necesariamente de dimensión finita. Compare con el teorema
1.3
7. Para cada transformación lineal T que se muestra a continuación determine N (T ), Im(T ), nul(T )
y ran(T ).
1 −1 0 2
0 2 1 −1
a) T : R4 → R3 dada por la matriz A =
2
0 1 3
0 −2 −1 1
b) tr : Mn×n (K) → K, donde tr(A) es la traza de la matriz A, ver ejemplo 1.12.
c) Sean P3 (R) el espacio de las funciones polinómicas en R de grado menor o igual a 3 y P(R)
el espacio de todas las funciones polinómicas en R. Sea T : P3 (R) → P(R) la transformación
Rx
lineal definida por T (p(x)) = 0 p(t) dt para cada p(x) ∈ P3 (R).
Transformaciones Lineales 41
9. Decidir acerca de la veracidad o falsedad de cada una de las proposiciones que a continuación se
enuncian:
10. Sean U y V espacios vectoriales con U de dimensión finita. Si BU es una base de U y, T y S son
transformaciones lineales de U en V tales que T (u) = S(u) para todo u ∈ BU , demostrar que T = S;
es decir T (w) = S(w) para todo w ∈ U .
11. Sean U un espacio vectorial de dimensión finita sobre K y T un operador lineal en U que envı́a
bases de U en bases de U . Demostar que T es un isomorfismo.
12. Construya un ejemplo de dos operadores lineales diferentes en R4 , T y S, tales que N (T ) = N (S)
y Im(T ) = Im(S). ¿Puede hacer una construcción similar si el espacio es R2 , o R3 ?
13. Sea CR el espacio vectorial de los números complejos sobre el cuerpo de los números reales. Muestre
un isomorfismo entre este espacio y R2 .
15. Sean Sn×n (R) el conjunto de todas las matrices A ∈ Mn×n (R) que son simétricas; esto es, si aij es
el valor de la fila i y columna j de A, entonces aij = aji para todo i, j = 1, · · · , n; y An×n (R) el
conjunto de todas las matrices antisimétricas en Mn×n (R), estas son las que satisfacen aij = −aji
para todo i, j = 1, · · · , n. Demostrar que tales conjuntos son subespacios de Mn×n (R) y además
n(n+1) n(n−1)
que son isomorfos a R 2 y R 2 respectivamente. ¿Es Mn×n (R) = Sn×n (R) ⊕ An×n (R)?
16. En M2×2 (C) considere el conjunto H2×2 (C) de las matrices hermitianas, que son las matrices
A ∈ M2×2 (C) con aij = aji para todo i, j = 1, 2, donde x + iy = x − iy es el conjugado del número
complejo x + iy. Demostrar que H2×2 (C) es un espacio vectorial sobre R isomorfo a R4 ; construya
un tal isomorfismo.
17. En R∞ considere el conjunto R∞ 0 de las sucesiones (xn )n≥0 tales a partir de una determinada
entrada se anula, es decir, (xn )n≥0 ∈ R∞
0 si, y sólo si, existe k ≥ 0 tal que xn = 0 para todo n ≥ k.
Demostrar que R0 es un subespacio vectorial de R∞ y que además es isomorfo al espacio P(R) de
∞
L(U ) es el conjunto de todos los operadores lineales definidos en U ; es decir, el conjunto de las
transformaciones lineales de U en U ; en otras palabras L(U ) = L(U, U ).
U ∗ denotará el conjunto de todos los funcionales lineales definidos en U ; esto es, el conjunto de
todas las transformaciones lineales de U en K; es decir, U ∗ = L(U, K).
Proposición 1.7. Cualesquiera sean T, S ∈ L(U, V ) y α ∈ K, simpre se tiene que tanto T + S como α T
pertenecen a L(U, V ).
Comentario 1.7 (Estructura vectorial de L(U, V )). Uno puede chequear directamente que L(U, V )
dotado de las operaciones que acabamos de definir tiene estructura de espacio vectorial sobre K; en esta
estructura lineal el vector nulo es la transformación nula, y el vector simétrico de cada T ∈ L(U, V ) es
justamente la transformación lineal (−1)T , que simplemente denotamos por −T .
44 Fascı́culos de Álgebra Lineal
Una demostración de este hecho haciendo uso de la propia definición de espacio vectorial requiere
chequear cada uno de los axiomas que definen la estructura vectorial; sin embargo, cuando estudiamos los
espacios vectoriales, uno de los ejemplos clásicos es el espacio F(A, K) de todas las funciones f : A → K,
donde A es un conjunto cualquiera no vacı́o. Realmente no existe ninguna diferencia si en lugar de K
(que es un espacio vectorial sobre K) colocamos un espacio vectorial cualquiera. Dejamos al lector los
detalles de verificar que en efecto F(A, V ) es un espacio vectorial sobre K si V es un espacio vectorial
sobre el mismo cuerpo K. Dado que L(U, V ) ⊂ F(U, V ), la proposición anterior nos dice que L(U, V ) es
un subespacio vectorial de F(U, V ); por tanto también tiene estructura de espacio vectorial.
De esta forma diremos que:
L(U, V ) es el espacio vectorial de las transformaciones lineales de U en V ,
Si además existe un vector i ∈ A tal que iu = ui = u para cada u ∈ A, se dice que A es un álgebra con
identidad i. Mientras que si uv = vu para todo u, v ∈ A, el álgebra A se dice conmutativa.
Note que K es un álgebra conmutativa con identidad; mientras que Mn×n (K) es un álgebra con
identidad no conmutativa pues existen matrices cuadradas A y B tales que AB 6= BA. En cuanto a
L(U ), la siguiente proposición muestra que es un álgebra con identidad; la cual, al igual que Mn×n (K),
es en general no conmutativa: pueden construirse ejemplos de espacios vectoriales U sobre los cuales hay
operadores lineales, digamos T1 y T2 , tales que T1 ◦ T2 6= T2 ◦ T1 .
Por simplicidad en adelante adoptaremos la notacion T1 T2 para designar la composición T1 ◦ T2 de
los operadores lineales T1 , T2 ∈ L(U ).
[(T1 + T2 )T3 ](u) = [T1 + T2 ](T3 (u)) = T1 (T3 (u)) + T2 (T3 (u))
= (T1 T3 )(u) + (T2 T3 )(u).
Ejemplo 1.35. Sea P(R) el espacio de todas las funciones polinómicas en R. Consideremos sobre este
espacio los operadores lineales D, M : P(R) → P(R) dados por D(p(x)) = p′ (x) y M (p(x)) = xp(x) para
toda función polinómica p(x). Observe que
Comentario 1.8. Sean U un espacio vectorial sobre K y L(U ) el álgebra de los operadores lineales en
U . Esta estructura algebraica, más amplia que la de espacio vectorial, permite enriquecer el conjunto de
operaciones que pueden efectuarse con sus elementos (los operadores lineales); por ejemplo, ahora tienen
sentido expresiones albegraicas tales como:
46 Fascı́culos de Álgebra Lineal
1. T 2 para cada T ∈ L(U ); que significa el producto de T por T , es decir, T 2 es el operador lineal
en U definido, para cada vector u ∈ U , por T 2 (u) = T (T (u)). Más generalmente, para cada entero
positivo n, T n significa el producto de T consigo mismo n veces; esto es:
Por ejemplo, si U = C ∞ ((0, 1), R) es el espacio vectorial de todas las funciones f : (0, 1) → R
que son diferenciables de cualquier orden, y si T (f ) = f ′ es el operador derivada definido en U ,
entonces T 3 + 2T 2 − T + IU es un operador lineal en U . De hecho, para cada f ∈ U se tiene que
(T 3 + 2T 2 − T + I)(f ) = f ′′′ + 2f ′′ − f ′ + f .
2. T −n para cada entero positivo n, siempre que T sea un operador en T invertible. En este caso, el
significado es como el anterior pero sustituyendo T por T −1 , que es el operador inverso de T ; es
decir:
T −n (u) = T −1 (T −1 (· · · (T −1 (u)) · · · ) = T −(n−1) (T −1 (u)) para cada u ∈ U.
| {z }
n factores
3. (T1 +T2 )2 donde T1 y T2 son operadores lineales en U . Dado que el álgebra L(U ) no es conmutativa,
entonces en general no es cierto que se satisfaga la formula de binomio: (T1 +T2 )2 = T12 +2T1 T2 +T22 ;
pueden construirse ejemplos de operadores lineales donde falle esta igualdad. Lo cierto es que
(T1 + T2 )2 = T12 + T1 T2 + T2 T1 + T22 para todo par de operadores lineales en U (¡verifı́quelo!).
Ejemplo 1.36. En los ejemplos 1.13 y 1.30, ver páginas 11 y 31 respectivamente, se introdujo la noción de
proyección de un espacio vectorial U sobre un subespacio V a lo largo de un subespacio W (PV : U → U ,
donde U = V ⊕ W ) y se mostró que para estos operadores lineales siempre se cumple que N (PV ) = W
y Im(PV ) = V . Otra interesante propiedad que satisfacen estos operadores de proyección es la de ser
idempotentes. Más especı́ficamente, se dice que un operador lineal T : U → U es idempotente si T 2 = T .
Para mostrar que PV es idempotente debemos mostrar que para cualquier vector u ∈ U se tiene que
PV2 (u) = PV (PV (u)) = PV (u). Ahora bien, dado que PV (u) ∈ Im(PV ), entonces la forma de escribir
PV (u) en la descomposición U = N (PV ) ⊕ Im(PV ) es PV (u) = 0U + PV (u), con lo cual PV (PV (u)) =
PV (u); de allı́ la idempotencia de PV .
En realidad todo operador lineal T : U → U que sea idempotente es la proyección de U sobre el
núcleo de T a lo largo de su imagen. Para demostrar este hecho se necesita verificar que todo vector
de U se escribe de manera única como la suma de un vector en N (T ) y un vector en Im(T ). Sea u
cualquier vector en U ; es claro que u = (u − T (u)) + T (u) y que T (u) ∈ Im(T ). Por otro lado, dado que
T (u − T (u)) = T (u) − T (u) = T (u) − T (u) = 0U , entonces u − T (u) ∈ N (T ). Con lo cual, todo vector de
U se escribe como la suma de uno en N (T ) y otro en Im(T ). Resta mostrar que u = (u − T (u)) + T (u) es
la única forma de escribir u en la descomposición U = N (T ) ⊕ Im(T ). Supongamos que u se escribe como
u = v + w donde v ∈ N (T ) y w ∈ Im(T ), esto es, T (v) = 0U y w = T (z) para algún z ∈ U . ES obvio que
de este supuesto se tiene T (u) = T (v) + T (w) = 0U + T 2 (z) = T (z) = w, de donde u = v + T (u) y por
tanto v = u − T (u). Concluyendo de esta forma la demostración de que todo operador idempotente es la
proyección de U sobre N (T ) a lo largo de Im(T ).
Transformaciones Lineales 47
3. Sean T1 , T2 : U → U operadores lineales tales que T1 T2 = T2 T1 . Demostrar que vale la fórmula del
binomio: (T1 + T2 )2 = T12 + 2T1 T2 + T22 . Obtenga una la fórmula de (T1 + T2 )n para cualquier entero
n ≥ 1.
5. Sean U y V espacios vectoriales sobre K. Demostrar que si U y V son isomorfos, entonces L(U, U )
y L(V, V ) también lo son.
6. Sea U = P2 (R) el espacio de las funciones polinómicas de grado menor o igual a 2 definidas en R.
Sean T0 , T1 y T2 los operadores lineales en U definidos por:
donde p′ (x) y p′′ (x) denotan la primera y segunda derivada de la función polinómica p(x). Demostrar
que T0 , T1 y T2 son linealmente independientes en L(U ).
48 Fascı́culos de Álgebra Lineal
Ahora considere U = P(R), el espacio de todas las funciones polinomiales definidas en R. Para cada
entero n ≥ 0 se define el operador lineal Tn : U → U por Tn (p(x)) = p(n) (x) (n-ésima derivada de
p(x)). Demostrar que T0 , T1 , · · · , Tn son linealmente independientes en L(U ) para cada n ≥ 0.
2 2 x cos(θ) sen(θ) x
7. Fijado un ángulo 0 ≤ θ < 2π, sea Rθ : R → R , Rθ = , el
y − sen(θ) cos(θ) y
x
operador lineal que rota al vector en un ángulo θ medido en sentido antihorario. ¿Cuál es el
y
significado geométrico de aplicar los operadores lineales Rθ2 , Rθ3 , · · · , Rθn (n ≥ 1, entero) a un vector
x
? ¿Es posible que exista un n ≥ 1 (entero) tal que Rnθ = I2 (operador identidad en R2 )?
y
8. Sean θ = π6 y Rθ , P, R : R2 → R2 los operadores lineales, tales que Rθ es como arriba, R es la
reflexión sobre la recta de ecuación y = 2x, y P es la proyección ortogonal sobre la misma recta;
ver ejercicios 11 y 12 de la sección 1.1.
11. Sea T : U → U un operador lineal en U . Demostrar que T 2 = 0 si, y sólo si, Im(T ) ⊂ N (T ).
12. Sea T : U → U un operador lineal en U . Demostrar que para cada entero positivo k se cumplen:
de donde, el ij-ésimo término de la matriz A es la i-ésima coordenada del vector T (ej ) = Aej cuando es
escrito en la base canónica de Kn ; de hecho, T (ej ) es la j-ésima columna de A.
Extendamos estas consideraciones a transformaciones lineales entre dos espacios vectoriales cuales-
quiera de dimensión finita. Sean U y V espacios vectoriales sobre K de dimensiones m ≥ 1 y n ≥ 1,
respectivamente. Fijemos bases BU = {u1 , · · · , um } de U y BV = {v1 , · · · , vn } de V . Sea T : U → V
cualquier transformación lineal. Es claro, por el concepto de base de espacios vectoriales, que para cada
j = 1, · · · , m existen únicos escalares a1j , · · · , anj en K de manera que T (uj ) se escribe como
Ahora tomemos cualquier vector u ∈ U . Este vector se escribe de forma única en la base BU como
α1
..
u = α1 u1 + · · · + αm um ; esto es, [u]BU = . .
αm
es decir
[T (u)]BV = [T ]B
BU [u]BU , para todo u ∈ U ;
V
(1.17)
a11 · · · a1m
..
donde [T ]BBU =
V
. ∈ Mn×m (K). Observe que la columna j-ésima (j = 1, · · · , m) es
an1 · · · anm
definida por la identidad (1.16); es decir, la columna j-ésima de [T ]BBU se obtiene con los escalares que
V
base BU . Note que esta matriz depende exclusivamente de la transformación lineal T y de las bases BU
y BV , no depende de los vectores u a los cuales se les está calculando su imagen por T ; por ello es que
(1.17) es válida para todo vector u ∈ U .
Ejemplo 1.37. Sean U y V espacios vectoriales sobre K de dimensiones m, n ≥ 1, respectivamente, sea
O : U → V la transformación lineal nula; es decir, 0(u) = 0V para cada u ∈ U . Cualesquiera sean las
bases BU = {u1 , · · · , um } y BV = {v1 , · · · , vn } que consideremos en los espacios U y V , se tiene que
[O]B
BU es la matriz nula de orden n × m pues todas sus columnas son nulas ya que para cada j = 1, · · · , m
V
se tiene
O(uj ) = 0V = 0 v1 + · · · + 0 vn .
Ejemplo 1.38. Sean U un espacio vectorial de dimensión n ≥ 1 sobre K, IU el operador identidad en
U , y B = {u1 , · · · , un } una base de U . Dado que para cualquier j = 1, · · · , n se verifica
I(uj ) = uj = 0 u1 + · · · + 0 uj−1 + 1 uj + 0 uj+1 + · · · + 0 un ,
1 0 ··· 0 0
0 1 · · · 0 0
. .. . . .. ..
entonces [IU ]B = . . . .
B . . es la matriz identidad de orden n.
0 0 · · · 1 0
0 0 ··· 0 1
Ejemplo 1.39. Consideremos las bases canónicas CKm y CKn de Km y Kn respectivamente. Del comen-
tario inicial de esta sección, para la transformación lineal TA : Km → Kn dada por TA (X) = AX para
cada X ∈ Km , se tiene que [TA ]CCKKnm = A.
Ejemplo 1.40. Sea T : P2 (R) → P1 (R) la transformación lineal definida por T (p(x)) = p′ (x) para cada
función polinómica de grado menor o igual a 2. Consideremos las bases B2 = {1, x, x2 } y B1 = {1, x}
de los espacios P2 (R) y P1 (R) respectivamente. Para determinar la matriz [T ]B B2 requerimos expresar
1
las imágenes de los vectores de B2 como combinación lineal de los vectores de B1 . Como es conocido:
la derivada de la función constante 1 es la función constante nula; la derivada de la función p1 (x) = x
es la función constante 1; y la derivada de la función p2 (x) = x2 es la función 2x; es decir, como
0 1 0
T (1) = 0 = 0.1 + 0.x, T (x) = 1 = 1.1 + 0.x y T (x2 ) = 2x = 0.1 + 2.x, entonces [T ]B
B2
1
= .
0 0 2
Proposición 1.9. Sean U y V espacios vectoriales sobre K de dimensiones m ≥ 1 y n ≥ 1 respectivamen-
te, y sean BU = {u1 , · · · , um } BV = {v1 , · · · , vn } bases de U y V . Si T : U → V es una transformación
lineal, entonces [T ]B
BU es la única matriz de orden n × m que satisface
V
Demostración: Sabemos que [T ]B BU satisface la identidad señalada en el enunciado. Sea A ∈ Mn×m (K)
V
Primero observe que para cualquier uj ∈ BU , [uj ]BU es el j-ésimo vector canónico de Km , pues para
todo j = 1, · · · , m se tiene
uj = 0 u1 + · · · + 0 uj−1 + 1 uj + 0 uj+1 + · · · + 0 um ;
por otro lado, es fácil chequear que para toda matriz B de orden n × m, y todo j = 1, · · · , m se cumple
que Bej es la j-ésima columna de B. De estas observaciones sigue inmediatamente de las identidades
(1.17) y (1.18) que [T (uj )]BV = [T ]B BV
BU ej = Aej , por lo que la j-ésima columna de las matrices [T ]BU y A
V
BV
son iguales, ası́ A = [T ]BU . Con lo cual la demostración está completa.
las bases BU y BV , Φ hace corresponder a cada T ∈ L(U, V ) una única matriz del espacio Mn×m (K).
Más aun, esta aplicación Φ es un isomorfismo, tal y como se demuestra en la siguiente proposición. De
allı́ que dim(L(U, V )) = dim(Mn×m (K)) = mn.
Proposición 1.10. Sean U y V como en la proposición anterior. Entonces para cualquier par de bases
BU y BV de U y V respectivamente, la aplicación Φ : L(U, V ) → Mn×m (K) arriba definida es lineal y
biyectiva.
Demostración: Mostremos ahora que Φ es lineal: para todo S, T ∈ L(U, V ) y cada α ∈ K se cumple:
[T + α S]B BV BV
BU = [T ]BU + α [S]BU .
V
(1.19)
vectores de coordenadas: [(T + α S)(uj )]BV , [T (uj )]BV y α[S(uj )]BV , ver (1.17). Por tanto, si mostramos
[(T + α S)(uj )]BV = [T (uj )]BV + α[S(uj )]BV para todo j = 1, · · · , m, (1.20)
entonces (1.19) se satisface. Ahora bien, asumiendo que para cada j = 1, · · · , m se tienen
entonces (T + αS)(uj ) = (a1j + αb1j )v1 + · · · + (anj + αbnj )vn , lo cual implica (1.20) y por tanto (1.19).
Veamos ahora que Φ es biyectiva. Mostrando N (Φ) = {0L(U,V ) } se tendrá del teorema 1.2 la inyectivi-
dad de Φ. Sea T ∈ L(U, V ) tal que T ∈ N (Φ), es decir, Φ(T ) = [T ]B BU es la matriz nula de orden n×m. Esto
V
0
..
significa que, para cada j = 1, · · · , m, [T (uj )]BV = . , o equivalentemente T (uj ) = 0 v1 +· · ·+0 vn = 0V
0
52 Fascı́culos de Álgebra Lineal
para cada j = 1, · · · , m; con lo cual T es la transformación nula, y el núcleo de Φ se reduce al vector nulo
de L(U, V ), ver ejercicio propuesto 10 en la página 41.
Finalmente mostremos que Φ es sobreyectiva; es decir, para cada matriz A ∈ Mn×m (K) existe T en
a11 · · · a1m
..
L(U, V ) tal que Φ(T ) = A. En efecto, tomemos cualquier matriz A = . ∈ Mn×m (K),
an1 · · · anm
y consideremos la única transformación lineal T : U → V tal que para cada j = 1, · · · , m se satisface
T (uj ) = a1j v1 + · · · + anj vn . Recuerde que esta transformación lineal siempre existe, ver teorema 1.1.
De esta misma identidad y de la definición de matriz asociada a las bases BU y BV , ver (1.16), sigue
inmediatamente que Φ(T ) = [T ]B BU = A.
V
Comentario 1.9. La demostración que acabamos de ofrecer merece algunas palabras adicionales. En
primer lugar, un lector acucioso notará que a raı́z de la demostración dada para la sobreyectividad de Φ,
la demostración de la inyectividad es superflua. Esto debido a que una aplicación cualquiera f : A → B,
A y B conjuntos no vacı́os, es biyectiva si, y sólo si, para cada b ∈ B existe un único a ∈ A tal que
f (a) = b.
En segundo lugar, observe que la identidad (1.18) puede expresarse separadamente, para cada T, S ∈
L(U, V ) y todo α ∈ K, como:
[T + S]B V BV BV BV BV
BU = [T ]BU + [S]BU y [α S]BU = α [S]BU . (1.21)
[T (u + α v)]BV = [T ]B
BU [u + α v]BU
V
= [T ]B
BU ([u]BU + α [v]BU )
V
= [T (u)]BV + α [T (v)]BV .
Por otro lado, a través de técnicas lineales de cálculo matricial se obtiene información sobre aspectos
relevantes en el análisis del estudio de la acción de las transformaciones lineales entre espacio vectoriales
de dimensión finita. En particular, aun cuando no se conozca una fórmula (regla de correspondencia)
para T , podemos obtener información de su núcleo y espacio imagen. Note que
0
..
u ∈ N (T ) si, y sólo si, [T ]B
BU [u]BU = [0V ]BV
V
= . ; (1.22)
0
en consecuencia los vectores de X ∈ Km que representan, en la base BU , los vectores del núcleo de T , son
aquellos que constituyen el espacio solución del sistema de ecuaciones lineales homogéneo [T ]B
BU X = 0.
V
Por lo que un análisis de este espacio solución permite determinar N (T ), la nulidad de T , y usando el
teorema de la nulidad y rango también se determina a ran(T ). En cuanto a la determinación del espacio
imagen de T , observe que
en tal caso, el vector u ∈ U (único para cada X) que cumpla [u]BU = X satisface T (u) = v.
Transformaciones Lineales 53
Finalmente, las representaciones matriciales en los casos particulares de operadores lineales y funcio-
nales lineales son, respectivamente, matrices cuadradas y matrices unifila. En el primer caso, si T : U → U
es un operador lineal en U (dim(U ) = n ≥ 1), para evitar cálculos innecesarios consideraremos una sóla
base BU = {u1 , · · · , un } de U , entonces al escribir
tenemos
a11 ··· a1n
.. .. .. ,
[T ]BU := [T ]B
BU
U
= . . .
an1 ··· ann
como la representación matricial del operador T en la base BU .
En cuanto a funcionales lineales, mantendremos siempre como base de K a BK = {1}. Por tanto, si
BU = {u1 , · · · , un } es una base de U y f : U → K es un funcional lineal en K, entonces
[f ]BU := [f ]B
B U = a1 · · ·
K
an
Luego, como el rango de A es 2, el espacio solución del sistema AX = 0 tiene dimensión 1 (el número de
variables libres del sistema); por tanto nul(T ) = 1. Para obtener una base de N (T ), observe que que z
puede ser considerada como libre, entonces al asignarle un valor no nulo, por ejemplo z = 2 tenemos que
3
X1 = −4 es una base del espacio solución del sistema AX = 0. De acá que el vector p1 (x) ∈ P2 (R)
2
con [p1 (x)]BP2 (R) = X1 constituye una base de N (T ); en tal caso
Ası́, el núcleo de T está formado por todos las funciones polinómicas q(x), de grado menor o igual a 2,
tales que para algún α ∈ R se tiene q(x) = α p1 (x).
Por otro lado, del teorema de la nulidad y rango sigue que ran(T ) = dim(Im(T )) = 2. Veamos ahora
como obtener una base del espacio imagen de la transformación lineal T . En realidad existen varias formas
de hacer esto; acá mostraremos dos.
Procedimiento 1: Recordemos que en la demostración del teorema de la nulidad y rango (ver página
33), se mostró que si {u1 , · · · , uk } es una base de N (T ) y {u1 , · · · , uk , uk+1 , · · · , un } es base del espacio
U (dominio de T ), entonces {T (uk+1 ), · · · , T (un )} es base de Im(T ).
Ahora bien, ya tenemos una base de N (T ), deberiamos completarla hasta tener una base de P2 (R)
para que ası́ las imágenes de los vectores añadidos sean una base de Im(T ). ¿De qué manera vamos a
completar la base que se tiene de N (T )? En realidad existen muchas formas de hacerlo, sin embargo
la que involucra quizás menor cantidad de cálculos es buscar en la base que se tiene originalmente los
vectores que se añadirán a la base encontrada de N (T ).
En la transformación lineal que nos ocupa en este instante, una simple inspección muestra por ejemplo
que los vectores p1 (x) = 5 − 6x − 7x2 , p2 (x) = 1 − x2 , p3 (x) = 1 + x son linealmente independientes; es
decir, {p1 (x), p2 (x), p3 (x)} es base de P2 (R) (dim(P2 (R)) = 3) construida como en la demostración del
teorema de la nulidad y rango, por tanto {T (p2 (x)), T (p3 (x))} es base de Im(T ). Ahora surge la pregunta
¿cómo calcular T (p2 (x)) y T (p3 (x)) si no tenemos explı́citamente la regla de correspondencia que define
a T ? La respuesta es simple: dado que p2 (x) y p3 (x) constituyen el primero y tercer vector de la base
(ordenada) BP2 (R) , entonces [T (p2 (x))]BR4 y [T (p3 (x))]BR4 son justamente la primera y tercera columna
de la matriz A. Es decir:
2 −1
0 2
[T (p2 (x))]BR4 =
−2 y [T (p3 (x))]BR4 = 5 ,
6 −1
pero como BR4 = {v1 , v2 , v3 , v4 } es la base de R4 que interviene en A, entonces:
T (p2 (x)) = 2v1 + 0v2 + (−2)v3 + 6v4 = (0, −4, 2, 6), y
T (p3 (x)) = (−1)v1 + 2v2 + 5v3 + (−1)v4 = (4, 8, −1, 5).
Procedimiento 2: Recordemos que en el lema previo a la demostración del teorema de la nulidad y
rango, se mostró que los vectores imágenes de una base cualquiera del espacio dominio (de dimensión
finita) de cualquier transformación lineal constituyen un conjunto generador del espacio imagen Im(T ).
Por tanto, en nuestro caso tenemos que los vectores T (1 − x2 ), T (2x + x2 ), T (1 + x) generan a Im(T ).
Como BP2 (R) = {1 − x2 , 2x + x2 , 1 + x}, entonces
2 1 −1
0 1 2
[T (1 − x2 )]BR4 = 2
−2 [T (2x + x )]BR4 = 1 y [T (1 + x)]BR4 = 5 ,
6 4 −1
que son, respectivamente, la primera, segunda y tercera columna de A. Ası́ que para extraer una base
de Im(T ) del conjunto generador {T (1 − x2 ), T (2x + x2 ), T (1 + x)}, primero extraemos del conjunto
formado por los vectores
2 1 −1
0
Y1 = , Y2 = 1 , y Y3 = 2
−2 1 5
6 4 −1
Transformaciones Lineales 55
una base del espacio generado por ellos, y luego interpretamos los vectores obtenidos en la base de R4
empleada para definir la matriz A. Ahora bien, sabemos que un mecanismo para encontrar una base del
espacio generado por {Y1 , Y2 , Y3 } consiste en reducir por columnas tales vectores, y luego los vectores no
nulos de esa reducción constituyen una base del espacio generado por {Y1 , Y2 , Y3 }; otra forma es colocar
estos vectores como filas de una matriz y realizar el mismo procedimiento anterior empleando la reducción
por filas; que es la que usaremos a continuación:
2 0 −2 6 2 0 −2 6 2 0 −2 6
f2 →f2 − 12 f1 f3 →f3 −2f2
1 1 1 4 −−−−−−− −→ 0 1 2 1 −−−−−−−→ 0 1 2 1 ,
f3 →f3 + 12 f1
−1 2 5 −1 0 2 4 2 0 0 0 0
2 0
0 1
de donde Z1 =
−2 y Z2 = 2
constituyen una base del espacio generado por Y1 , Y2 , Y3 ; y por
6 1
tanto los vectores
Hemos visto hasta ahora que las representaciones matriciales respetan la estructura lineal, ver (1.20).
Dado que la composición de transformaciones lineales es también una transformación lineal, surge la
pregunta natural: ¿las representaciones matriciales de composición de transformaciones lineales respeta
el producto de matrices? El siguiente resultado ofrece la respuesta a la interrogante.
[ST ]B BW BV
BU = [S]BV [T ]BU ,
W
(1.25)
[S(v)]BW = [S]B
BV [v]BV para todo v ∈ V ,
W
= [S]B BV BW BV
BV ([T ]BU [u]BU ) = [S]BV [T ]BU [u]BU (¿por qué?).
W
Luego de la unicidad de las representaciones matriciales sigue (1.25). Debemos hacer notar que esta
identidad también puede verificarse directamente al considerar la imagen, mediante ST , de cada vector
uj ∈ BU (j = 1, · · · , n) y expresarla como combinación lineal en la base BW . Se deja al lector esta
comprobación.
56 Fascı́culos de Álgebra Lineal
2
En el caso particular de T = S se tiene la identidad [T 2 ]B = ([T ]B ) . Supongamos que T : U → U es
invertible, entonces como T T −1 = IU (el operador identidad en U ), sigue del ejemplo 1.38 (ver página
50) que [T ]B es invertible y además ([T ]B )−1 = [T −1 ]B .
En R2 tomemos la base BR2 = {e1 , e2 }, y en R3 BR3 = {v1 , v2 , v3 }, donde v1 = (1, 0, 1), v2 = (0, 1, 1) y
v3 = (0, 0, 1). Dado que:
S(e1 ) = (2, −1, 1) = 2.v1 − 1.v2 + 0.v3 y S(e2 ) = (1, 1, −1) = 1.v1 + 1.v2 − 3.v3 ,
2 1 2 1 0 5
B B 1 2
entonces [S]BR32 = −1 1 . De (1.25) sigue que [ST ]BR32 = −1 1 = −3 −1 .
R R −2 1
0 −3 0 −3 6 −3
De esta última identidad se deducen:
(ST )(e1 ) = 0.v1 − 3.v2 + 6.v3 = (0, −3, 3) y (ST )(e2 ) = 5.v1 − 1.v2 − 3.v3 = (5, −1, 1),
de donde
(ST )(x, y) = (ST )(x e1 + y e2 ) = x(ST )(e1 ) + y(ST )(e2 ) = (5y, −3x − y, 3x + y).
2x − y
x
Ejemplo 1.43. Sea T : R2 → R3 la transformación lineal dada por T = x + y . Como es
y
2x + 4y
2 −1
conocido, la representación matricial de T en la bases canónicas de R2 y R3 es la matriz A = 1 1 .
2 4
Sin embargo al considerar otras bases de estos espacios no hay garantı́as de la representación matricial
asociada a tales bases coincida con A. De hecho, para las bases B = e1 , e2 (canónica de R2 ) y B′ = e3 , e2 , e1
′
de R3 , la representación matricial de T en estas bases ([T ]BB ) ya no es la misma. En efecto, dado que
x z 2 −1
cada v = y = ze3 + ye2 + xe1 ; que es [v]B′ = y , y como T (e1 ) = 1 y T (e2 ) = 1 , entonces
z x 2 4
2 4
′
[T ]B
B =
1 1 .
2 −1
Debido a la dependencia de las representaciones matriciales con las bases que estemos considerando,
la inquietud que nos atañe tendrá que estar relacionada con la noción de cambio de base en espacios
vectoriales finito dimensionales. Por la importancia de esta noción, la recordaremos y haceremos una
interpretación del cambio de base en términos del concepto de transformaciones lineales, y más especı́fi-
camente del concepto de isomorfismo.
Recordatorio 1.2. Sea U un espacio vectorial sobre K el cual es de dimensión finita n ≥ 1. Supongamos
que B = {u1 , · · · , un } y B′ = {u′1 , · · · , u′n } son bases (ordenadas) de U . Cada vector de una de estas
bases se escribe de manera única (recuerde el concepto de base) como combinación lineal de los vectores
de la otra base; por ejemplo, para cada j = 1, · · · , n existen únicos escalares p1j , · · · , pnj ∈ K tales que
Tomemos cualquier vector u ∈ U ; en la base B ′ este vector se escribe de manera única como
α1
u = α1 u′1 + · · · + αn u′n ; es decir, [u]B′ = ... ;
αn
con lo cual
p11 α1 + · · · + p1n αn p11 ··· p1n α1
.
.. . .. .. .. = P [u] ′ .
[u]B = = .. . . . B (1.28)
pn1 α1 + · · · + pnn αn pn1 ··· pnn αn
A la matriz P = [pij ] ∈ Mn×n (K) anterior se le conoce como matriz de cambio de la base B hacia la
base B′ . Note que las columnas de P se obtienen colocando ordenadamente los coeficientes pij dados por
la relación (1.27) para cada i, j = 1, · · · , n.
Es claro que P define un operador lineal en Kn ; que es, TP : Kn → Kn con TP (X) = P X para cada
X ∈ Kn (considerado como vector unicolumna). De hecho es conocido que P es invertible, por tanto TP
58 Fascı́culos de Álgebra Lineal
Demostración: Recordemos por el teorema 1.1, ver página 17, que en efecto existe una única trans-
formación lineal de U en U (es decir un operador lineal en U ) que satisface T (uj ) = u′j para cada
j = 1, · · · , n. Por otra parte, sabemos que la columna j (j = 1, · · · , n) de la matriz [T ]B se obtiene al
colocar ordenadamente los coeficientes que definen la combinación lineal mediante la cual se expresa el
vector T (uj ) en términos de la base B; es decir, al escribir el vector u′j como combinación lineal de los
vectores u1 , · · · , un ; que es justamente la expresada en la identidad (1.27).
Ası́ pues, la proposición que acabamos de demostrar dice que la matriz de cambio de la base B hacia
la base B′ es la representación matricial del operador lineal en U que envı́a B en B ′ . Note además que T
es un isomorfismo (¡envı́a base en base!), por lo que P es invertible. Observe también que si S : U → U
es el operador lineal que hace S(u′j ) = uj para cada j = 1, · · · , n, entonces ST (uj ) = uj y T S(u′j ) = u′j
para todo j = 1, · · · , n; de donde se concluye que S = T −1 . Por tanto la matriz de cambio de la base B ′
hacia B es la inversa de la matriz de cambio de la base B hacia B ′ .
Recordada entonces la noción de cambio de base en espacios vectoriales de dimensión finita, y su in-
terpretación en términos de isomorfismos, pasamos a demostrar el teorema que revela la relación existente
entre dos representaciones matriciales de una misma transformación lineal.
′
Teorema 1.8. Dados U y V espacios vectoriales sobre K ambos de dimensión finita. Sean BU y BU bases
de U , BV y BV bases de V . Si P y Q son las matrices de cambio de BU hacia BU , y de BV hacia BV′
′ ′
respectivamente, entonces
B′
[T ]BV′ = Q−1 [T ]B
BU P
V
(1.29)
U
′
Siendo P y Q las matrices de cambio de base de BU hacia BU , y de BV hacia BV′ respectivamente, tenemos
de (1.28) que para cada u ∈ U y v ∈ V valen las identidades:
B′ B′
de donde Q [T ]BV′ [u]BU′ = [T ]B
BU P [u]BU para cada u ∈ U, por tanto, Q [T ]BU
V
′
V
′ = [T ]B
BU P , pues como
V
U
n
sabemos, si A, B ∈ Mm×n (K) son tales que AX = BX para todo X ∈ K , entonces A = B. Finalmente,
B′
como Q es invertible, [T ]BV′ = Q−1 [T ]B
BU P .
V
U
Transformaciones Lineales 59
El siguiente corolario describe la relación existente entre dos representaciones matriciales cualesquiera
de un operador lineal en espacios de dimensión finita; su demostración es inmediata.
Corolario 1.8. Dado U un espacio vectorial sobre K de dimensión finita; sean B y B ′ bases de U . Si P
es la matriz de cambio de B hacia B′ , entonces
[T ]B′ = P −1 [T ]B P (1.30)
Ejemplo 1.44. Sean T : R2 → P2 (R) la transformación lineal dada por T (a, b) = (a + b)x + ax2 . Consi-
deremos en R2 las bases B1 = {(1, 0), (0, 1)} y B1′ = {(1, 1), (0, −1)}; mientras que en P2 (R) consideremos
las bases B2 = {1, x, x2 } y B2′ = {1, 1 + x, 1 − x2 }. La representación matricial de T en las bases B1
0 0
T (1, 0) = x + x2 = 0.1 + 1.x + 1.x2
y B2 es la matriz [T ]B 2
= 1 1 , pues . Podrı́amos por igual
B1
T (0, 1) = x = 0.1 + 1.x + 0.x2
1 0
B′
procedimiento obtener la representación matricial [T ]B2′ , sin embargo la calcularemos usando las matrices
1
de cambio de base y el resultado demostrado en el teorema anterior. La matriz de cambio de B1 hacia B1′
se determina escribiendo cada vector de B1′ como combinación lineal de los vectores en B1 , los escalares
allı́ encontrados determinan las columnas de tal matriz. Similarmente se procede para obtener la matriz
de cambio de B2 hacia B2′ . Dado que:
2
1 = 1.1 + 0.x + 0.x
(1, 1) = 1.(1, 0) + 1.(0, 1)
y 1 + x = 1.1 + 1.x + 0.x2 ,
(0, −1) = 0.(1, 0) + (−1).(0, 1)
1 − x2 = 1.1 + 0.x + (−1).x2
1 1 1
1 0
entonces P = yQ= 0 1 0 son, respectivamente, las matrices de cambio de B1 hacia
1 −1
0 0 −1
B′
B1′ , y de B2 hacia B2′ . De acuerdo con el teorema anterior, [T ]B2′ = Q−1 [T ]B
B1 P ; un simple cálculo muestra
2
1
1 −1 1
que Q−1 = 0 1 0 , entonces
0 0 −1
1 −1 1 0 0 −1 1
B ′ 1 0
[T ]B2′ = 0 1 0 1 1 = 2 −1 ;
1 1 −1
0 0 −1 1 0 −1 0
significando esto que
T (1, 1) = (−1).1 + 2.(1 + x) + (−1).(1 − x2 ) = 2x + x2
.
T (0, −1) = 1.1 + (−1).(1 + x) + 0.(1 − x2 ) = −x
Ejemplo 1.45. Uno de los ejemplos clásicos de un funcional lineal es el siguiente. Consideremos el
espacio vectorial U = C([a, b], R) (resp. C([a, b], C)) de todas las funciones continuas del intervalo [a, b]
Rb
en R (resp. C). Se define T : U → R (resp. T : U → C) como T (f ) = a f (t) dt. Usando propiedades
elementales del Cálculo Integral es simple verificar que T es un funcional lineal. Mayor énfasis cobra este
ejemplo cuando se ubica en el contexto del Análisis Matemático, se trata de los denominados coeficientes
1 R 2π
de Fourier de orden n una función continua f : [0, 2π] → C, que es Tn (f ) = f (t)e−int dt, donde n
2π 0
es un entero.
Ejemplo 1.46. Sean U un espacio vectorial sobre K con dim(U ) = n ≥ 1 y B = {u1 , · · · , un } una base
de U . En el espı́ritu del teorema 1.1, ver página 17, fijemos escalares a1 , · · · , an , entonces existe un único
funcional lineal f : U → K tal que f (ui ) = ai para cada i = 1, · · · , n.
Veamos la expresión general que tiene la imagen de cualquier vector u ∈ U . Tomemos entonces u ∈ U ;
en la base B este u se escribe de manera única como u = γ1 u1 + · · · + γn un , entonces al aplicar f a ambos
lados, emplear la linealidad y usar las condiciones impuestas a f (ui ) para cada i = 1, · · · , n se tiene
γ1
.
f (u) = γ1 a1 + · · · + γn an = a1 ··· an .. = a1 ··· an [u]B .
γn
Observe que esta es la relación establecida en (1.24), ver página 53, donde se obtuvo la representación
matricial de un funcional lineal cualquiera. Note además que f depende de los valores que se le asignen
a las imágenes de los vectores de la base B; podemos decir también que este es funcional lineal es un
modelo universal.
Veamos algunos casos especiales de estos funcionales lineales ası́ construidos. Si todos los escalares
a1 , · · · , an son nulos, entonces es claro que el funcional correspondiente es el nulo (vector nulo del espacio
dual U ∗ ). Hacemos énfasis en los funcionales lineales u∗1 , · · · , u∗n los cuales son obtenidos a partir de la
siguiente consideración; para cada i = 1, · · · , n sea u∗i : U → K el funcional lineal que satisface:
u∗i (u1 ) = 0, · · · , u∗i (ui−1 ) = 0, u∗i (ui ) = 1, u∗i (ui+1 ) = 0 · · · , u∗i (un ) = 0. (1.31)
Estos n funcionales lineales u∗1 , · · · , u∗n juegan un papel fundamental en la teorı́a de los espacios duales
de de dimensión n, tal y como será mostrado en el siguiente resultado.
Teorema 1.9 (Base dual). Sean U un espacio vectorial sobre K y B = {u1 , · · · , un } una base de U .
Entonces existe una única base B∗ = {u∗1 , · · · , u∗n } de U ∗ , conocida como base dual de B, tal que para
cada funcional f ∈ U ∗ se tiene:
n
X
f = f (u1 )u∗1 + · · · + f (un )u∗n = f (ui )u∗i , (1.32)
i=1
Demostración: Sean u∗1 , · · · , u∗n los funcionales lineales de U como los obtenidos mediante la relación
(1.31). Mostraremos que constituyen una base de U ∗ ; además, es la única base de U ∗ que satisface las
identidades (1.32) y (1.33).
Transformaciones Lineales 61
Observe que las representaciones matriciales de u∗1 , · · · , u∗n en la base B son, respectivamente, las
matrices unifila
1 0 ··· 0 , 0 1 0 ··· 0 , ··· , 0 0 ··· 0 1 ,
que son justamente los vectores canónicos en Kn (vistos como unifilas); dado que estas matrices son
linealmente independientes, los funcionales lineales u∗1 , · · · , u∗n también los son, y como dim(U ∗ ) = n,
entonces B∗ = {u∗1 , · · · , u∗n } es una base de U ∗ .
Veamos que B∗ satisface lo establecido en el enunciado del teorema. Sea f ∈ U ∗ cualquier funcional
lineal de U , existen únicos escalares γ1 , · · · , γn tales que f = γ1 u∗1 + · · · + γn u∗n . Al evaluar esta identidad
en cada ui (i = 1, · · · , n) tenemos f (ui ) = γ1 u∗1 (ui ) + · · · + γn u∗n (ui ) = γi pues u∗i (uℓ ) = 0 si i 6= ℓ y
u∗i (ui ) = 1 si i = ℓ; esto demuesta (1.32). Tomemos ahora cualquier vector u ∈ U y sean β1 , · · · , βn los
escalares tales que u = β1 u1 + · · · + βn un . Aplicando el funcional u∗i (i = 1, · · · , n) a cada lado de esta
última identidad se tiene u∗i (u) = β1 u∗i (u1 ) + · · · + βn u∗i (un ) = βi , ya que u∗i (uℓ ) = 0 si i 6= ℓ y u∗i (ui ) = 1
si i = ℓ; esto demuesta (1.33).
Finalmente, demostremos que la base B∗ es la única que satisface las identidades (1.32) y (1.33).
Supongamos que {f1 , · · · , fn } es otra base para las cuales se cumplen esas mismas identidades dadas por
(1.24). En particular, de (1.32) se tiene para cada i = 1, · · · , n que:
nuevamente de u∗i (uℓ ) = 0 si i 6= ℓ y u∗i (ui ) = 1 si i = ℓ sigue que u∗i = fi para cada i = 1, · · · , n; con lo
cual la demostración está completa.
Comentario 1.11. Ciertamente las ecuaciones (1.32) y (1.33) revelan el significado de las bases duales
de U ∗ : si B = {u1 , · · · , un } es una base del espacio vectorial U y B∗ = {u∗1 , · · · , u∗n } es su base dual,
entonces cada u∗i toma cualquier vector u ∈ U y lo envı́a en su i-ésima coordenada relativa a la base B,
de allı́ el nombre que se le ha asignado; por otra parte, si f ∈ U ∗ es tal que, para cada i = 1, · · · , n,
f (ui ) = γi , entonces para u = α1 u1 + · · · αn un se tiene, como en el ejemplo 1.46, que
α1
.
f (u) = γ1 α1 + · · · + γn αn = γ1 ··· γn .. .
αn
Esto permite concluir que para cualquier funcional f en un espacio U de dimensión n ≥ 1, y para cualquier
base B de U , existe una única A ∈ M1×n (K) tal que f (u) = A[u]B para cada u ∈ U ; como sabemos, A es
la representación matricial de f en la base B de U .
Ejemplo 1.47. Para la base B = {u1 = (1, 1), u2 = (0, 1)} de R2 construyamos su base dual. Siguiendo
los argumentos del teorema anterior, los funcionales u∗1 , u∗2 : R2 → R que definen la base dual de B están
∗ ∗
u1 (u1 ) = 1 u2 (u1 ) = 0
caracterizados por: y . Ahora bien, dado que cada u = (x, y) ∈ R2 se
u∗1 (u2 ) = 0 u∗2 (u2 ) = 1
escribe en la base B como u = xu1 + (y − x)u2 , entonces:
x
u∗1 (x, y) = xu∗1 (u1 ) + (y − x)u∗1 (u2 ) = x = 1 0 ,y
y−x
∗ ∗ ∗
x
u2 (x, y) = xu2 (u1 ) + (y − x)u2 (u2 ) = y − x = 0 1 .
y−x
62 Fascı́culos de Álgebra Lineal
Ejemplo 1.48. Consideremos el espacio dual de (R3 )∗ ; es decir, el espacio de todos los funcionales
lineales de R3 . Sean f1 , f2 , f3 : R3 → R los funcionales lineales definidos, para cada (x, y, z) ∈ R3 por
Es fácil verificar que f1 , f2 , f3 son linealmente independientes, de hecho, si α1 , α2 , α3 son números reales
tales que α1 f1 + α2 f2 + α3 f3 = 0(R3 )∗ (el funcional nulo), entonces al evaluar esta identidad en los
2α1 + α3 = 0
vectores canónicos e1 , e2 , e3 tenemos el sistema de ecuaciones lineales homogéneo α1 − α2 + α3 = 0 .
α1 + α2 + α3 = 0
Para verificar que este sistema de ecuaciones tiene como única solución la nula, basta chequear que la
2 0 1
matriz 1 −1 1 es invertible, lo cual se verifica mediante la reducción por filas, o simplemente
1 1 1
calculando su determinante. Verificado esto, tenemos que {f1 , f2 , f3 } es base de (R3 )∗ . Deseamos en este
ejemplo encontrar la base de R3 que hace a {f1 , f2 , f3 } su base dual. Es decir, deseamos hallar vectores
u1 , u2 , u3 ∈ R3 tales que:
f1 (u1 ) = 1 f2 (u1 ) = 0 f3 (u1 ) = 0
f1 (u2 ) = 0 , f2 (u2 ) = 1 , y f (u ) = 0 .
3 2
f1 (u3 ) = 0 f2 (u3 ) = 0 f3 (u3 ) = 1
f1 (u1 ) = 1
Para obtener estos tres vectores hagamos primero u1 = (x, y, z). De las relaciones f (u ) = 0 y usando
2 1
f3 (u1 ) = 0
2x + y + z = 1
(1.34), sigue que u1 es solución del sistema de ecuaciones lineales −y + z = 0 . Procediendo de
x+y+z = 0
f1 (u2 ) = 0 f1 (u3 ) = 0
la misma forma, al emplear las relaciones f2 (u2 ) = 1 y f (u ) = 0 , se obtiene vectores u2 y u3
2 3
f3 (u2 ) = 0 f3 (u3 ) = 1
2x + y + z = 0 2x + y + z = 0
que son soluciones, respectivamente, de los sistemas lineales: −y + z = 1 y −y + z = 0 .
x+y+z = 0 x+y+z =1
2 1 1
Note que estos tres sistemas de ecuaciones lineales tienen solución única pues la matriz 0 −1 1 es
1 1 1
invertible. Ası́ que usando cualquier método de resolución de sistemas de ecuaciones lineales obtenemos:
se escribe como la suma de un vector en N (f ) y otro en hu0 i. Tomemos entonces u ∈ U ; una simple
cuenta muestra que u = (u − f (u)u0 ) + f (u)u0 ; además, es también simple ver que f (u)u0 ∈ hu0 i y
u − f (u)u0 ∈ N (f ); de esta forma U = N (f ) ⊕ hu0 i.
Geométricamente lo que se acaba de mostrar dice que el núcleo de un funcional lineal no nulo es “todo
el espacio U excepto por un subespacio de dimensión 1”. En general todo subespacio vectorial W de U
que satisfaga U = W ⊕ hui, para algún vector no nulo, se le conoce con el nombre de hiperespacio de U ,
o también W es un subespacio vectorial de codimensión 1 .
Ası́, el núcleo de cualquier funcional lineal no nulo de U es un hiperespacio de U . En el caso especial de
ser U de dimensión finita n ≥ 1, los hiperespacios se llaman hiperplanos. Observe que si dim(U ) = n ≥ 1 y
f es un funcional lineal no nulo, entonces del teorema de la nulidad y rango sigue que dim(N (f )) = n − 1.
La figura 1.13 ilustra esta situación. Aún en el caso de dim(U ) = n ≥ 1, si B = {u1 , · · · , un } es una base
N (f )
hu0 i u0
0U
Demostración: Note que la primera parte del enunciado del teorema es consecuencia de la segunda:
basta considerar k = n − 1. Por tanto demostraremos la segunda parte.
Sean W un subespacio de U con dimensión 1 ≤ k < n y {u1 , · · · , uk } una base de W . Construiremos
n − k funcionales lineales en U de manera que la intersección de sus núcleos sea W . Recordemos que un
64 Fascı́culos de Álgebra Lineal
funcional lineal f : U → K se obtiene a partir de una base B de U y una matriz unifila A; de hecho
f (u) = A[u]B para todo vector u ∈ U .
Sea B = {u1 , · · · , uk , uk+1 , · · · , un } una base de U obtenida por completación de la base considerada
en W . Para cada j = k + 1, · · · , n, sea Aj = 0 · · · 0 1 0 · · · 0 la matriz unifila que ubica el
dı́gito 1 en la j-ésima posición de Aj y el resto de sus entradas en igual a 0. De esta forma tenemos n − k
funcionales lineales fk+1 , · · · , fn : U → K dados por fj (u) = Aj [u]B , para cada u ∈ U ; esto es, fj (u) = αj
siempre que u = α1 u1 +· · ·+αk uk +αk+1 uk+1 +· · ·+αn un . Veamos que W = N (fk+1 )∩· · ·∩N (fn ). Note
que u = α1 u1 +· · ·+αk uk +αk+1 uk+1 +· · ·+αn un ∈ N (fj ) para j = k+1, · · · , n si, y sólo si, la componente
αj del vector de coordenadas [u]B es nula, pues son los únicos que hacen Aj [u]B = 0. Dado que para cada
vector de u ∈ W las componentes αk+1 , · · · , αn en [u]B son todas nulas, entonces u ∈ N (fj ) para todo
j = k + 1, · · · , n; es decir, W ⊂ N (fk+1 ) ∩ · · · ∩ N (fn ). Recı́procamente, si u ∈ N (fk+1 ) ∩ · · · ∩ N (fn ),
entonces las componentes de u en [u]B son nulas desde la posición k + 1 hasta la posición n; esto es,
u ∈ W ; por tanto N (fk+1 ) ∩ · · · ∩ N (fn ) ⊂ W , y ası́ W = N (fk+1 ) ∩ · · · ∩ N (fn ).
Ejemplo 1.49. Sean P3 (R) el espacio de las funciones polinómicas de grado menor o igual a 3 y W el
subespacio generado por p1 (x) = 1+2x−2x2 y p2 (x) = 2x+x2 +x3 . Note dim(W ) = 2 pues p1 (x) y p2 (x)
son linealmente independientes. Dado que dim(P3 (R) = 4, el teorema anterior garantiza la existencia de
dos funcionales lineales f3 , f4 : P3 (R) → R, tales que N (f3 ) ∩ N (f4 ) = W . Siguiendo la demostración
del teorema, debemos completar {p1 (x), p2 (x)} hasta obtener una base de P3 (R), por ejemplo para las
funciones p3 (x) = x2 y p4 (x) = x3 se tiene que B = {p1 (x), p2 (x), p3 (x), p4 (x)} es base de P3 (R). El
siguiente paso en la búsqueda de los funcionales lineales f3 y f4 es calcular el vector de coordenadas de
cualquier p(x) = a0 + a1 x + a2 x2 + a3 x3 en la base B; es decir, para una tal función polinomial de grado
menor o igual a 3 encontrar escalares α1 , α1 , α3 , α4 ∈ R tales que
p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x)
= α1 + (2α1 + 2α2 )x + (−2α1 + α2 + α3 )x2 + (α2 + α4 )x3 .
Sigue de esta igualdad que los valores de α1 , α2 , α3 y α4 se obtienen como solución del sistema de ecua-
α1 = a0 α1 = a0
α = −a + a1
2α1 + 2α2 = a1 2 0 2
ciones lineales ; que es, a1 . De esta forma los funcionales
−2α 1 + α 2 + α 3 = a 2
α3 = 3a 0 − 2 + a2
a1
α2 + α4 = a3 α4 = a0 − 2 + a3
que estamos procurando quedan determinados por los valores de los escalares α3 y α4 ; es decir:
a1 a1
f3 (p(x)) = 3a0 − + a2 y f4 (p(x)) = a0 − + a3 .
2 2
Observe que N (f3 ) = {p(x) : 6a0 − a1 + 2a2 = 0} y N (f4 ) = {p(x) : 2a0 − a1 + 2a3 = 0}.
Otra forma de proceder (aunque en el fondo es la misma anterior) para encontrar funcionales lineales
cuya intersección de sus núcleos sea W consiste primero en caracterizar las funciones polinomiales de grado
menor o igual a 3 que pertenecen a W ; y a partir de allı́ obtener unos tales funcionales lineales. Sabemos
que p(x) = a0 +a1 x+a2 x2 a3 x3 ∈ W si, y sólo si, existen escalares α1 y α2 tales que p(x) = αp1 (x)+βp2 (x).
α = a0
2α + 2β = a1
Pero esto ocurre si, y sólo si el sistema de ecuaciones lineales admite soluciones,
−2α + β = a2
β = a3
1 0 1 0 a0
2 2 2 2 a1
esto significa que y
−2 1 −2 1
tienen los mismos rangos. Empleando operaciones
a2
0 1 0 1 a3
Transformaciones Lineales 65
1 0 a0
0 1 a3
elementales por filas se verifica que esta última matriz es equivalente a
0
, por
0 2a0 − a1 + 2a3
0 0 2a0 + a2 − a3
tanto, p(x) ∈ W si, y sólamente si, 2a0 − a1 + 2a3 = 0 y 2a0 + a2 − a3 = 0; es decir
la intersección de sus núcleos es W , pues tales subespacios están constituidos, respectivamente, por
aquellas funciones p(x) = a0 + a1 x + a2 x2 a3 x3 con 2a0 − a1 + 2a3 = 0 y 2a0 + a2 − a3 = 0.
−1
y T2 = (T1 ) .
j ) Si B1 = {u1 , · · · , un } y B2 = {v1 , · · · , vn } son bases de U , entonces la representación matricial
del operador identidad, [I]B B1 , es la matriz identidad de orden n.
2
′
k ) Sean U y V espacios vectoriales sobre K de dimensión finita; sean BU , BU bases de U , y BV ,
′ ′
BV bases de V . Si P es la matriz de cambio de BU hacia BU y Q es la matriz de cambio de
′
BV
BV hacia BV′ , entonces [T ]B
BU = Q [T ]B′ P
V −1
.
U
2. En cada uno de los casos que a continuación se presentan determinar la representación matricial de
la transformación lineal dada:
66 Fascı́culos de Álgebra Lineal
p(x) − p(0)
d ) U = P2 (R), V = P3 (R), T : U → V definida por T (p(x)) = xp(x) + , con
x
2 2 2 3 BV
BU = {1, 1 + x, 1 + x + x }, y BV = {1, 1 − x, 1 + 2x + x , 1 − 3x + 3x − x }. [T ]BU =?
a b
e) U = M2×2 (R), V = R2 , T : U → V dada por T = (a + b, a + d), siendo que
a d
1 0 0 1 1 1 0 0
BU = , , , , y BV = {(1, 1), (2, −1)}. [T ]B
BU =?
V
0 1 0 1 1 1 0 1
f ) U = Mn×n (R), V = R, T : U → V dada por T (A) = tr(A), BU = {Aij : i, j = 1, · · · , n}
donde Aij es la matriz cuyas entradas son iguales a 0, excepto la entrada ij que es igual a 1,
y BV = {1}. [T ]B
BU =?
V
f1 (x) = ex cos(x), f2 (x) = ex sen(x), f3 (x) = e2x cos(x) y f4 (x) = e2x sen(x),
4. Construya una base de L(C2 , C2 ), entendiendo primero a C2 como un espacio vectorial sobre C;
repetir lo anterior pero ahora con C2 como espacio vectorial sobre R.
5. Dada A ∈ Mn×n (K) fija, denote por C(A) el conjunto de todas las matrices B ∈ Mn×n (K) tales
que AB = BA. Demostrar que C(A) es un subespacio vectorial de Mn×n (K).
1 2
Para A = determine de forma explı́cita las matrices de C(A), encuentre una base de este
1 1
subespacio, y complete tal base hasta obtener una de M2×2 (R).
Se define Φ : M2×2 (R) → M2×2 (R) por Φ(B) = AB − BA para cada B ∈ M2×2 (R). Determine una
representación matricial de Φ en la base obtenida. ¿Es Φ un isomorfismo?
Transformaciones Lineales 67
b) Obtenga las matrices de cambio de base, P y Q, de BR2 hacia BR′ 2 , y de BR3 hacia BR′ 3 . Calcule
B′
[T ]BR′ 3 .
R2
anterior.
10. Sea O : U → V es la transformación lineal nula. Si BU = {u1 , · · · , un } BV = {v1 , · · · , vm } son bases
de U y V respectivamente, demostrar que [O]B BU es la matriz nula de orden m × n.
V
11. Sea U un espacio vectorial sobre K de dimensión finita n ≥ 1. Demostrar que si T1 y T2 son
operadores lineales en U tales que la base B = {u1 , · · · , un } de U satisfacen [T1 ]B [T2 ]B = In (matriz
identidad), entonces T1 es invertible y T2 = (T1 )−1 .
12. Sean A, B ∈ Mn×n (K) tales que AB = In (matriz identidad). Demostrar que A es invertible y
B = A−1 .
13. Sean U un espacio
vectorial
de dimensión 2 sobre K, y T un operador lineal en U . Si B es una base
a b
de U y [T ]B = , demostrar que T 2 − (a + d)T + (ad − bc)IU = 0U , donde IU es el operador
c d
identidad en U y 0U es el operador nulo en U .
14. Sean Pn+1 (R) y Pn (R) los espacios de las funciones polinómicas de grado menor o igual a n + 1 y
de grado menor o igual a n sobre R, respectivamente. Sea D : Pn+1 (R) → Pn (R) la transformación
lineal que a cada p(x) = a0 + a1 x + · · · + an+1 xn+1 ∈ Pn+1 (R) le hace corresponder su derivada
0 0 ··· 0
1 0 · · · 0
1
b) Considere ahora la matriz de orden (n + 2) × (n + 1), B = 0 2 · · · 0 . Demuestre que
.. .. . . ..
. . . .
1
0 0 · · · n+1
Bn
[D]Bn+1 B = In+1 .
c) e : Pn (R) → Pn+1 (R) definida para cada q(x) = a0 + a1 x + · · · + an xn ∈ Pn (R) por
Sea D
Z x
e a1 2 an
D(q(x)) = a0 x + x + ··· + xn+1 = q(t) dt.
2 n+1 0
Demostrar que De es la transformación lineal de Pn (R) en Pn+1 (R) tal que [D] e Bn+1 = B.
Bn
Concluya que D es invertible por la derecha; ver ejercicio propuesto 19 en la página 42.
Determine, para cada 1 ≤ i ≤ m y cada 1 ≤ j ≤ n, la matriz [Tij ]BBU . Use las matrices obtenidas
V
16. Sean U y V espacios vectoriales sobre K ambos de dimensión n ≥ 1. Sea T : U → V una transfor-
mación lineal. Demostrar que existen bases BU y BV de U y V , respectivamente, tales que [T ]B
BU
V
17. Sean U un espacio vectorial sobre K de dimensión finita, V y W subespacios vectoriales de U tales
que U = V ⊕ W . Si T un operador lineal en U que deja invariante a V ; es decir, T (V ) ⊂ V ,
PW : U → U es la proyección de U sobre W a lo largo de V , T1 : V → V es la restricción de T
a V y T2 : W → W es el operador T2 = PW T . Demostrar que existe una base B de U tal que
A1 B
la representación matricial de T en esa base es una matriz por bloques A = , donde
O A2
las submatrices A1 y A2 son representaciones matriciales de T1 y T2 , en algunas bases de V y W
respectivamente.
El significado de dos operadores lineales semejantes es que la acción de T sobre cualquier vector
u ∈ U es la misma acción de S sobre el vector φ(u). Es decir, T y S actúan sobre los espacios donde
ellos están definidos de la misma forma, salvo el isomorfismo φ.
Transformaciones Lineales 69
son semejantes.
b) Demuestre que la semejanza de operadores lineales es una relación de equivalencia.
c) Si U y V son de dimensión finita, T es un operador en U y S es un operador en V son
linealmente semejantes, entonces dim(U ) = dim(V ), nul(T ) = nul(S) y ran(T ) = ran(S).
d ) Sean U un espacio vectorial sobre K de dimensión finita n ≥ 1. Si T es un operador lineal en
U , demostrar que T y X 7−→ [T ]B X (X ∈ Kn ) son linealmente semejantes. Concluya que para
cualquier otra base B′ de U se tiene que los operadores lineales X 7−→ [T ]B X y X 7−→ [T ]B′ X
son semejantes
e) Dos matrices A y B de orden n × n sobre K se dicen semejantes (o similares) si existe una
matriz P ∈ Mn×n (K) invertible tal que A = P −1 B P . Explique en términos del concepto de
semejanza de operadores lineales la semejanza de matrices. Demuestre que las representaciones
matriciales de un mismo operador son semejantes, y que ambas tienen la misma traza; para
esto último verifique que tr(AB) = tr(BA) para cualquier par de matrices A, B ∈ Mn×n (K).
a) Sea T el operador lineal en U tal que T (u1 ) = 0U y T (uj ) = uj−1 para todo j = 2, · · · , n.
Determine [T ]B ; demuestre que T n = 0 y T n−1 6= 0.
b) Sea S cualquier operador lineal en U tal que S n = 0 y S n−1 6= 0. Demuestre que existe una
base B′ de U tal que [S]B′ = [T ]B .
c) Demostrar que si A, B ∈ Mn×n (K) son tales que An = 0 = B n pero An−1 6= 0 6= B n−1 ,
entonces A y B son semejantes.
21. Sea U un espacio vectorial sobre K. Para cada u ∈ U se define Lu : U ∗ → K por Lu (f ) = f (u).
Demostrar que Lu es un funcional lineal de U ∗ ; es decir, Lu ∈ U ∗∗ .
a) si u 6= 0U , entonces Lu 6= 0.
b) Φ : U → U ∗∗ dada por Φ(u) = Lu es un isomorfismo.
c) para cada L ∈ U ∗∗ existe un único vector u ∈ U tal que L = Lu .
d ) toda base de U ∗ es la base dual de alguna base de U .
70 Fascı́culos de Álgebra Lineal
26. Sean U = Mn×n (K) y A ∈ Mn×n (K) fija. Dados T (B) = BA − AB y f (B) = tr(B), determinar
T t (f ).
27. Sean U un espacio vectorial de dimensión finita sobre K y T : U → U un operador lineal. Sea α ∈ K
tal que para algún v ∈ U no nulo se cumple que T (u) = αu. Demostrar que existe un funcional
lineal no nulo tal que T t (f ) = αf .
28. Sea A ∈ Mn×n (R). Demostrar que A = 0 si, y sólo si, tr(At A) = 0.