Álgebra Lineal - O. Lezama PDF
Álgebra Lineal - O. Lezama PDF
Álgebra Lineal - O. Lezama PDF
Por:
Oswaldo Lezama
a 0 ··· 0 0
1 a ··· 0 0
.. .. .. ..
..
Ja,y = . . . . .
.. .. .. . . ..
. . . . .
0 0 ··· 1 a
ii
Índice general
Índice General IV
1. Espacios Vectoriales 1
1.1. Estructuras Algebraicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Espacios Vectoriales y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2. Transformaciones Lineales 17
2.1. Definición y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2. Núcleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3. Operaciones con Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4. Tansformaciones Lineales Biyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Producto y Suma Directa de Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 25
2.6. Suma Directa Interna de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3. Matrices 33
3.1. Espacios Vectoriales de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Transformaciones Lineales y Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3. Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5. Equivalencia y Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.6. Matrices Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4. Determinantes 51
4.1. Funciones Multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2. La Función Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5. Polinomio Caracterı́stico 67
5.1. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2. Polinomio Caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3. Matrices Diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
iii
iv ÍNDICE GENERAL
5.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6. Formas Canónicas 81
6.1. Polinomio Mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2. Forma Canónica Triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3. Diagonalización en Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4. Teorema de Descomposición Irreducible . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.5. El Teorema de Descomposición Cı́clica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.6. Forma Canónica Racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.7. Forma Canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Espacios Vectoriales
Introducción
En las lecciones de este capı́tulo se presenta la noción de espacio vectorial sobre cuerpos arbitrarios. Se
comienza con las definiciones de las estructuras algebraicas básicas que inducen la definición de cuerpo
y espacio vectorial. El capı́tulo después está dedicado a trabajar los conceptos de base y dimensión
que resultan fundamentales en todo el desarrollo del curso.
G × G −→ G
(a, b) 7−→ a∗b
Si la operación ∗ es asociativa en el sentido que
(a ∗ b) ∗ c = a ∗ (b ∗ c)
Ejemplo 1.1. El conjunto N = {1, 2, 3, ...} de números naturales con la operación usual de adición es
un semigrupo.
e∗a=a=a∗e
para cada elemento a ∈ G, entonces se dice que (G, ∗) es un monoide con elemento neutro e.
Nótese que en un monoide el elemento neutro es único.
Definición 1.3. Sea (G, ∗, e) un monoide. Si cada elemento a ∈ G tiene un inverso, es decir, existe
un elemento a0 ∈ G tal que
a ∗ a0 = e = a0 ∗ a
1
2 CAPÍTULO 1. ESPACIOS VECTORIALES
entonces se dice que (G, ∗, e) es un grupo. Nótese que en un grupo cada elemento tiene un único
inverso. Si el contexto lo permite, un grupo (G, ∗, e) será denotado simplemente por G.
Ejemplo 1.3. El conjunto Z de números enteros con la operación usual de adición conforma un grupo.
Un grupo G se dice conmutativo (=abeliano) si su operación es conmutativa, es decir,
a∗b=b∗a
para cualesquiera elementos a, b ∈ G. Obsérvese que el grupo aditivo de números enteros es conmuta-
tivo. Se acostumbra a denotar la operación de un grupo conmutativo mediante el sı́mbolo +.
Se ha visto que el conjunto Z de números enteros posee dos operaciones + y × tal que respecto
de la primera es un grupo abeliano, mientras que bajo la segunda es un monoide. Conjuntos con tales
condiciones conforman los llamados anillos. Más exactamente,
Definición 1.4. Un anillo es un conjunto A dotado de dos operaciones + y × tales que:
(a) A respecto de + es un grupo conmutativo
(b) A respecto de × es un monoide
(c) × se distribuye sobre +, es decir,
a × (b + c) = a × b + a × c (a + b) × c = a × c + b × c
Además, es costumbre omitir el sı́mbolo × entre dos elementos, ası́ pues, el producto a × b se es-
cribirá simplemente como ab.
Ejemplo 1.4. El conjunto Z de números enteros con las operaciones habituales de adición y multi-
plicación es un anillo conmutativo.
Ejemplo 1.5. El conjunto R[x] de polinomios reales en la indeterminada x con las operaciones habi-
tuales de adición y multiplicación de polinomios es un anillo conmutativo.
Ejemplo 1.6. El conjunto M2 [R] de matrices reales 2 × 2 con las operaciones usuales de adición y
multiplicación de matrices conforma un anillo.
En un anillo A cada elemento a tiene un opuesto −a, sin embargo, no todo elemento tiene un inverso
respecto de la segunda operación. Por ejemplo, en Z el 2 no tiene inverso multiplicativo, es decir, no
existe entero b tal que 2b = 1. En R[x] los únicos polinomios invertibles son las constantes no nulas;
en M2 [R] las matrices de determinante no nulo son invertibles.
Si a ∈ A es invertible, entonces existe un único a−1 ∈ A tal que aa−1 = 1 = a−1 a; la colección
de elementos invertibles de A se denota por A∗ .
Ejemplo 1.7. (a) Z∗ = {±1}.
(b) R[x]∗ = {p(x) | p(x) es una constante no nula}.
(c) M2 [R]∗ = {B | det(B) 6= 0}.
1.2. ESPACIOS VECTORIALES Y EJEMPLOS 3
f :G →H
tal que
f (a ∗ b) = f (a) · f (b)
para cualesquiera elementos a, b ∈ G. Dos anillos (A, +, ×, 1) y (B, +, ×, 1) se dicen isomorfos si existe
una función biyectiva
f :A →B
tal que
f (a + b) = f (a) + f (b),
f (ab) = f (a)f (b),
para cualesquiera elementos a, b ∈ A. Obsérvese que necesariamente f (1) = 1 y f (a−1 ) = f (a)−1 para
cada elemento invertible de a de A. Además, la relación ser isomorfo es de equivalencia.
Ejemplo 1.10. Sea n un número natural ≥ 1. El espacio Rn de n-plas ordenadas de números reales
en la forma (x1 , . . . , xn ) es un espacio vectorial real respecto de las siguientes operaciones:
Si X = R entonces se obtiene el espacio de todas las funciones de variable real a valor real. Si X es
un intervalo abierto, por ejemplo (a, b) o R, y C(X) es el conjunto de funciones continuas de X en R,
entonces C(X) es un espacio vectorial real. Si X = N es el conjunto de números naturales, entonces
resulta el espacio de las sucesiones reales.
Solución: La idea es revisar todas las propiedades (axiomas) que definen un espacio vectorial. En
primer lugar, nótese que en el ejemplo en cuestión, el cuerpo de escalares son los números reales,
es decir, no necesitamos demostrar que R sea efectivamente un cuerpo. Esto lo damos por conoci-
do. Mas bien, debemos establecer que el conjunto de vectores RX es un un grupo abeliano y que la
acción de los escalares reales por estos vectores satisfacen las propiedades de la definición de la Lección
2.
La primera observación que debemos hacer es que la suma de dos elementos de RX es nuevamen-
te una función de RX : esto es claro a partir de la definición de suma: f + g actuando en x ∈ X es
f (x) + g(x) ∈ R, en otras palabras, la operación de suma en RX es interna.
En segundo lugar, esta operación es asociativa en el sentido que f +(g + h) = (f + g)+h, donde f, g, h ∈
RX : en efecto, esto se debe a que la suma de reales es una operación asociativa: (f + (g + h)) (x) =
f (x)+(g + h) (x) = f (x)+(g(x) + h(x)) = (f (x) + g(x))+h(x), en esta última igualdad hemos aplica-
do la propiedad asociativa de la suma de números reales. Se concluye entonces que (f + (g + h)) (x) =
((f + g) + h) (x), es decir, f + (g + h) = (f + g) + h.
1.3. SUBESPACIOS 5
La suma definida tiene elemento neutro, es decir, vector nulo: en efecto, la función 0 : X → R definida
por 0(x) = 0 para cada x ∈ R es tal que 0 + f = f = f + 0 para cada f ∈ R.
Cada elemento f ∈ R tiene su inverso respecto de esta suma, es decir, su función opuesta: esta
función opuesta se denota por −f y es definida por (−f ) (x) = −f (x), para cada x ∈ X. Nótese que
f + (−f ) = 0 = −f + f .
Ahora debemos verificar el cumplimiento de las propiedades relativas al producto de escalar por vector:
la operación a.f está bien definida, es decir, es una operación externa y cumple las siguientes propie-
dades:
(a. (f + g)) (x) = a. (f + g) (x) = a.f (x) + a.g(x) = (a.f + a.g) (x), es decir, a. (f + g) = a.f + a.g,
donde a es un escalar real.
((a + b) .f ) (x) = (a + b) .f (x) = a.f (x) + b.f (x) = (a.f + b.f ) (x), es decir, (a + b) .f = a.f + b.f .
((ab) .f ) (x) = (ab) .f (x) = a(b.f (x)) = (a(b.f )) (x), es decir, (ab) .f = a(b.f ).
Esto completa la demostración de todas las propiedades requeridas para tener una estructura de
espacio vectorial real.
1.3. Subespacios
Dado un espacio vectorial V sobre un cuerpo K y un subconjunto no vacı́o S de V , resulta interesante
preguntarse si S bajo la misma adición de vectores y la misma acción de escalares sobre vectores,
conforma un espacio vectorial sobre K. En caso afirmativo, se dice que S es un subespacio del espacio
V . Esta relación se denota por S ≤ V . Según esta definición, si se desea establecer que S ≤ V se deberı́a
verificar el cumplimiento de los cuatro axiomas para la adición de vectores y los cuatro axiomas para
la acción de escalares sobre vectores. Sin embargo, sólo es necesario verificar el cumplimiento de dos
condiciones, como lo muestra la siguiente proposición.
Proposición 1.2. Sea V un espacio vectorial sobre el cuerpo K y sea S un subconjunto no vacı́o de
V . Entones, S ≤ V si y sólo si se cumplen las siguientes condiciones:
(1) Si u, v ∈ S, entonces u + v ∈ S.
(2) Si v ∈ S y a ∈ K, entones a.v ∈ S.
Ejemplo 1.14. En el plano cartesiano R2 el subconjunto S = {(x, y)|y = mx}, donde m ∈ R es una
constante, representa una recta que pasa por el origen y conforma un subespacio de R2 .
Ejemplo 1.15. En el espacio R[x] de polinomios reales, el subconjunto Rn [x] de polinomios de grado
≤ n conforma un subespacio.
Ejemplo 1.16. En el espacio RR de funciones de R en R, la colección C(R) de funciones continuas de
R en R conforma un subespacio. En C(a, b) se tienen dos subespacios notables: C n (a, b) conformado
por todas las funciones de (a, b) en R cuyas primeras n derivadas son continuas, y C ∞ (a, b) consti-
tuido por las funciones de (a, b) en R para las cuales las derivadas de cualquier orden son continuas.
6 CAPÍTULO 1. ESPACIOS VECTORIALES
Sea V un espacio vectorial y S un subconjunto no vacı́o de V ; nótese que el subespacio más pequeño de
V que contiene a S es la intersección de todos los subespacios de V que contienen a S. Este subespacio
se denota por hSi y se conoce como el subespacio generado por S.
A continuación se verá que hSi puede describirse en términos de combinaciones lineales de elementos
de S. Sean v1 , v2 , . . . , vn elementos del espacio V , una combinación lineal de estos elementos es un
vector v ∈ V de la forma v = a1 .v1 + · · · + an .vn , donde a1 , . . . , an son escalares del cuerpo K. Se
puede entonces afirmar lo siguiente.
Proposición 1.3. Sea V un espacio vectorial sobre el cuerpo K y sea S un subconjunto no vacı́o de
V . Entonces, hSi coincide con el conjunto de todas las posibles combinaciones lineales realizadas con
elementos de S. Más exactamente,
( n )
X
hSi = ai .vi |ai ∈ K, vi ∈ S, n ≥ 1 .
i=1
1.4. Bases
En cada espacio vectorial existen ciertos subconjuntos conocidos como bases; la importancia de estos
subconjuntos radica en que cada elemento del espacio puede ser representado de manera única a través
de sus elementos. El propósito de la presente lección es explicar en detalle la noción de base, la cual
es fundamental en álgebra lineal.
Por otra parte, sea X = {x1 , . . . , xn } un subconjunto finito de V , se dice que X es un conjunto de vec-
tores linealmente independientes (L.I.) si la única combinación lineal nula con los elementos de
X es a través de escalares nulos. Más exactamente, los vectores de X son linealmente independientes
si para cualesquiera escalares a1 , . . . , an ∈ K se cumple que
Pn
i=1 ai . xi = 0 ⇐⇒ ai = 0, 1 ≤ i ≤ n.
1.4. BASES 7
Por definición, se asume que el conjunto vacı́o es LI. Un subconjunto cualquiera X de V es LI si cada
subconjunto finito de X es LI. X es linealmente dependiente (LD) si no es LI.
La siguiente proposición reune algunas propiedades básicas sobre dependencia e independencia lineal.
Proposición 1.4. Sea V un K-espacio y ∅ =
6 S ⊂ V . Entonces
(a) S es LD si y solo si existe x ∈ S tal que x ∈ hS 0 i, donde S 0 = S − {x}.
(b) Si 0 ∈ S entonces S es LD.
(c) Si S es LI entonces cada subconjunto de S es LI.
(d) Si S es finito y LI con n ≥ 0 elementos, entonces cada conjunto de n + 1 elementos de hSi es
LD.
Demostración: Las afirmaciones (a)-(c) son evidentes. La prueba de la parte (d) se hace por inducción
sobre n. Los casos n = 0, 1 son evidentes. Supóngase que la afirmación ha sido demostrada para n
vectores pertenecientes a la envolvente lineal de n − 1 vectores LI. Sea S = {v1 , . . . , vn } un conjunto
LI de vectores, y sean u1 , . . . , un+1 vectores de hSi. Supóngase que estos vectores son LI, y al expresar
cada uno de ellos como combinación lineal de los n vectores de S se tiene que:
u1 = a11 v1 + · · · + a1n vn
u2 = a21 v1 + · · · + a2n vn
.. .. ..
. . .
un+1 = an+11 v1 + · · · + an+1n vn
Puesto que los vectores u1 , . . . , un+1 son LI, entoces cada uno de ellos es no nulo, en particular u1 es no
nulo, esto hace que sin perder generalidad podamos suponer que a1n es no nulo. Nótese que entonces
el siguiente sistema de vectores es LI:
x1 = u1
xj = uj − ajn a−1
1n u1 , j ≥ 2
Según la parte (c) los vectores x2 , . . . , xn+1 son LI, pero al reemplazar u1 , uj en la expresión que define
a xj se encuentra que estos vectores pertenecen a la envolvente lineal de v1 , . . . , vn−1 y por inducción
resultarı́an LD.
(a) hXi = V
(b) X es LI.
Ejemplo 1.21. En el espacio M2 [R] de matrices reales 2 × 2 se tiene la siguiente base canónica:
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
Ejemplo 1.23. El conjunto ∅ es, por definición, la única base del espacio nulo 0 = {0}.
Una de las principales caracterizaciones del concepto de base se establece en la siguiente proposición.
v = a1 . x1 + · · · + an . xn , ai ∈ K, xi ∈ X, 1 ≤ i ≤ n.
1.5. Dimensión
En esta lección se discutirán los siguientes aspectos relativos a las bases: existencia, unicidad y car-
dinalidad (= cantidad de elementos). El punto de partida será el teorema sobre existencia de bases
en cualquier espacio vectorial. La prueba de este teorema se apoya en el Lema de Zorn (= axioma de
elección), el cual representa uno de los supuestos básicos de la teorı́a clasica de conjuntos. El lector no
interesado en la prueba puede simplemente asumir el Teorema 1 como un axioma.
Demostración: La prueba de este teorema se apoya en uno de los supuestos de la teorı́a clásica de
conjuntos: el lema de Zorn. Para los lectores no familiarizados con este axioma se explicarán brevemente
algunos de los términos de su enunciado. Un conjunto no vacı́o M es parcialmente ordenado si en M
está definida una relación de orden ≤. Un subconjunto no vacı́o N de M es totalmente ordenado si
cualesquiera dos elementos a, b de N son comparables, es decir, se tiene al menos una de las siguientes
posibilidades: a ≤ b, b ≤ a. Un elemento x ∈ M es una cota superior para el subconjunto N de M si
a ≤ x para cada elemento a ∈ N . Finalmente, se dice que el elemento x ∈ M es maximal si no existe
z en M tal que z 6= x y x ≤ z.
Lema 1.1 (de Zorn). Sea (M, ≤) un conjunto parcialmente ordenado tal que cada subconjunto total-
mente ordenado de M tiene cota superior en M . Entonces, M posee al menos un elemento maximal.
1.5. DIMENSIÓN 9
Ya se puede iniciar la prueba del teorema. Sea V un K-espacio vectorial y sea M la colección de
subconjuntos de V que son LI. M 6= ∅ ya que ∅ ∈ M . La relación ⊆ de inclusión entre conjuntos define
un orden parcial en M . Sea N un subconjunto de M totalmente ordenado. Sea
[
X= L
L∈N
Claramente, X es una cota superior para N ; nótese que X ∈ M , es decir, X es LI. Sea Z = {x1 , . . . , xn }
un subconjunto finito de X; existen L1 , . . . , Ln ∈ N tales que x1 ∈ L1 , . . . , xn ∈ Ln . Como N es to-
talmente ordenado se puede suponer que Li ⊆ L1 para cada 1 ≤ i ≤ n; por tanto, x1 , . . . , xn ∈ L1 , es
decir, Z ⊆ L1 ; como L1 es LI entonces Z es LI. Esto completa la prueba de que X es LI.
Por el lema de Zorn, M tiene elemento maximal X0 , el cual, por construcción, es LI; nótese que
hX0 i = V : obviamente hX0 i ⊆ V ; sea v ∈ V , si v ∈ X0 , entonces v ∈ hX0 i; supóngase que v ∈ / X0 . Si
v = 0 entonces v ∈ hX0 i; sea v 6= 0. Por la maximalidad de X0 , X0 ∪{v} es LD, entonces existen elemen-
tos x1 , . . . , xn ∈ X0 y escalares no todos nulos a, a1 , . . . , an ∈ K tales que a · v+a1 · x1 +· · ·+an · xn = 0.
Debido a la independencia lineal de los elementos x1 , . . . , xn se debe tener que a 6= 0, de donde, des-
pejando v, se tiene que v ∈ hX0 i. En total, V ⊆ hX0 i y se ha probado que hX0 i = V .
Con respecto a la unicidad de las bases se puede decir que, en general, un espacio vectorial tiene infi-
nitas bases. En efecto, si el espacio V es no nulo (si V es nulo su única base es ∅ ) y si X es una base
cualquiera de V y x es un elemento de X, entonces cambiando x por a.x en X, con cada a ∈ K − {0},
se obtienen bases distintas en V . Cuando K es infinito esta colección de bases es infinita. En realidad,
el único espacio con base única es el espacio nulo.
Mucho más interesante que la pregunta sobre la unicidad de las bases es el problema sobre el ta-
maño de éstas. Las siguientes proposiciones constituyen la prueba del Teorema 2 que se enunciará más
adelante.
Proposición 1.6. Si un espacio vectorial V posee una base finita, entonces todas sus bases son finitas.
La proposición anterior permite clasificar los espacios vectoriales en dos categorı́as: los de bases finitas
y los de bases infinitas.
Proposición 1.7. Sea V un espacio vectorial con bases finitas X = {x1 , . . . , xn } y Z = {z1 , . . . , zm }.
Entonces n = m.
Demostración: Supóngase que m > n; según la Proposición 4, z1 , . . . , zn , zn+1 son LD, lo cual es falso
ya que Z es una base. Por tanto, m ≤ n. Simétricamente, n ≤ m.
Proposición 1.8. Sea V un espacio vectorial con bases infinitas X, Y . Entonces card (X) = card (Y ).
Demostración: La idea es probar que card(X) ≤ card(Y ) y utilizar la simetrı́a del problema para
concluir que card(X) = card(Y ).
x = a1 · s1 + · · · + am · sm (1.1)
la representación de x en términos de elementos de Y . Cada elemento si , 1 ≤ i ≤ m, es representable
como combinación lineal de elementos de X; si se supone que x no aparece en la representación de
ningún elemento de Y , entonces x no aparece en la representación de ninguno de los elementos si . Sea
10 CAPÍTULO 1. ESPACIOS VECTORIALES
S
m
Xi el conjunto (finito!) de elementos de X que intervienen en la representación de si y sea X0 = Xi .
i=1
Obviamente X0 es finito y x ∈ / X0 . De (1.1) se obtiene que U = X0 ∪ {x} es LD, pero esto con-
tradice el hecho de que X es una base.
Ası́ pues, dado x ∈ X existe al menos un s ∈ Y tal que x está en la representación de s. Usando
el axioma de elección se define la función
Φ
X −→ Y
x 7→ Φ(x) = s
donde s es un elemento de Y tal que x está en la representación de s. Sea s ∈ Φ(X), entonces Φ−1 (s)
es un conjunto (finito!) y consta de elementos de X que intervienen en la representación de s. Se
establece, de esta manera, una función entre Φ(X) y el conjunto P F (X) de partes finitas de X:
α
Φ(X) −→ P F (X)
s 7→ Φ−1 (s)
α es inyectiva ya que Φ es una función; por tanto card(Φ(X)) = card(Im(α)).
Enseguida se probará que Im(α) es una partición de X. Si s1 6= s2 son dos elementos de Φ(X)
entonces Φ−1 (s1 ) ∩ Φ−1 (s2 ) = ∅ debido a que Φ es una función. Claramente
[ [
Im(α) = Φ−1 (s) ⊆ X
s∈Φ(X)
S S
Sea x ∈ X, entonces Φ(x) = s ∈ Φ(X) con lo cual x ∈ Φ−1 (s) ⊆ Im(α), es decir, X ⊆ Im(α).
Puesto que X es infinito Im(α) también es infinito. Ası́, se tiene que Im(α) es una partición infi-
nita de partes finitas de X, con lo cual card(X) = card(Im(α)) = card(Φ(X)) ≤ card(Y ). Esto
completa la prueba de la proposición.
Teorema 1.2. Para cada espacio vectorial V se cumple que todas las bases tienen la misma cardina-
lidad.
El teorema anterior permite definir la noción de dimension en un espacio vectorial V como el tamaño
de cualquiera de sus bases; se denotará este invariante de V por dimK (V ), o simplemente por dim(V ),
si es claro sobre qué cuerpo se está trabajando. Si V es de bases infinitas se dirá que V es de dimensión
infinita. Si X es un subconjunto de V , se define el rango de X, rankK (X), como la dimensión de la
envolvente lineal de X, es decir, rankK (X) = dimK hXi.
Ejericicio 1.3. Demuestre que si un espacio vectorial V posee un subconjunto infinito LI, entonces
V es de dimensión infinita.
(b) Sean x1 , . . . , xn vectores de V tales que V = hx1 , . . . , xn i. Supóngase que estos vectores son
LD, como se vió en la parte (a), uno de ellos se puede expresar como combinación lineal de los otros,
x1 ∈ hx2 , . . . , xn i, con lo cual V = hx2 , . . . , xn i. Esto hace que cualquier base de V resulte LD (véase
la Proposición 4 parte (d)).
(c) Según el Teorema 2, los m vectores no pueden ser una base para V . Por tanto,hx1 , . . . , xm i ⊂ V .
Sea xm+1 ∈ / hx1 , . . . , xm i. El sistema {x1 , . . . , xm+1 } es LI. Si m + 1 = n, entonces de acuerdo a la
parte (a), este conjunto es una base de V . Si m + 1 < n entonces hx1 , . . . , xm+1 i ⊂ V y se puede
repetir el razonamiento hasta completar la base.
(e) Si todos los vectores dados son nulos, entonces la afirmación se cumple trivialmente. Supónga-
se entonces que al menos uno de los vectores es no nulo. Sea L la colección de subconjuntos LI de
{x1 , . . . , xm }. L 6= φ ya que un vector unitario no nulo constituye un conjunto LI. Se puede escoger en
L un conjunto de mayor cardinalidad, por ejemplo, {x1 , . . . , xr }; de esta forma cualquier subconjunto
de r+1 elementos es LD. Sea x ∈ S = hx1 , . . . , xm i. Existen escalares a1 , . . . , ar , ar+1 , · · · , am tales que
x = a1 x1 + · · · + ar xr + ar+1 xr+1 + · · · + am xm . Para cada 1 ≤ i ≤ m − r el conjunto {x1 , · · · xr , xr+i } es
entonces LD. Existen escalares no todos nulos b1 , · · · , br , br+1 tales que b1 x1 +· · ·+br xr +br+1 xr+1 = 0.
No es posible que br+1 = 0 ya que los vectores x1 , . . . , xr son LI. De esta forma, xr+i ∈ hx1 , . . . , xr i,
para cada 1 ≤ i ≤ m − r. Esto implica que S = hx1 , . . . , xr i y {x1 , . . . , xr } es una base de S.
1.6. Ejercicios
1. En el conjunto R+ de números reales positivos se definen las siguientes operaciones:
Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales
(véase la Lección 2 del presente capı́tulo).
3. Sean a, b, c números reales diferentes fijos. Investigar si los siguientes polinomios son linealmente
independientes:
(x − a) (x − b) , (x − a) (x − c) , (x − b) (x − c) .
4. Sea Rn [x] el espacio de polinomios reales de grado ≤ n. Demostrar que cualquier subconjunto X
de Rn [x] que contenga por cada k = 0, 1, 2, 3, . . . , n un único polinomio de grado k, constituye
una base de Rn [x].
6. Sea X un sistema no vacı́o finito de vectores de un espacio vectorial V . Demostrar que la de-
pendencia o independencia lineal de X no se altera si sobre los elementos de X se aplican los
siguientes cambios: intercambiar el orden de dos vectores, multiplicar un vector de X por un
escalar no nulo, agregar a un vector de X otro vector de X que ha sido multiplicado por un es-
calar. (Estos cambios se conocen con el nombre de operaciones elementales sobre el conjunto
X. Para la demostración considérese cada operación por separado).
8. Utilizando las ideas de los dos problemas anteriores, calcular el rango de los siguientes sistemas
de vectores:
a) {(1, 2, 3) , (4, 5, 6) , (7, 8, 9) , (10, 11, 12)}
b) {(1, 10, 0, 0) , (0, 1, 10, 0) , (0, 0, 1, 10) , 10−3 , 0, 0, 1 }.
9. Recordando que los polinomios son vectores, calcular el rango de los siguientes sistemas de
polinomios:
a) 3x2 + 2x + 1, 4x2 + 3x + 2, 3x2 + 2x + 3, x2 + x + 1, 4x2 + 3x + 4
3
x + 2x2 + 3x + 4, 2x3 + 3x2 + 4x + 5,
b) .
3x3 + 4x2 + 5x + 6, 4x3 + 5x2 + 6x + 7
10. Completar el siguiente sistema de polinomios hasta una base de R5 [x] : x5 + x4 , x5 − 3x3 , x5 +
2x2 , x5 − x.
11. Demostrar que la conmutatividad de la suma de vectores se desprende de las restantes propiedades
que definen un espacio vectorial.
12. Sean x, y, z vectores linealmente independientes en un espacio vectorial. Cuáles de los siguientes
sistemas de vectores son también linealmente independientes ?
a) x, x + y, x + y + z
b) x + y, y + z, z + x
c) x − y, y − z, z − x
1.6. EJERCICIOS 13
f (x) = 1 − x,
g (x) = x (1 − x) ,
h (x) = 1 − x2 .
17. Sea K un cuerpo finito con q elementos. Cuántas bases ordenadas distintas tiene K n , n ≥ 1.
Álgebra Lineal
Capı́tulo 1. Espacios Vectoriales
Ejercicios.
2. Sea F el conjunto de todas las sucesiones de números reales (a1 , a2 , a3 , . . .) que satisfacen la condición
Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales (véase
la Lección 2 del presente capı́tulo).
Solución: Para ver que F es un subespacio de RN basta con verificar que la suma y la multipli-
cación por escalar son cerradas. En efecto, sean {an } y {bn } sucesiones de F y a ∈ R, entonces se
tiene que ak = ak−1 + ak−2 y bk = bk−1 + bk−2 , luego ak + bk = (ak−1 + bk−1 ) + (ak−2 + bk−2 ) y
por lo tanto {ak + bk } ∈ F. De igual manera a.ak = aak−1 +aak−2 y {a.ak } ∈ F. Ası́, F es un subespacio.
3. Sean a, b, c números reales diferentes fijos. Investigar si los polinomios (x − a)(x − b), (x − a)(x − c),
(x − b)(x − c) son linealmente independientes.
14. Sea U el subespacio de R3 [x] generado por los polinomios E = {x3 , x3 − x2 , x3 + x2 , x3 − 1}.
Encontrar un subconjunto F de E linealmente independiente tal que hF i = U .
Solución: Nótese que x3 + x2 = 2x3 − x3 − x2 , luego el elemento x3 + x2 sobra como genera-
dor en hEi = U . Los tres elementos x3 , x3 − x2 y x3 − 1 son linealmente
independientes: en efecto, sean
a, b, c escalares reales tales que ax3 + b x3 − x2 + c x3 − 1 = 0, entonces a + b + a = 0, −b = 0 y
−c = 0, o sea que todos los escalares son nulos.
16. En el espacio C[0, 1] de funciones reales continuas determinar si los siguientes vectores son LI:
f (x) = 1 − x,
g (x) = x (1 − x) ,
h (x) = 1 − x2 .
Solución: Sean a, b, c ∈ R tales que a (1 − x) + b (x (1 − x)) + c 1 − x2 = 0. Esta función nula se debe
entonces anular en cualquier punto del intervalo [0, 1], por tanto, haciendo x = 0 resulta a + c = 0.
Tomando ahora x = 21 encontramos que 12 a + 41 b + 34 c = 0. Y finalmente, tomando x = 13 se tiene que
2 2 8
3 a + 9 b + 9 c = 0. Se tiene entonces el siguiente sistema:
1.6. EJERCICIOS 15
a+c=0
1
2a + 14 b + 43 c = 0
2
3a + 29 b + 98 c = 0
cuya solución es [a = −c, b = −c]. Esto nos muestra que las funciones dadas son LD, por ejemplo,
tomando c = 1.
17. Sea K un cuerpo finito con q elementos. ¿ Cuántas bases ordenadas distintas tiene K n , n ≥ 1.
Solución: Cualquier base de K n consta de n elementos LI. Por tanto, el problema se reduce a cons-
truir todos los posibles conjuntos distintos de n elementos LI en el espacio K n . Sea v1 = (a1 , ..., an )
el primer vector de la lista, entonces v1 puede ser cualquier vector no nulo, es decir, el número de
posibilidades para v1 es q n − 1. El segundo vector de la lista no puede ser múltiplo de v1 , es decir, v2
no puede ser de la forma v2 = a.v1 , donde a ∈ K. Por tanto, el número de posibilidades para v2 es
q n − q. Ası́ pues, el número posible de dos vectores LI en K n es (q n − 1) (q n − q). Para el tercer vector
se debe tener que no puede ser combinación lineal de los dos anteriores, es decir, v3 no puede ser de
la forma v3 = a.v1 + b.v2 . Por tanto, el número de posiblidades para v3 es q n − q 2 . Continuando el
Q n
n−1
razonamiento de esta manera se encuentra que el número total de n vectores LI es q − qi .
i=0
16 CAPÍTULO 1. ESPACIOS VECTORIALES
Capı́tulo 2
Transformaciones Lineales
Introducción
El segundo capı́tulo tiene un doble propósito. Por un lado introduce las funciones que conectan los
espacios vectoriales: las transformaciones lineales, y por otro, presenta la suma directa interna de
subespacios. La representación de un espacio vectorial en suma directa de subespacios es clave para el
tratamiento de las formas canónicas del capı́tulo 6 y los aspectos geométricos de los espacios euclidianos
del capı́tulo 8.
T : V −→ W
que satisface dos condiciones:
Ejemplo 2.2. La derivación D puede entenderse como un operador lineal del espacio V de funciones
df
derivables en R en el espacio C(R): D(f ) = dx
17
18 CAPÍTULO 2. TRANSFORMACIONES LINEALES
Ejemplo 2.3. La integración puede considerarse como un operador lineal S del espacio C(R) en
C 1 (R):
Z
S(f ) = f (x)dx + C con C = 0
O : V −→ W
x 7→ O(x) = 0
IV : V −→ V
x 7→ IV (x) = x
Ejemplo 2.5. Sea a ∈ R un real fijo y R[x] el espacio de polinomios reales, entonces la función
T : R[x] −→ R
p(x) 7→ p(a)
N (T ) = {v ∈ V |T (v) = 0}.
T (A) = {T (a)|a ∈ A}
T −1 (B) = {v ∈ V |T (v) ∈ B}
Ejemplo 2.7. En el espacio V de las sucesiones reales convergentes la función T definida por
es una transformación lineal cuyo núcleo es el espacio de las sucesiones constantes y cuya imagen es el
espacio de las sucesiones de lı́mite 0.
Además, la sucesión constante 1 es una base de N (T ) y, por otro lado, las sucesiones
s1 = {1, 0, 0, . . .}
s2 = {0, 1, 0, . . .}
s3 = {0, 0, 1, . . .}
..
.
son linealmente independientes, con lo cual Im(T ) y V son espacios de dimensión infinita.
Solución: Sea V el espacio de sucesiones reales convergentes y T : V → V , T ({an }) = {a − an }.Nótese
que efectivamente T es una transformación lineal:
Vamos ahora a demostrar que su núcleo son las sucesiones contantes: sea {an } una sucesión con-
vergente de lı́mite a de tal forma que T ({an }) = {0} = {a − an }, es decir, para cada n se tiene que
a − an = 0, es decir, an = a, es decir, la sucesión dada es constante.
Finalmente, veamos que la imagen de T es el subespacio de las sucesiones de lı́mite cero: sea {bn }
una sucesión que pertenece a la imagen de T , entonces {bn } = T ({an }) = {a − an },por tanto,
bn = a − an ,luego lı́mn→∞ bn = lı́mn→∞ (a − an ) = a − a = 0. Esto prueba que la sucesión dada
es de lı́mite cero.
A continuación se presenta y se pueba uno de los teoremas básicos del álgebra lineal.
Teorema 2.1. Sea V un espacio de dimensión finita n ≥ 1 y sea T : V → W una tranformación
lineal. Entonces
Ejericicio 2.1. Demuestre que si en el enunciado del teorema anterior V es un espacio de dimensión
infinita, entonces N (T ) ó Im(T ) es de dimensión infinita, y viceversa.
Ejericicio 2.2. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sean V1 y V2 subespacios de
V tales que dim(V1 ) + dim(V2 ) = dim(V ). Demuestre que existe una transformación lineal T : V → V
tal que N (T ) = V1 e Im(T ) = V2 .
Solución: Si dim(V1 ) = 0, entonces dim(V2 ) = n y V2 = V, en tal caso la transformación T : V → V
es la idéntica. Si dim(V1 ) = n, entonces V2 = 0 y en este caso T = 0. Supóngase entonces que
0 < dim(V1 ) < n. Sea X = {x1 , . . . , xk } una base de V1 y Z = {z1 , . . . , zn−k } una base de V2 . Com-
pletamos entonces la base X hasta una base Y = {x1 , . . . , xk , y1 , . . . , yn−k } de V . La transformación
20 CAPÍTULO 2. TRANSFORMACIONES LINEALES
El siguiente teorema muestra que una transformación lineal queda completamente determinada por su
acción sobre los vectores de una base. En otras palabras, para definir una transformación lineal basta
conocer las imágenes de los vectores de una base.
Teorema 2.2. Sean V y W dos K-espacios, X una base de V y t : X → W una función. Entonces
existe una única transformación lineal T : V → W que extiende a t, es decir, T (x) = t(x), para cada
x ∈ X.
Supóngase que {x1 , . . . , xn } y {z1 , . . . , zm } tienen r elementos en común; sin perdida de generali-
dad se puede suponer que r ≤ n ≤ m, y entonces se puede expresar a u en la forma u = b1 · x1 + · · · +
br · xr + br+1 · zr+1 + · · · + bm · zm , de donde se obtiene que la representación de u + v en la base X es
De otra parte, si a ∈ K, entonces a.v = aa1 . x1 + · · · + aan . xn , con lo cual T (a.v) = aa1 . t(x1 ) + · · · +
aan .t( xn ) = a.T (v).
Finalmente, es obvio que T es una extensión de t, y cualquier transformación lineal que coincida
con t en la base X es igual a la transformación T que se definió arriba. Esto completa la prueba del
teorema.
Definición 2.3. Sea LK (V, W ) el conjunto de todas las transformaciones lineales del espacio V en el
espacio W . LK (V, W ) adquiere estructura de espacio vectorial respecto de las siguientes operaciones:
(a · T )(v) = a · T (v)
Además de las dos operaciones definidas anteriormente, se puede considerar la composición de trans-
formaciones lineales como una tercera operación.
Definición 2.5. Sea A un espacio vectorial sobre un cuerpo K, se dice que A es un álgebra sobre
K, o también que A es una K-álgebra, si en A está definido un producto entre vectores que cumple
las siguientes condiciones:
T (u) = T (v) ⇐⇒ u = v.
T se dice sobreyectiva si Im(T ) = W .
Proposición 2.1. Si T : V → W es una transformación lineal, entonces las siguientes condiciones
son equivalentes:
1. T es inyectiva.
2. N (T ) = 0.
3. Si v1 , . . . , vn son vectores LI de V ,entonces T (v1 ), . . . , T (vn ) son vectores LI de Im(T ).
4. Si X es una base de V , entonces T (X) es una base de Im(T ).
En particular, si V y W son espacios de dimensión finita n ≥ 1, entonces T es inyectiva si y sólo si
T es sobreyectiva.
Demostración: 1) =⇒ 2): Si v ∈ N (T ), entonces T (v) = 0 = T (0), con lo cual v = 0.
3) =⇒ 4): Es obvio que T (X) es LI; si w ∈ Im(T ), entonces existen escalares a1 , . . . , an y vecto-
res v1 , . . . , vn ∈ X tales que
lo cual prueba que T (X) genera a Im(T ), y por lo tanto es una base de Im(T ).
4) =⇒ 1): Sean u, v ∈ V tales que T (u) = T (v); sin pérdida de generalidad podemos suponer que
la expansión de u y v a través de la base X se realiza con los mismos vectores, es decir, existen
v1 , . . . , vn ∈ X y a1 , . . . , an , b1 , . . . , bn ∈ K tales que
pero como T (X) es LI, entonces ai = bi , para cada 1 ≤ i ≤ n. Esto garantiza que u = v.
Por las equivalencias probadas anteriormente se tiene que T es inyectiva si y sólo si dim(T (V )) = n si
y sólo si T (V ) = W si y sólo si T es sobreyectiva.
T −1 : W → V
2.4. TANSFORMACIONES LINEALES BIYECTIVAS 23
T −1 (w) = v ⇐⇒ T (v) = w
−1
donde w ∈ W y v ∈ V . Es obvio que T es también una tranformación lineal y cumple las siguientes
condiciones:
T T −1 = IW , T −1 T = IV
Nótese que T −1 es la única transformación de W en V que cumple estas identidades, y se le conoce
como la transformación inversa de T . Se ha visto que una transformación lineal biyectiva tiene
inversa, esta es única y viene caracterizada por las identidades anteriores.
Nótese que la relación “ser isomorfo” es una relación de equivalencia en la colección de todos los
K-espacios. Es también claro que la composición de dos isomorfismos es nuevamente un isomorfismo.
Un isomorfismo T de un espacio V en si mismo se denomina un automorfismo de V . La colección de
todos los automorfismos de un espacio V se denota por AutK (V ). Se tiene entonces inmediatamente
el siguiente resultado.
1. T es inyectiva
2. N (T ) = 0
3. T es sobreyectiva
4. rank(T ) = n
5. T es un automorfismo.
El siguiente teorema pone de manifiesto la importancia del concepto de isomorfismo para el caso de
los espacios vectoriales.
t:X −→ C s:C −→ X
,
xi 7−→ ei ei 7−→ xi
con 1 ≤ i ≤ n, inducen de manera única transformaciones lineales T : V → K n y S : K n → V que
coinciden con t en X y s en C, respectivamente (véase el Teorema 2 del presente capı́tulo). Las trans-
formaciones ST y T S son tales que ST (xi ) = xi y T S(ei ) = ei , para cada 1 ≤ i ≤ n. Nuevamente, por
el Teorema 2, ST = IV y T S = IK n . Esto indica que T es un isomorfismo y la prueba ha terminado.
Corolario 2.2. Dos espacios vectoriales de dimensión finita sobre un mismo cuerpo K son isomorfos
si y sólo si sus dimensiones coinciden.
24 CAPÍTULO 2. TRANSFORMACIONES LINEALES
Demostración: =⇒) Sean V y W dos K-espacios isomorfos de dimensión finita con isomorfismo
T : V → W ; si X = {x1 , . . . , xn } es una base de V entonces obviamente T (X) es una base de
W con n elementos. De acuerdo a la Proposición 7 del Capı́tulo 1, dim(W ) = n = dim(V ).
Las versiones en dimensión infinita del Teorema 2.3 y del Corolario 2.1 serán estudiadas en la próxima
lección. Cerramos esta lección con tres ejercicios.
(c) Si S es biyectiva, entonces rank (ST ) = rank (T ). Si T es biyectiva, entonces rank (ST ) =
rank (S).
Solución: (a) Para la primera parte basta tener en cuenta que Im(ST ) ⊆ Im(S). Para la segun-
da, nótese que N (T ) ⊆ N (ST ); resulta entonces que dim N (T ) ≤ dim N (ST ), y por el Teorema 1,
dim N (T ) + rank(ST ) ≤ dim N (ST ) + rank(ST ) = n, y entonces n − rank(T ) + rank(ST ) ≤ n, es
decir, rank(ST ) ≤ rank(T ).
(b) Si se prueba que dim N (ST ) ≤ dim N (S) + dim N (T ), entonces rank(ST ) = n − dim N (ST ) ≥
n − dim N (S) − dim N (T ) = n − n + rank(S) − n + rank(T ) = rank(S) + rank(T ) − n.
Para probar lo requerido recuérdese que dim N (T ) ≤ dim N (ST ). Sea q = dim N (T ) y sea {v1 , . . . , vq }
una base de N (T ). Sea q+p = dim N (ST ), p ≥ 0. Podemos completar la base anterior hasta una base de
N (ST ) : {v1 , . . . , vq , vq+1 , . . . , vq+p }. Nótese que los vectores T (vq+1 ), . . . , T (vq+p ) son LI y pertenecen
al núcleo de S, por lo tanto, p ≤ dim N (S) y se tiene que dim N (ST ) = p + q ≤ dim N (S) + dim N (T ).
Ejericicio 2.4. Sea R[x] el espacio de los polinomios reales y sea T definida por
T : R[x] −→ R[x]
p(x) = a0 + a1 x + · · · + an xn 7→ a0 + a1 x2 + · · · + an x2n
Probar que T es una transformación lineal inyectiva pero no es sobreyectiva (Este ejemplo ilustra que
el Corolario 1 no es válido en dimensión infinita).
T : Rn [x] −→ Rm
p(x) 7→ (p(α1 ), · · · , p(αm ))
Demuestre que T es una transformación lineal. Calcule dim N (T ) y rank(T ). ¿En que caso T es
inyectiva, en que caso T es sobreyectiva?
2.5. PRODUCTO Y SUMA DIRECTA DE ESPACIOS VECTORIALES 25
y sea θ ∈ R, entonces:
T [θp(x)] = T [(θp)(x)]
= ((θp)(α1 ), (θp)(α2 ), ..., (θp)(αm ))
= (θp(α1 ), θp(α2 ), ..., θp(αm ))
= θ(p(α1 ), p(α2 ), ..., p(αm ))
= θT [p(x)]
Para la segunda parte del ejercicio, consideremos dos situaciones por separado.
a) n ≥ m: el N (T ) está conformado por los polinomios que tienen como raı́ces a α1 , α2 , ldots, αm .
Si p(x) ∈ N (T ), entonces p(x) = (x − α1 )(x − α2 ) · · · (x − αm )q(x) donde q(x) ∈ Rn−m [x]. Nótese que
en este caso una base del núcleo es {(x − α1 )(x − α2 )...(x − αm ), (x − α1 )(x − α2 )...(x − αm )x, . . . , (x −
α1 )(x − α2 )...(x − αm )xn−m } y la dim N (T ) = n − m + 1 ≥ 1.
b) n < m: en este caso el único polinomio del núcleo es el cero y T es inyectiva. En consecuen-
cia, rank(T ) = n + 1. Si m = n + 1 entonces T es sobre y por tanto biyectiva. Si m > n + 1, entonces
T no es sobreyectiva.
Vr = {(v1 , . . . , vr )|vi ∈ Vi , 1 ≤ i ≤ r}
26 CAPÍTULO 2. TRANSFORMACIONES LINEALES
Qr
El conjunto V1 × · · · × Vr , denotado también por i=i Vi , tiene una estructura natural de espacio
vectorial bajo las siguientes operaciones:
Asociadas al espacio producto se tienen transformaciones lineales conocidas como las proyecciones
e inyecciones canónicas. Por cada 1 ≤ i ≤ r se tiene una proyección canónica definida por
Qr
πi : i=1 Vi −→ Vi
(v1 , . . . , vr ) 7−→ vi
Es obvio que πi es una transformación lineal sobreyectiva. Las inyecciones canónicas se definen
por:
Qr
µi : Vi −→ i=1 Vi
vi 7−→ (0, . . . , vi , . . . , 0)
Las inyecciones son transformaciones lineales inyectivas. Las proyecciones e inyecciones satisfacen las
siguientes propiedades interesantes:
Im(πi ) = Vi , Im(µi ) ∼
= Vi , 1≤i≤r
IVi si j = i
πj µi =
0 6 i
si j =
r
X
µi πi = IV1 ×···×Vr
i=1
La construcción descrita en las lı́neas anteriores puede ser generalizada al caso de una familia infinita
de espacios vectoriales.
Definición 2.8. Sea {Vi }i∈I una familia de espacios vectoriales sobre un cuerpo K, el producto
S car-
tesiano de dicha familia se define como el conjunto de todas las funciones de I en la reunión i∈I Vi ,
tales que f (i) ∈ Vi , para cada i ∈ I, es decir,
( )
Y [
Vi = f : I → Vi f (i) ∈ Vi para cada i ∈ I .
i∈I i∈I
Q
entonces cada elemento f ∈
Si se escribe f (i) = fi , Q i∈I Vi se puede representar en la forma
f = (fi )i∈I . El producto i∈I Vi adquiere estructura de espacio vectorial respecto de las siguientes
operaciones:
donde
v si i = j
fi =
0 6 j
si i =
Q
En el espacio producto i∈I Vi se destaca como subespacio L el conjunto de elementos f = (fi ) con
fi = 0 para casi todo i ∈ I; este subespacio se denota Q
por i∈I Vi y puede definirse más exactamente
de la siguiente forma: sea f = (fi ) un elemento de i∈I Vi , el soporte Sf de f se define como el
subconjunto de elementos i ∈ I tales que fi 6= 0 (para el elemento 0 el soporte es vacı́o). Ası́ pues,
( )
M Y
Vi = f = (fi ) ∈
Vi Sf es finito .
i∈I i∈I
L Q
Nótese que efectivamente i∈I Vi es un subespacioLde i∈I VQi , y se conoce como la suma directa
externa de la familia {Vi }i∈I . Cuando I es finito, i∈I Vi = i∈I Vi .
Un caso particular de las construcciones anteriores se obtiene cuando todos los espaciosQVi de la fami-
lia dada coinciden y son iguales a K 1 = K, en tal caso se usa la siguiente notación: i∈I Vi = K I ,
L (I)
i∈I Vi = K . Si I es finito de tamaño n, entonces claramente K I = K (I) = K n .
t : X −→ C s:C −→ X
,
x 7−→ ex ex 7−→ x
inducen de manera única transformaciones lineales T : V → K (X) y S : K (X) → V que coinciden con
t en X y s en C, respectivamente (véase el Teorema 2 del presente capı́tulo). Las transformaciones
ST y T S son tales que ST (x) = x y T S(ex ) = ex , para cada x ∈ X. Nuevamente, por el Teorema 2,
ST = IV y T S = IK (X) . Esto indica que T es un isomorfismo y la prueba ha terminado.
Corolario 2.3. Dos espacios vectoriales sobre un mismo cuerpo K son isomorfos si y sólo si sus
dimensiones coinciden.
Demostración: Sean V y W dos K-espacios isomorfos con isomorfismo T : V → W , y sea X una base
de V , entonces T (X) es una base de W que tiene la misma cardinalidad de X. En consecuencia V y
W tienen la misma dimension.
y coincide, por lo tanto, con el menor subespacio de V que contiene a cada uno de los subespacios
V1 , . . . , Vn . Es obvio que el subespacio suma se puede caracterizar también de la siguiente manera:
( n )
X
V1 + · · · + Vn = vi vi ∈ Vi , 1 ≤ i ≤ n .
i=1
La suma de una colección arbitraria de subespacios del espacio V se define de forma análoga, pero no
se hará uso de ella en este curso. Se menciona a continuación una lista amplia de propiedades de las
operaciones de suma e intersección de subespacios, cuyas demostraciones no son difı́ciles:
Además de lo anterior, se tienen las siguientes relaciones entre las dimensiones de los subespacios suma
e intersección.
Proposición 2.3. Sea V un espacio vectorial y V1 , . . . , Vn subespacios de V de dimensión finita.
Entonces
i) dim(V1 ∩ · · · ∩ Vn ) ≤ dim(Vi ), para cada 1 ≤ i ≤ n
ii) dim(V1 + · · · + Vn ) ≥ dim(Vi ), para cada 1 ≤ i ≤ n
iii) dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 )
iv) dim(V1 + · · · + Vn ) ≤ dim(V1 ) + · · · + dim(Vn ).
Además, si V es de dimensión finita n y U es un subespacio de V , entonces existe un subespacio U 0
tal que
U + U 0 = V, U 0 ∩ U = 0, dim(U 0 ) + dim(U ) = n.
U 0 se denomina el complemento de U en V .
Ejemplo 2.8. Sean X1 , X2 sunconjuntos de un espacio V , y sean V1 = hX1 i, V2 = hX2 i. Puesto que
V1 + V2 = hV1 ∪ V2 i = hhX1 i ∪ hX2 ii = hX1 ∪ X2 i, entonces una base de hX1 ∪ X2 i es una base
para V1 + V2 . Se quiere ahora mostrar como se consigue una base para V1 ∩ V2 . Si V1 = 0 ó V2 = 0,
entonces V1 ∩ V2 = 0 y ∅ es una base para la intersección. Sea entonces X = {x1 , . . . , xk } una base
de V1 y Y = {y1 , . . . , ym } una base de V2 ; si V1 ∩ V2 = 0, entonces ∅ es una base para la intersección.
2.6. SUMA DIRECTA INTERNA DE SUBESPACIOS 29
Sn
b) ⇒ a) : Puesto que i=1 Xi es una base de V , entonces
* n + * n +
[ [
V = Xi = Vi = V1 + · · · + Vn .
i=1 i=1
Sea ahora 0 = v1 + · · · + vn , con vi ∈ Vi , entonces se puede representar cada vi como combinación
Sn lineal
de los vectores de Xi de tal forma que se obtiene una combinación lineal de vectores de i=1 Xi ; tenien-
do en cuenta que Xi ∩Xj = ∅ para cada i 6= j, entonces Snen esta última representación no hay sumandos
repetidos, lo cual, combinado con la hipótesis de que i=1 Xi es una base para V se obtiene que todos
los sumandos en tal representación son nulos, es decir, cada vi es nulo. Esto completa la prueba de a).
Ejemplo 2.9. Sea V un espacio de dimensión 3 con una base X = {x1 , x2 , x3 }, y sean V1 =
hx1 , x2 i, V2 = hx1 , x3 i subespacios de V . Nótese que V = V1 + V2 pero la suma no es directa ya
que {x1 , x2 } ∩ {x1 , x3 } =
6 ∅.
Corolario 2.4. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sean V1 , . . . , Vm subespacios de
V tales que V = V1 +· · ·+Vm . Entonces, V = V1 ⊕· · ·⊕Vm si y sólo si dim(V ) = dim(V1 )+· · ·+dim(Vm ).
Demostración: ⇒) : Esta parte es consecuencia directa de la Proposición 5 que se probó atrás.
2.7. Ejercicios
Esta sección contiene una lista de ejercicios de aplicación a los temas tratados en el presente capı́tulo.
Se sugiere a los estudiantes resolver estos problemas, los cuales ayudarán a reforzar el aprendizaje.
Sea esta la oportunidad para ratificar la disponibilidad de los profesores para resolver cualquier duda
sobre la matemática del presente curso. Sus preguntas y comentarios pueden ser enviados via e-mail o
también usando la página de visitantes en donde podrán usar un formato especialmente diseñado para
tal efecto.
1. Investigar la veracidad de la siguiente afirmación: sea T : V −→ W una transformación lineal
y sean {x1 , . . . , xn }, {y1 , . . . , ym } sistemas equivalentes de vectores (ver el Capı́tulo 1). Entonces
{T (x1 ), . . . , T (xn )}, {T (y1 ), . . . , T (ym )} son sistemas equivalentes de vectores.
2. En relación con el Teorema 2, investigar la veracidad de la siguiente afirmación: sean V, W dos
K-espacios y sean {x1 , . . . , xn }, {y1 , . . . , yn } sistemas de vectores en V y W , respectivamente.
Existe una transformación lineal de V en W tal que T (xi ) = yi , para cada i = 1, 2, . . . , n.
3. En el espacio real Rn [x] de polinomios de grado ≤ n (ver el Ejemplo 15 del Capı́tulo 1) definir dos
transformaciones lineales diferentes que coincidan con el operador de derivación en el subespacio
Rn−1 [x].
2.7. EJERCICIOS 31
4. Sea h un real no nulo y sea Th la función definida sobre el espacio Rn [x] de la siguiente manera:
p(x + h) − p(x)
Th (p(x)) =
h
Demostrar que Th es una transformación lineal. Calcular su núcleo y su imagen. Calcular la
dimensión de estos subespacios.
10. Sea V un K-espacio vectorial, T una transformación lineal de V y p(x) un polinomio que se anula
en T , es decir, la transformación lineal polinómica p(T ) es nula. Si el término independiente p0
de p(x) es no nulo, entonces T es invertible.
11. Mostrar un ejemplo de transformación lineal que sea inyectiva pero no sobreyectiva. También,
mostrar un ejemplo de transformación lineal no nula que sea sobreyectiva pero no inyectiva.
(i) v = v 0 ⇐⇒ v − v 0 ∈ U
(ii) V /U es un K-espacio vectorial respecto de las siguientes operaciones:
v1 + v2 = v1 + v2
a·v =a·v
13. Demostrar el teorema de homomorfismo para espacios vectoriales: sea T : V → W una transfor-
mación lineal. Entonces se tiene el siguiente isomorfismo de espacios vectoriales:
V /N (T ) ∼
= Im(T ).
14. Sea V un espacio vectorial de dimensión finita y V1 , V2 subespacios de V . Demostrar que dim (V1 + V2 ) =
dim (V1 ) + dim (V2 ) − dim (V1 ∩ V2 ).
16. Dar un ejemplo de transformación que sea inyectiva pero no sobreyectiva y también de una
transformación que sea sobreyectiva pero no inyectiva.
32 CAPÍTULO 2. TRANSFORMACIONES LINEALES
17. Sea V un K-espacio vectorial. Una involución de V es una transformación lineal T : V → V tal
que T 2 = IV . Si 2 6= 0 en K y T es una involución, entonces demostrar que V = V1 ⊕ V2 donde
V1 = {x ∈ V | T (x) = x} y V2 = {x ∈ V | T (x) = −x}.
18. Sea V un espacio vectorial de dimensión finita. Demostrar que existe un endomorfismo T : V → V
tal que N (T ) = Im(T ) ⇔ dim(V ) es par.
19. Sea T : V → V una transformación lineal tal que T k = 0 para algún entero positivo k. Si
T k−1 (v) 6= 0 para un cierto vector no nulo v ∈ V , entonces el conjunto v, T (v) , T 2 (v) , ..., T k−1 (v)
es LI.
20. Sea
f1 f2 f2n−1 f2n
V1 −→ V2 −→ V3 ··· −−−−→ V2n −−→ V1
una secuencia de transformaciones lineales entre espacios vectoriales de dimensión finita tal que la
imagen de cada transformación coincide con el núcleo de la siguiente, es decir, Im(fi ) = N (fi+1 ),
1 ≤ i ≤ 2n − 1 y Im(f2n ) = N (f1 ). Demostrar que dim (V1 ) − dim (V2 ) + dim (V3 ) − dim (V4 ) +
· · · + dim (V2n−1 ) − dim (V2n ) = 0.
21. Sea T : V −→ V una transformación lineal tal que T 2 = T . Demostrar que V = ker(T ) ⊕ Im(T ).
Capı́tulo 3
Matrices
Introducción
Las matrices pueden ser consideradas como un lenguaje algorı́tmico apropiado para estudiar trans-
formaciones lineales entre espacios de dimensión finita. El capı́tulo 3 está dedicado a introducir este
lenguaje. El problema de equivalencia y similaridad de matrices es también planteado.
Definición 3.1. Sea K un cuerpo y m, n enteros ≥ 1, una matriz A sobre K de orden (=tamaño)
m × n es una tabla de m filas y n columnas cuyas entradas pertenecen a K :
a11 · · · a1n
a21 · · · a2n
A= . .. ..
.. . .
am1 · · · amn
Los elementos a11 , . . . , amn ∈ K, y se conocen como las entradas de la matriz A; el elemento de A
ubicado en la intersección de la i-ésima fila y la j-ésima columna se denota por aij . La matriz A se
denota brevemente por A = [aij ]. La i-ésima fila de A se denota por A(i) = [ai1 , . . . , ain ] y puede
considerarse como un vector de K n , la j-ésima columna de A se representa por
a1j
A(j) = ...
amj
m
y puede considerarse como un vector de K . Dos matrices A = [aij ] y B = [bij ], del mismo tamaño,
son iguales si y sólo si aij = bij , para cada 1 ≤ i ≤ m, 1 ≤ j ≤ n. Una matriz A se dice que es
cuadrada si el número de filas coincide con el número de columnas, es decir, m = n. Una matriz fila
es una matriz de una sola fila, una matriz columna es una matriz con una sola columna. El conjunto
de matrices sobre K de tamaño m × n se denota por Mmn (K), para el conjunto de matrices cuadradas
de tamaño n × n se utiliza la notación Mn (K).
33
34 CAPÍTULO 3. MATRICES
Se puede ya enunciar el primer hecho sobresaliente relacionado con los arreglos matriciales definidos
arriba.
Proposición 3.1. Sea K un cuerpo y Mmn (K) el conjunto de matrices de tamaño m × n sobre
K. Entonces, Mmn (K) es un espacio vectorial sobre K de dimensión mn, respecto de las siguientes
operaciones:
{Ers }, 1 ≤ r ≤ m, 1 ≤ s ≤ n,
..
0 . 0
..
0 . 0
Ers = ,
··· 1 ···
..
0 . 0
donde Ers es una matriz con una sola entrada no nula, la entrada correspondiente a la intersección de
la r-ésima fila y la s-ésima columna, donde aparece el escalar 1.
Esta proposición es válida para todos los enteros positivos m y n, en particular, se cumple para m = n,
es decir, para las matrices cuadradas. De esta forma se generaliza el Ejemplo 12 del Capı́tulo 1. De otra
parte, de acuerdo al Teorema 3 del capı́tulo anterior, Mmn (K) ∼ = K mn , M1n (K) ∼ = K n , Mm1 (K) ∼
=
K m.
Además de la suma de matrices y el producto de escalar por matriz definidos arriba, es posible realizar
productos entre matrices que cumplan una condición de compatibilidad: el número de columnas
del primer factor debe coincidir con el número de filas del segundo factor. De este producto se ocupa
el resto de la presente lección.
Definición 3.2. Sean A = [aij ], B = [bij ] matrices de tamaños m × n y n × p, respectivamente. Se
define el producto de A y B, en ese orden, como la matriz
AB = E = BA.
De la discusión anterior se obtiene de manera inmediata la siguiente afirmación.
Proposición 3.3. Sea K un cuerpo y Mn (K) el conjunto de matrices de tamaño n × n sobre K.
Entonces, Mn (K) es un álgebra sobre K.
Ejericicio 3.1. Sea {Ers } la base canónica de Mn (K). Demuestre que
Ers si i = j
Eri Ejs =
0 si i 6= j.
Teorema 3.1. Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m ≥ 1,
respectivamente. Entonces, LK (V, W ) ∼
= Mmn (K).
Demostración: Paso 1: Matriz de una transformación lineal. La idea es definir una función
Paso 2: Transformación lineal definida por una matriz. Resta probar que mX,Y es sobreyecti-
va. Para esto se asocia a cada matriz A = [aij ] ∈ Mmn (K) una transformación lineal T ∈ LK (V, W )
de tal forma que mX,Y (T ) = A. La transformación T se define de la siguiente manera: consideremos
la función
t:X −→ W
vj 7−→ a1j · w1 + · · · + amj · wm
donde 1 ≤ j ≤ n. Según el Teorema 2 del Capı́tulo 2, la función t se extiende de manera única a una
transformación lineal T , definida de la siguiente manera: si v = x1 · v1 + · · · + xn · vn , entonces
ci = ai1 · x1 + · · · + ain · xn , 1 ≤ i ≤ m.
Es obvio que mX,Y (T ) = A. Esto completa la prueba del teorema.
Una observación final antes de terminar: si se identifica a (x1 , . . . , xn ) como el vector de coor-
denadas de v en la base X y a (c1 , . . . , cm ) como el vector de coordenadas de T (v) en la base Y ,
entonces la transformación T se puede expresar matricialmente de la siguiente manera:
c1 a11 · · · a1n x1
.. .. .. .. .. .
. = . . . .
cm am1 ··· amn xn
Corolario 3.1. Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m ≥ 1,
respectivamente. Entonces, dim(LK (V, W )) = mn.
3.3. RANGO DE UNA MATRIZ 37
De la demostración del Teorema 3.1 se deduce que la matriz asociada a la transformación lineal nula
es la matriz nula; además, si V = W , entonces la matriz asociada a la transformación lineal idéntica
de V es la matriz idéntica. Otra consecuencia inmediata de la prueba del Teorema 3.1 es la siguiente
proposición.
Se debe notar que un álgebra es un espacio vectorial con estructura de anillo, de tal forma que se
pueden considerar los grupos de elementos invertibles de las álgebras LK (V ) y Mn (K); estos grupos se
denotan por GLK (V ) y GLn (K), y se conocen como el grupo lineal general de automorfismos del
espacio V y el grupo lineal general de orden n sobre K, respectivamente. Nótese que GLK (V )
es el grupo de automorfismos definido en Proposición 2 del Capı́tulo 2. Se tiene entonces el siguiente
resultado.
Corolario 3.2. Si V es un K-espacio vectorial de dimensión finita n ≥ 1, entonces GLK (V ) y GLn (K)
son grupos isomorfos, con isomorfismo definido por la restricción de la función mX del Teorema 3.2
al grupo GLK (V ). En particular, T ∈ GLK (V ) ⇔ mX (T ) ∈ GLn (K), donde X es cualquier base de
V.
Definición 3.4. Sea A = [aij ] una matriz de tamaño m × n, cada columna A(j) de A se puede
considerar como un vector de K m , de tal forma que el rango de A se define como la dimensión de la
envolvente lineal de las columnas de A, es decir,
Demostración: Sea X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }, puesto que Im(T ) = hT (v1 ), . . . , T (vn )i,
entonces rank(T ) coincide con el máximo número de vectores linealmente independientes del conjunto
{T (v1 ), . . . , T (vn )}. Sea p = rank(T ), 0 ≤ p ≤ min{m, n}, si p = 0 entonces T = 0, y en consecuencia
A = 0, de donde, rank(A) = 0. Sea p ≥ 1 y {T (vj1 ), . . . , T (vjp )} una base de Im(T ). La idea es probar
que las columnas A(j1 ) , . . . , A(jp ) son LI y que p es el máximo número de columnas LI de la matriz A.
Sean c1 , . . . , cp ∈ K tales que c1 · A(j1 ) + · · · + cp · A(jp ) = 0, entonces
c1 a1j1 + · · · + cp a1jp = 0
..
.
c1 amj1 + · · · + cp amjp = 0
Por otro lado,
c1 · T (vj1 ) + · · · + cp · T (vjp ) =
(c1 a1j1 · w1 + · · · + c1 amj1 · wm ) + · · · + (cp a1jp · w1 + · · · + cp amjp · wm ) =
(c1 a1j1 + · · · + cp a1jp ) · w1 + · · · + (c1 amj1 + · · · + cp amjp ) · wm =
0 · w1 + · · · + 0 · wm = 0
de donde, por la independencia lineal de los vectores T (vj1 ), . . . , T (vjp ), se tiene que c1 = · · · = cp = 0.
Se ha probado que las columnas A(j1 ) , . . . , A(jp ) son LI. Al suponer que A tiene q > p columnas LI,
entonces, realizando la misma prueba anterior en orden inverso, Im(T ) tendrı́a q > p vectores LI, en
contradicción con p = rank(T ).
Sea A una matriz cuadrada de orden n ≥ 1, según el paso 2 de la demostración del Teorema 1, se
puede suponer que A es la matriz de una transformación lineal T ∈ LK (K n ) en una cierta base X
de K n , por ejemplo, en la base canónica de K n . Aplicando la proposición anterior, el Teorema 2, el
Corolario 2 y Ejercicio 3 del Capı́tulo 2, se obtiene el siguiente corolario.
Solución: Si la función t actúa sobre una base, entonces de acuerdo al Teorema 2 del Capı́tulo 2, t induce
una única transformación lineal T . Pero efectivamente {e1, e2 + e3, e1 + e2 + e3} es una base de R3 ,
lo cual se puede verificar observando que estos tres vectores son LI. Entonces para la transformación
lineal T se tiene que:
Pero como T es lineal se puede hacer lo siguiente: T (e1 + e2 + e3 ) − T (e2 + e3 ) = (3.e1 − 3.e2 + e3 ) −
(3.e1 − 3.e2 ) = e3 , es decir, T (e1 ) = e3 .
d d
a) dx (e2x sin(3x)) = 2e2x sin 3x + 3e2x cos 3x ∈ U, dx (e2x cos(3x)) : 2e2x cos 3x − 3e2x sin 3x ∈ U ,
esto demuestra que D(U ) ⊆ U .
b) Sean a, b reales tales que ae2x sen(3x) + be2x cos(3x) = 0, entonces haciendo x = 0 resulta b = 0 y
tomando x = π2 resulta a = 0.
c)
2
2 −3 2 −3 −5 −12
mX (D) = , mX (D2 ) = =
3 2 3 2 12 −5
d)
2 −3
rank(D) = rank = 2.
3 2
Además,
−5 −12
rank(D2 ) = rank = 2.
12 −5
Demostración: De acuerdo al Corolario 3, basta probar que el rango de C es n, es decir, que las
columnas de C son LI. Sean a1 , . . . , an ∈ K tales que a1 .C (1) + · · · + an .C (n) = 0, se tienen entonces
las relaciones
a1 .c11 + · · · + an .c1n = 0
..
.
a1 .cn1 + · · · + an .cnn = 0.
Considérese ahora la combinación lineal
a1 .z1 + · · · + an .zn = a1 .(c11 .v1 + · · · + cn1 .vn ) + · · · + an .(c1n .v1 + · · · + cnn .vn ) =
(a1 .c11 + · · · + an .c1n ).v1 + · · · + (a1 .cn1 + · · · + an .cnn ).vn = 0,
zj = c1j .(d11 .z1 + · · · + dn1 .zn ) + · · · + cnj .(d1n .z1 + · · · + dnn .zn ) =
(d11 c1j + · · · + d1n cnj ).z1 + · · · + (dn1 c1j + · · · + dnn cnj ).zn ,
para cada 1 ≤ j ≤ n, es decir, (di1 c1j + · · · + din cnj ) = 0 si i 6= j y (di1 c1j + · · · + din cnj ) = 1 si i = j.
En otras palabras, DC = E (véase el producto de matrices definido en la primera lección del presente
capı́tulo). Remplazando (3.1) en (3.2) se obtiene que CD = E. Esto completa la demostración de la
proposición.
Como cierre de la prueba se debe hacer la siguiente observación: si (x1 , . . . , xn ) es el vector de coor-
denadas del vector v ∈ V en la base X y (u1 , . . . , un ) es el vector de coordenadas de v en la base Z,
entonces
u1 d11 ··· d1n x1
.. .. .. .. ..
. = . . . .
un dn1 ··· dnn xn
B = D−1 AC,
donde C es la matriz de cambio de la base X1 a la base X2 y D es la matriz de cambio de la base Y1
a la base Y2 .
Demostración: De las definiciones de las matrices A, B, C y D se tienen las siguientes relaciones:
m
X
T (vj ) = akj .wk
k=1
m
X
T (xj ) = bkj .zk
k=1
Xn
xj = ckj .vk
k=1
m
X
zj = dkj .wk
k=1
Entonces,
n n
" m
#
X X X
T (xj ) = ckj .T (vk ) = ckj . ark .wr ;
k=1 k=1 r=1
m
"m #
X X
T (xj ) = bkj . drk .wr ,
k=1 r=1
de donde,
m
" n # m
"m #
X X X X
ark ckj .wr = drk bkj .wr , 1≤j≤n
r=1 k=1 r=1 k=1
n
X m
X
ark ckj = drk bkj , 1 ≤ j ≤ n, 1 ≤ r ≤ m,
k=1 k=1
B = C −1 AC,
donde donde C es la matriz de cambio de la base X a la base Y .
Si el lector conoce una manera de calcular la inversa de una matriz, entonces puede emprender ya la
solución de los siguientes ejercicios, en caso contrario debe pasar a la Lección 6.
T : R2 [x] −→ R2 [x]
una transformación lineal definida por la matriz
0 0 1
0 1 0
1 0 0
en la base canónica X de R2 [x]. Calcular la matriz de T en la base Y = {3x2 + 2x, 5x2 + 3x + 1, 7x2 +
5x + 3}.
Solución: Basta aplicar el Corolario 3. Sea X la base canónica de R2 [x] y sea Y la base dada. Debemos
entonces calcular la matriz de cambio C de la base X a la base Y y también calcular su inversa:
0 1 3 −1 2 −1
C= 2 3 5 , C −1 = 41 − 94 3
2
1 3
3 5 7 4 4 − 12
Ahora basta calcular mY (T ) = C −1 AC, donde A es la matriz dada. Este producto da:
1 0 0
C −1 AC = − 15
4 −4 −5
9
4 3 4
t(a0 + a1 x + a2 x2 + a3 x3 ) = a0 + a1 x + a2 x2
s(x2 + x3 ) = x + x3
s(x + x3 ) = 1 + x3
s(1 + x3 ) = 1 + x + x2 + x3
s(1 + x + x2 + x3 ) = 0.
b) Calcular las matrices de las transformaciones ST y T S en las mismas bases de la parte a).
B = DAC.
Para las matrices cuadradas, además del concepto de equivalencia, se tiene otro de mayor uso como
es el de similaridad: sean A y B matrices de orden n, se dice que A es similar a B, lo cual se denota
por A ≈ B, si existe una matriz invertible C de orden n tal que
B = C −1 AC.
Para las matrices cuadradas similaridad implica equivalencia, pero no necesariamente se da el recı́proco.
Es claro que ∼ define una relación de equivalencia en el espacio Mmn (K) y ≈ define una relación de
equivalencia en el álgebra Mn (K), por lo tanto, estos conjuntos quedan particionados en clases de
equivalencia.
Proposición 3.8. Dos matrices A, B ∈ Mmn (K) son equivalentes si y sólo si representan la misma
transformación lineal.
mX2 ,Y2 (T1 ) = D−1 mX1 ,Y1 (T1 )C = D−1 AC = B = mX2 ,Y2 (T2 ),
pero como mX2 ,Y2 es una función inyectiva (por ser un isomorfismo, Teorema 1), entonces T1 = T2 .
Del Corolario 3 y a partir de que similaridad implica equivalencia, se tiene inmediatamente el siguiente
resultado.
Proposición 3.10. Sea A ∈ Mmn (K). rank(A) = r si y sólo si A es equivalente a una matriz de la
forma
E 0
, (3.3)
0 0
⇐) Si A es equivalente a una matriz de la forma (3.3), entonces A y (3.3) representan la misma trans-
formación lineal, de donde, rank(A) coincide con el rango de la matriz de (3.3), es decir, rank(A) = r.
Es conveniente anotar que la proposición anterior no es válida en general para similaridad. En efecto,
si A es una matriz cuadrada de rango r, entonces A no es necesariamente similar a una matriz de la
forma descrita en la proposición. Por ejemplo, la matriz
0 0
A=
1 0
tiene rango 1, sin embargo no existe una matriz invertible C tal que
−1 1 0
C AC = .
0 0
Corolario 3.5. Dos matrices A y B de Mmn (K) son equivalentes si y sólo si tienen el mismo rango.
El corolario anterior no se tiene para la relación de similaridad, es decir, dos matrices cuadradas
pueden tener el mismo rango y no ser similares. El mismo contraejemplo mostrado arriba sirve en este
caso.
Corolario 3.6. La relación ∼ determina una partición del espacio Mmn (K) en t = mı́n{m, n} + 1
clases de equivalencia.
Demostración: El número t de clases de equivalencia está determinado por los posibles valores para el
rango de una matriz de Mmn (K) (véase el Corolario 4). Estos posibles valores son: {0, 1, 2, . . . , mı́n{m, n}},
es decir, t = mı́n{m, n} + 1.
Corolario 3.7. Sea A ∈ Mmn (K). Entonces, rank(AT ) = rank(A). En otras palabras, el rango de
una matriz coincide con el máximo número de filas LI.
es decir, Pij intercambia las filas i y j de la matriz idéntica. Los ı́ndices i, j son cualesquiera, el
caso i = j corresponde a la matriz idéntica.
c) Diagonales: son matrices cuadradas de orden n de la forma
1 ··· ··· ··· 0
..
0 . ··· ··· 0
.. .. .. ..
Di (a) = E − Eii + a.Eii = E + (a − 1)Eii = . . a . . ,
.. .. .. .. ..
. . . . .
0 ··· ··· ··· 1
donde a ∈ K − {0}, 1 ≤ i ≤ n, es decir, Di (a) coincide con la matriz idéntica salvo en la entrada
(i, i) en la cual aparece ubicado el elemento a. Si a = 1, entonces Di (a) = E.
46 CAPÍTULO 3. MATRICES
a) Tij (a) A implica sumar a la i-ésima fila de A su j-ésima fila multiplicada por a. De otra parte,
ATij (a) indica sumar a la j-ésima columna de A la i-ésima multiplicada por a.
Teorema 3.4. Toda matriz invertible se puede factorizar como un producto finito de matrices elemen-
tales.
n = 2 : Sea
a11 a12
A=
a21 a22
una matriz invertible. a11 y a12 no pueden ser simultáneamente nulos debido a que el rango de A es
dos (véase el Corolario 3 del Capı́tulo 3). Considérense pues dos casos. Si a11 6= 0, entonces
1 b12
AD1 (a−111 ) = = B,
b21 b22
y
1 c12
T21 (−b21 )B = = C.
0 c22
También,
1 0
CT12 (−c12 ) = = F.
0 f22
En total, F = T21 (−b21 )AD1 (a−111 )T12 (−c12 ), de donde A se puede despejar como un producto de
transvecciones y diagonales. Nótese que F es invertible ya que es producto de invertibles.
Si a12 6= 0 entonces se puede reducir esta situación a la anterior multiplicando la matriz A a la derecha
por la permutación P12 , y entonces A nuevamente se puede expresar como un producto de elementales.
La prueba del caso n = 2 está completa.
Supóngase que el teorema ha sido probado para matrices de tamaño n × n y sea A una matriz de
tamaño (n + 1) × (n + 1). No es posible que todos los elementos de la primera fila de A sean nulos; al
igual que en el caso n = 2 se puede desde ya asumir que a11 6= 0. La matriz
3.6. MATRICES INVERTIBLES 47
B = AD1 (a−1
11 )
es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por transvecciones adecuadas hasta
obtener una matriz invertible C de la forma
1 0
C= ,
0 A0
donde A0 es una matriz de orden n. Puesto que C es invertible, entonces el rango de A0 es n, es decir,
A0 es invertible. Por inducción, A0 se puede factorizar en un producto de matrices elementales de
orden n : A0 = F1 · · · Ft . La matriz C se puede entonces escribir en la forma:
1 0 1 0 1 0
C= = ··· .
0 F1 · · · Ft 0 F1 0 Ft
Corolario 3.8. Sean A, B ∈ Mmn (K). Entonces, A ∼ B si y sólo si B se obtiene relizando operaciones
elementales sobre las filas y/o columnas de A.
El Teorema 4 justifica plenamente el algoritmo para determinar la inversa de una matriz A mediante
la realización de operaciones elementales sobre sus filas y columnas. En efecto, sea A−1 la inversa de la
matriz A, entonces A−1 se puede expresar como un producto de matrices elementales, A−1 = F1 · · · Ft .
Entonces, A−1 A = E = F1 · · · Ft A, pero cada matriz elemental representa una operación elemental
sobre las filas de A, entonces, realizando estas mismas operaciones sobre las filas de E obtenemos A−1 ,
es decir, F1 · · · Ft E = A−1 (La relación AA−1 = E indica que el trabajo se puede hacer también por
columnas). De acuerdo a lo anterior, se puede construir la matriz ampliada
A | E
y realizar operaciones elementales sobre sus filas hasta obtener la idéntica en la parte izquierda, en la
parte derecha aparecerá precisamente la inversa de A.
El resultado del Teorema 4 combinado con el Corolario 3 y el Corolario 6 puede también ser usa-
do para calcular el rango de una matriz, o lo que es lo mismo, el rango de un sistema finito de vectores
de K m . En efecto, realizando operaciones elementales sobre las filas y o columnas de una matriz es
posible reducirla a otra en la cual se pueda determinar por simple inspección cual es su rango.
Ejericicio 3.6. Expresar la matriz A como producto de matrices elementales; calcule además la inversa
de A:
2 −1 1 −1
−5 −3 1 1
A=
2
.
3 −1 0
−3 −1 0 1
Ejericicio 3.7. Determine el rango del siguiente sistema de vectores: x1 = {1, 1, 1, 1}, x2 = {1, 1, −1, −1}, x3 =
{1, −1, 1, −1}.
48 CAPÍTULO 3. MATRICES
3.7. Ejercicios
Esta sección contiene una lista de ejercicios de aplicación a los temas tratados en el presente capı́tulo.
Se sugiere a los estudiantes resolver estos problemas, los cuales ayudarán a reforzar el aprendizaje.
2. Una matriz cuadrada diagonal se dice escalar si todos los elementos de su diagonal son iguales.
Demostrar que si A ∈ Mn (K) conmuta con todas las matrices de Mn (K), entonces A es escalar.
3. Sean A, B matrices rectangulares de tamaño m × n y p × q, respectivamente. El producto
Kronecker de las matrices A y B es una matriz de tamaño mp × nq y se define por
a11 B ··· a1n B
.. .. ..
A×B = . . .
am1 B ··· amn B
b) (A + B) × C = A × C + B × C
c) A × (B + C) = A × B + A × C
11. Sea V = R4 y sea U = h(1, 1, 1, 1) , (3, 2, 0, 3) , (0, −1, 0, 3)i. Encontrar una base para U y exten-
derla a una base de V . Además, sea V = C4 y sea
12. Sea V el espacio vectorial real de todas las funciones de la forma f (x) = a cos(x) + b sin(x) y
2
consideremos las transformaciones
lineales A : V → V y B : V → V dadas por A(f ) = ddxf2 − 5f
y B(f )(x) = f x + π2 . Encontrar la matriz de A y de B en la base {cos(x), sin(x)}.
50 CAPÍTULO 3. MATRICES
Capı́tulo 4
Determinantes
Introducción
El determinante puede ser considerado como una función que cumple cuatro propiedades básicas. En
este capı́tulo se ve que cualquier función del álgebra de matrices cuadradas en el cuerpo de trabajo
que cumpla estas propiedades básicas es la función determinante.
D : V × · · · × V −→ K
| {z }
m−veces
a) Para cada 1 ≤ i ≤ m,
b) Para cada 1 ≤ i ≤ m,
D(v1 , . . . , a · vi , . . . , vm ) = a · D(v1 , . . . , vi , . . . , vm ),
D(v1 , . . . , vi , vi , . . . , vm ) = 0
51
52 CAPÍTULO 4. DETERMINANTES
D(v1 , . . . , vi , . . . , vj , . . . , vm ) = −D(v1 , . . . , vj , . . . , vi , . . . , vm ),
D(v1 , . . . , vi , . . . , vj , . . . , vm ) = 0
D(v1 , . . . , vi + a · vj , . . . , vm ) = D(v1 , . . . , vi , . . . , vm )
D(v1 , . . . , vi , . . . , 0, . . . , vm ) = 0.
Proposición 4.1. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn } una
base de V . Sean D1 y D2 dos funciones multilineales alternadas de n argumentos sobre el espacio V .
D1 = D2 si y sólo si D1 (x1 , . . . , xn ) = D2 (x1 , . . . , xn ).
Demostración: Sean v1 , . . . , vn ∈ V , entonces existen escalares aij ∈ K, 1 ≤ i, j ≤ n , tales que
v1 = a11 · x1 + · · · + a1n · xn
..
.
vn = an1 · x1 + · · · + ann · xn .
Entonces,
D1 (v1 , . . . , vn ) =
D1 (a11 · x1 + · · · + a1n · xn , v2 , . . . , vn ) =
a11 D1 (x1 , v2 , . . . , vn )+
a12 D1 (x2 , v2 , . . . , vn )+
..
.
a1n D1 (xn , v2 , . . . , vn ) =
a11 [a21 D1 (x1 , x1 , v3 , . . . , vn ) + · · · + a2n D1 (x1 , xn , v3 , . . . , vn )] +
a12 [a21 D1 (x2 , x1 , v3 , . . . , vn ) + · · · + a2n D1 (x2 , xn , v3 , . . . , vn )] +
..
.
a1n [a21 D1 (xn , x1 , v3 , . . . , vn ) + · · · + a2n D1 (xn , xn , v3 , . . . , vn )] ;
si se continua aplicando la linealidad de D1 en cada uno de sus argumentos, se obtiene una suma de
nn sumandos de la siguiente forma:
X
a1f (1) a2f (2) · · · anf (n) D1 (xf (1) , . . . , xf (n) )
f ∈F
4.2. LA FUNCIÓN DETERMINANTE 53
donde F es el conjunto de todas las funciones del conjunto {1, 2, . . . , n} en si mismo. Nótese que F tiene
nn elementos. Pero como D1 se anula cuando al menos dos de sus argumentos son iguales, entonces la
suma anterior se reduce a una de sólo n! sumandos, es decir,
X
D1 (v1 , . . . , vn ) = a1f (1) a2f (2) · · · anf (n) D1 (xf (1) , . . . , xf (n) ),
f ∈S
donde S ⊂ F está conformado por todas las funciones biyectivas de {1, 2, . . . , n} en si mismo. Nótese
que este mismo procedimiento se puede aplicar a la función D2 , es decir,
X
D2 (v1 , . . . , vn ) = a1f (1) a2f (2) · · · anf (n) D2 (xf (1) , . . . , xf (n) )
f ∈S
donde signo(f ) = 1 en el caso en que se realizara un número par de transposiciones para llevar
(xf (1) , . . . , xf (n) ) a la forma (x1 , . . . , xn ), y signo(f ) = −1 para un número impar de transposiciones
para llevar (xf (1) , . . . , xf (n) ) a la forma (x1 , . . . , xn ). Ası́ pues,
X
D1 (v1 , . . . , vn ) = signo(f )a1f (1) a2f (2) · · · anf (n) D1 (x1 , . . . , xn )
f ∈S
X
D2 (v1 , . . . , vn ) = signo(f )a1f (1) a2f (2) · · · anf (n) D2 (x1 , . . . , xn ).
f ∈S
En realidad se ha demostrado que una función multilineal alternada de n argumentos sobre un es-
pacio V de dimensión finita n queda determinada por su acción sobre los vectores de alguna base X
previamente fijada.
det : Mn (K) −→ K
que satisface la condición det(e1 , . . . , en ) = 1, es decir, det(E) = 1, donde E es la matriz idéntica de
orden n.
54 CAPÍTULO 4. DETERMINANTES
Si A = [aij ] ∈ Mn (K), entonces cada fila A(i) de A puede expresarse en la forma A(i) = ai1 · e1 + · · · +
ain · en y, de acuerdo a la demostración de la Proposición 1, necesariamente se tiene que
X
det(A) = signo(f )a1f (1) a2f (2) · · · anf (n) det(e1 , . . . , en ),
f ∈S
es decir,
X
det(A) = signo(f )a1f (1) a2f (2) · · · anf (n) ,
f ∈S
det(A) = a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 )
Solución: Debemos calcular todas las funciones biyectivas del conjunto {1, 2, 3} en si mismo:
123 123
f1 = , signo(f1 ) = +1, f2 = , signo(f2 ) = −1,
123 132
123 123
f3 = , signo(f3 ) = −1, f4 = , signo(f4 ) = −1,
321 213
123 123
f5 = , signo(f5 ) = +1, f6 = , signo(f6 ) = +1
231 312
Entonces,
det(A) =signo(f1 )a11 a22 a33 + signo(f2 )a11 a23 a32 + signo(f3 )a13 a22 a31 +
signo(f4 )a12 a21 a33 + signo(f5 )a12 a23 a31 + signo(f6 )a13 a21 a32 =
a11 a22 a33 − a11 a23 a32 − a13 a22 a31 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 =
a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 )
4.3. Propiedades
Teniendo en cuenta que la función determinante es multilineal y alternada respecto de sus filas, entonces
det tiene las propiedades que se enuncian a continuación. Sea A una matriz cuadrada de orden n ≥ 1.
4.3. PROPIEDADES 55
A(1) A(1)
.. ..
. .
a) det
A(i) + ui
= det(A) + det ui ,
.. .
. ..
A(n) A(n)
donde ui ∈ K n .
A(1)
..
.
b) det
a . A(i)
= a det A.
..
.
A(n)
donde a ∈ K.
c) Si existe un par i 6= j tal que A(i) = A(j) , entonces det(A) = 0.
A(1) A(1)
.. ..
. .
A(i) A(j)
d) det ... = − det ... ,
A(j) A(i)
. .
.. ..
A(n) A(n)
para cada par i 6= j.
A(1)
..
.
A(i) + a . A(j)
..
e) det . = det(A),
A(j)
..
.
A(n)
para cada par i 6= j.
A(1)
..
.
f) det 0 = 0.
.
..
A(n)
Además de las propiedades anteriores se tienen las siguientes.
g) La matriz A se dice que es triangular superior si aij = 0 para i > j, es decir, A tiene el
siguiente aspecto
a11 · · · ain
.. ..
A= 0 . . .
0 0 ann
56 CAPÍTULO 4. DETERMINANTES
Si A es una matriz triangular superior, entonces det(A) = a11 · · · ann , es decir, el determinante
de A es el producto de los elementos de la diagonal.
l) det(AT ) = det(A).
Ejericicio 4.3. Sea A una matriz de orden n, B una matriz de orden m y C un matriz de orden
n × m. Entonces
A C
det = det(A) det(B).
0 B
Det1 : M1 (K) −→ K
[a] 7−→ Det1 (a) = a
Det −→
2 : M2 (K) K
a11 a12
7−→ a11 Det1 [a22 ] − a21 Det1 [a12 ] = a11 a22 − a21 a12 .
a21 a22
La función Detn−1 : Mn−1 (K) → K se supone definida y se quiere construir la función
Sea A = [aij ] ∈ Mn (K), para el elemento aij se define la matriz Aij ∈ Mn−1 (K) suprimiendo la
i-ésima fila y la j-ésima columna de A , es decir,
4.4. REGLA DE CRAMER 57
a11 ··· a1j−1 a1j+1 ··· a1n
.. .. .. .. .. ..
. . . . . .
ai−11 ··· ai−1j−1 ai−1j+1 ··· ai−1n
Aij =
ai+11
.
··· ai+1j−1 ai+1j+1 ··· ai+1n
. .. .. .. .. ..
.. . . . . .
an1 ··· anj−1 anj+1 ··· ann
La imagen de Aij a través de la función Detn−1 se conoce como el menor del elemento aij y se denota
por Mij , es decir,
n
X
Det(A) = (−1)i+1 ai1 Mi1 . (4.1)
i=1
Proposición 4.2. Det es una función multilineal alternada sobre las filas de las matrices de orden n
que cumple además la condición Det(E) = 1. En consecuencia, Det = det.
Se dice que la fórmula (4.1) define la función determinante por los menores de la primera columna,
adaptando esta fórmula a cualquier otra columna se puede probar también la proposición anterior,
además, como det(AT ) = det(A), entonces se tienen las siguientes igualdades:
n
X n
X
Det(A) = (−1)i+j aij Mij = (−1)i+j aij Mij (4.2)
i=1 j=1
para cada 1 ≤ i, j ≤ n. Estas fórmulas pueden usarse para probar la regla de Crammer que se estudia
enseguida.
Definición 4.4. Sea A = [aij ] una matriz de orden n, se define la matriz cofactor de A por
Corolario 4.1. Sea A una matriz de orden n ≥ 1. Entonces, A es invertible si y sólo si det(A) 6= 0.
En tal caso, A−1 = (det(A))−1 Cof (A)T .
58 CAPÍTULO 4. DETERMINANTES
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
.. (4.3)
.
am1 x1 + · · · + amn xn = bm
donde a11 , . . . , amn ∈ K son los coeficientes del sistema y x1 , . . . , xn representan elementos de K
que hay que determinar y se conocen como las indeterminadas (incógnitas) del sistema. Se dice
que el sitema (4.3) es de orden m × n. La matriz
a11 · · · a1n
..
A = ... ..
. .
am1 ··· amn
se conoce como la matriz de coeficientes del sistema (4.3). Los escalares b1 , . . . , bm se conocen como
los términos independientes del sistema (4.3). El sistema (4.3) se puede representar matricialmente
en la forma
AX = B (4.4)
T
donde A es la matriz de coeficientes, B = [b1 , . . . , bm ] es la matriz columna de términos independientes
T
y X = [x1 , . . . , xn ] es la matriz columna de indeterminadas. La matriz ampliada del sistema es
la matriz definida por
a11 · · · a1n b1
M = ... .. .. .. = A | B
. . .
am1 ··· amn bm
El sistema (4.4) se dice homogéneo si B = 0, en caso contrario se dice no homogéneo. Una solución
T
del sistema (4.4) es una matrix columna X0 = x01 , . . . , x0n ∈ K n tal que AX0 = B. El sistema
(4.4) se dice compatible si posee al menos una solución, en caso contrario se dice no compatible. Un
sistema compatible con solución única se dice determinado, si el sistema posee más de una solución
se dice indeterminado.
Sea
CX = D (4.5)
otro sistema de ecuaciones lineales de orden m × n, los sistemas (4.4) y (4.5) se dicen equivalentes si
poseen las mismas soluciones. Nótese que la relación “ser equivalente” es de equivalencia en el conjunto
de todas las ecuaciones lineales de orden m × n.
(b) La matriz A determina una transformación lineal T : K n −→ K m en algún par de bases. Nótese
que S es precisamente el núcleo de T . Por lo tanto, dim(S) = n − rank(T ) = n − rank(A).
Como se anotó al principio, el cálculo efectivo del conjunto solución de un sistema de ecuaciones li-
neales se realiza hoy mediante algún paquete computacional. Sin embargo, es conveniente tener unos
criteros claros que permitan entender algunos de los métodos que usan estos programas y que inter-
preten adecuadamente las respuestas que producen estos paquetes de cómputo.
Sea AX = B un sistema de orden m × n. Efectuando una sucesión finita de operaciones elemen-
tales sobre las filas de la matriz ampliada A | B se obtiene un sistema CX = D equivalente al
primero. En efecto, puesto que la realización de operaciones elementales sobre las filas de una matriz
corresponde al producto a izquierda por matrices elementales (vésase la Lección 6 del Capı́tulo 3) y
estas son invertibles, los conjuntos de soluciones de AX = B y CX = D coinciden.
La forma escalonada (4.6) permite determinar las soluciones del sistema original AX = B. Si en (4.6)
existe r + 1 ≤ i ≤ m tal que di 6= 0, entonces el sistema es no compatible; si tal situación no se presenta
entonces se pueden dar valores arbitrarios en K a las indeterminadas libres xj , j ∈ / {j1 , j2 , . . . , jr }, y
obtener para las indeterminadas dependientes xj1 , xj2 , . . . , xjr valores únicos mediante reemplazo hacia
atrás, es decir, desde la r-ésima ecuación hasta la primera de (4.6). Si en (4.6) aparecen indeterminadas
libres entonces el sistema tiene más de una solución y por lo tanto es indeterminado. Si no aparecen
indeterminadas libres, es decir, r = n, entonces la solución es única y el sistema es determinado.
El cuadro (4.1) resume los resultados precedentes en relación con el número de soluciones de un sistema
de ecuaciones lineales:
n>m n≤m
Homogéneo ∞ 1,∞
No homogéneo 0, ∞ 0, 1, ∞
Ejemplo resuelto:
(a) Determinar todas las soluciones del sistema
⇓
1 2 −5 4 1 4
0 1 14 −15 −1 −2
0 0 1 −17 0 −16
0 0 0 1 2 5
0 0 0 2 5 12
⇓
1 2 −5 4 1 4
0 1 14 −15 −1 −2
0 0 1 −17 0 −16
0 0 0 1 2 5
0 0 0 0 1 2
todas las indeterminadas son dependientes, el sistema es compatible y determinado con solución
dada por: x5 = 2, x4 = 5 − 2x5 = 1, x3 = 17x4 − 16 = 1, continuando con esta sustitución hacia
atrás se encuentra que x2 = 1 y x1 = 1.
(b) Determinar todas las soluciones del sistema
x1 − 5x3 + 2x6 = 6
2x2 + x4 + 3x5 = 6
2x1 − 7x3 + 3x6 = 4
3x2 + 2x4 + 4x5 = 7
2x1 − x3 + x6 = −12
4x2 + 3x4 + 5x5 = 9
(a)
(b)
2. Calcular todas las soluciones de los sistemas lineales del problema anterior (Sugerencia:
hágalo manualmente y también utilizando algún paquete de cómputo).
3. Calcule todas las soluciones de los siguientes sistemas homogéneos (usted escoge el
método !):
(a)
(b)
2x1 − x2 − x3 − x4 − x5 =0
−x1 + 2x2 − x3 − x4 − x5 =0
4x1 + x2 − 5x3 − 5x4 − 5x5 =0
x1 + x2 + 2x3 + x4 + x5 =0
x1 + x2 + x3 + 2x4 + x5 =0
1
4. Calcule los determinantes de las siguientes matrices:
(a)
a2 + 1 ab ac
ab b2 + 1 bc
2
ac bc c + 1
(b)
1 0 2 a
2 0 b 0
3 c 4 5
d 0 0 0
(c)
1 1 1 ··· 1
1 2 3
··· n
1 1 1
1 3 4
··· n+1
2 2 2
.. .. .. .. ..
. . . . .
n n+1 2n−2
1 n−1 n−1
··· n−1
donde ab es el coeficiente binomial. Utilizar la identidad nk = n−1
k
+ n−1
k−1
.
5. Sea A una matriz cuadrada de orden n × n. Demostrar que
(a)
A −A
det = 2n (det A)2
A A
(b)
A −A
det =0
−A A
(c)
2A 3A
det = (det A)2
A 2A
2
A −A
Solución. (a) Sea B = , entonces podemos adicionar en forma secuencial las
A A
primeras n filas de B a las siguientes n filas pero con signo negativo. El determinante no
A −A
cambia y se obtiene que det (B) = det . Según el Ejercicio 3 de la Lección 3,
0 2A
se tiene que det (B) = det(A) det(2A) = det(A)2n det(A) = 2n det (A).
A −A
(b) Sea B = , podemos sumar en forma secuencial las primeras n filas de
−A A
B a las siguientes
n filas de B, el determinante no cambia y obtenemos que det(B) =
A −A
det = det(A) det(0) = 0.
0 0
2A 3A
(c) Sea B = , podemos sumar en forma secuencial las últimas n filas de B a
A 2A
las primeras n filas de B pero con signo negativo, el determinante no cambia y obtenemos
A A
que det(B) = det . Podemos ahora sumar en forma secuencial las primeras n
A 2A
filas de esta nueva matriz a las siguientes n filas pero con signo negativo de tal forma que
el determinante no cambia y ası́:
A A
det(B) = det = det (A) det (A) = det(A)2 .
0 A
6. Calcular el determinante de la matriz n × n sobre un cuerpo K:
a b ··· b
b a ··· b
A = .. .. .. ..
. . . .
b b ··· a
Solución. Vamos a demostrar que este determiante es (a + (n − 1) b) (a − b)n−1 mediante
la realización de operaciones elementales sobre filas y columnas: en primer lugar multipli-
camos la primera fila por −1 y se la sumamos a las n − 1 restantes, el determinante de la
nueva matriz no cambia:
a b ··· b
b − a a − b ··· 0
.. .. .. ..
. . . .
b−a 0 ··· a − b
Esta matriz tiene un bloque diagonal de tamaño n − 1 y el determinante de este bloque
diagonal es (a − b)n−1 . Ahora multiplicamos las últimas n − 1 columnas por −1 y las
vamos sumando a la primera columna, el determinante no cambia y obtenemos:
3
a + (n − 1)b b ··· b
0 a − b ··· 0
.. .. .. ..
. . . .
0 0 ··· a − b
Podemos finalmente desarrollar el determinate por los menores de la primera columna y
obtenemos el resultado anunciado.
7. Demuestre que
2 −1 0 0 ··· 0 0 0
−1 2 −1 0 · · · 0 0 0
0 −1 2 −1 · · · 0 0 0
... ... ...
det ... ... ... =n+1
0 0 0 −1 2 −1 0
0 0 0 ··· −1 2 −1
0 0 0 ··· 0 −1 2
8. Sea A una matriz cuadrada de orden impar tal que AT = −A. Demostrar que det(A) =
0.
9. Sea A ∈ Mn (Z), con n par tal que AT = −A. Demostrar que det(A) = k 2 , con k ∈ Z.
4
Capı́tulo 5
Polinomio Caracterı́stico
Introducción
El estudio de las transformaciones lineales por medio de matrices usa como una de sus técnicas el
polinomio caracterı́stico. El conocimiento de sus raı́ces es fundamental para entender el comportamiento
de la transformación lineal. Estas raı́ces son los llamados valores propios.
E(a) = {v ∈ V | T (v) = a . v}
es un subespacio de V ; nótese que E(a) 6= 0 si y sólo si a es un valor propio de T , en tal caso E(a) se
denomina el espacio propio de T correspondiente al valor propio a.
Ejemplo 5.2. Sea D el operador derivación definido sobre el espacio de funciones reales cuyas deri-
vadas de cualquier orden existen, y sea a ∈ R, entonces E(a) = {c eax | c ∈ R}.
Ejemplo 5.3. Existen transformaciones lineales sin valores propios, es decir, E(a) = 0 , para cada
a ∈ K. En efecto, la transformación T : R2 → R2 definida por
67
68 CAPÍTULO 5. POLINOMIO CARACTERÍSTICO
Demostración: La prueba de la primera afirmación la se realiza por inducción. Las otras dos afirma-
ciones son consecuencia directa de la primera.
Supóngase que la afirmación ha sido probada para n − 1 valores propios diferentes. Sean a1 , . . . , an
valores propios diferentes para T con vectores propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que
b1 .v1 +· · ·+bn .vn = 0. Aplicando T y también multiplicando por an se pueden restar las dos relaciones
y obtener que
(b1 a1 − b1 an ) .v1 + · · · + (bn−1 an−1 − bn−1 an ) .vn−1 = 0
Aplicando inducción resulta entonces que b1 = · · · = bn−1 = 0, de donde bn = 0. Esto prueba que los
vectores v1 , . . . , vn son LI.
Ejemplo 5.4. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpo K, y sea T : V →
V una transformación lineal. Entonces para cada polinomio p(x) ∈ K[x] se tiene que p(T ) es una
transformación lineal de V en V , además si a ∈ K es un valor propio de T con vector propio v,
entonces p(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) ⊆ N (p(T )) si a es raı́z
de p(x), y E(a) ⊆ Im(p(T )) si a no es raı́z de p(x).
Solución: Puesto que ya hemos definido la suma y producto de transformaciones lineales y además un
producto de escalar por transformación lineal, entonces es claro que si p(x) = a0 + a1 x + · · · + an xn
es un polinomio, entonces p(T ) es nuevamente una transformación lineal de V en V . Sea ahora a ∈ K
un valor propio de T con vector propio v ∈ V , entonces p(T )(v) = a0 .v + a1 T (v) + · · · + an T n (v) =
a0 .v + a1 a.v + a2 a2 .v + · · · + an an .v = p(a).v, es decir, p(a) es valor propio de p(T ) con vector propio
v.
Supongamos que a es raı́z de p(x), entonces p(T )(v) = 0 y de esta forma v ∈ N (p(T ))), es decir,
−1
E(a) ⊆ N (p(T )). Supóngase contrariamente que a no es raı́z de p(x), entonces v = (p(a)) p(T )(v) =
−1
p(T )((p(a)) .v), es decir, v ∈ Im(p(T )), y ası́, E(a) ⊆ Im(p(T )).
Definición 5.3. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 sobre un cuerpo K. Se define el
5.2. POLINOMIO CARACTERÍSTICO 69
Nótese que efectivamente pA (x) ∈ K[x]. Se puede probar fácilmente que para pA (x) se tienen las
siguientes propiedades:
Insistimos en que este resultado es válido para valores a ∈ K. Podrı́a ocurrir que las raı́ces del poli-
nomio caracterı́stico no pertenecieran al cuerpo K, por ejemplo, en el caso en que K sea el cuerpo de
números reales y todas las raı́ces de pT (x) fueran complejas (véase el Ejemplo 3 de la lección anterior),
entonces no tendrı́amos valores propios.
Un cuerpo K se dice algebraicamente cerrado si todas las raı́ces de todos sus polinomios pertene-
cen a K, por ejemplo, el cuerpo C de números complejos es algebraicamente cerrado, en cambio, el
cuerpo R de números reales no lo es.
70 CAPÍTULO 5. POLINOMIO CARACTERÍSTICO
Corolario 5.1. Sea K un cuerpo algebraicamente cerrado y sea T : V → V una transformación lineal
del K-espacio V de dimensión finita n ≥ 1. Entonces, T tiene n valores propios (no necesariamente
diferentes) correspondientes a las n raı́ces de su polinomio caracterı́stico.
Sea A una matriz cuadrada de orden n ≥ 1, un elemento a ∈ K se dice que es un valor propio
de A si existe una matriz columna no nula u = (u1 , . . . , un )T ∈ K n tal que Au = a.u . La teorı́a de
valores y vectores propios para matrices está relacionada de manera obvia con la correspondiente teorı́a
para transformaciones lineales.
Teniendo en cuenta que matrices que representen la misma transformación lineal son similares, se tiene
el siguiente resultado.
Esto indica que T (x1 ) = d1 x1 ,...,T (xn ) = dn xn . Puesto que los vectores x1 , . . . , xn son no nulos, en-
tonces estos vectores son propios.
⇐) Sea X = {x1 , . . . , xn } una base de vectores propios. Entonces, existen escalares d1 , . . . , dn en K
tales que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Nótese que entonces la matriz de T es la base X es diago-
nal, y sus elementos diagonales son precisamente d1 , . . . , dn .
Sea A ∈ Mn (K) una matriz diagonalizable. Entonces existe una matriz invertible C tal que C −1 AC =
D, donde D es una matriz diagonal. La demostración del teorema anterior nos da una manera de
encontrar la matriz diagonalizante C. En efecto, sea Y la base canónica de K n , entonces sabemos
que A es la matriz de una transformación T : K n → K n , A = mY (T ). Como A es diagonalizable
entonces por la Proposición 3, T es diagonalizable. Según la demostración del Teorema 1, existe una
base X = {x1 , . . . , xn } en K n de vectores propios de T de tal forma que mX (T ) = D, donde D es una
matriz diagonal. Entonces, D = mX (T ) = C −1 mY (T )C, donde C es la matriz de cambio de la base Y
5.3. MATRICES DIAGONALIZABLES 71
a la base X. Es decir, la i-ésima columna de C son los coeficientes de la expansión del i-ésimo vector
xi a través de la base canónica Y , es decir, las coordenadas del vector columna xi . En otras palabras,
las columnas de C son los vectores columna x1 , . . . , xn (Nótese que según el Corolario 2, cada vector
columna xi es un vector propio de A).
El recı́proco de la parte b) del corolario anterior no siempre se cumple: la matriz idéntica E es diagonal,
sin embargo sus n valores propios coinciden y son iguales a 1.
a) T es diagonalizable.
d) V = E(a1 ) ⊕ . . . ⊕ E(ar ).
Demostración: a) ⇒ b) Por el Teorema 1, V tiene una base X = {v1 , . . . , vn } constituida por vectores
propios. Se ordena esta base de tal manera que los primeros d1 vectores correspondan al valor propio
a1 , los siguientes d2 vectores correspondan al valor a2 y ası́ sucesivamente. Entonces claramente la
matriz de T en esta base toma la forma
a1 E ··· 0
.. .. ..
mX (T ) = . . . ,
0 ··· ar E
72 CAPÍTULO 5. POLINOMIO CARACTERÍSTICO
Se verá ahora que di = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n = d1 + · · · + dr . Por
la forma como se ha organizado la base X, se tiene que V = hXi ⊆ E(a1 ) + · · · + E(ar ), es decir,
V = E(a1 ) + · · · + E(ar ), luego, por la Proposición 4, n = dim(E(a1 )) + · · · + dim(E(ar )). Se sabe que
di ≤ dim(E(ai )) para cada 1 ≤ i ≤ r, supóngase que existe i tal que di < dim(E(ai )), entonces
dim(E(a1 ) + · · · + E(ar )),de donde, V = E(a1 ) + · · · + (E(ar ), además, por la Proposición 4, la suma
es directa, es decir, V = E(a1 ) ⊕ · · · ⊕ E(ar )
d) ⇒ a) Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V constituida por vecto-
res propios, lo cual, de acuerdo al Teorema 1, garantiza que T es diagonalizable.
Ejericicio 5.1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo encontrar
una matriz que diagonalice.
1 1 2 3
0 −1 0 0 2 2 4
A= 0 0 1 , B= 0 0 1 −2 .
−1 −3 3
0 0 0 2
Ejericicio 5.2. Determinar los valores y vectores propios del operador derivación sobre el espacio
Rn [x]. ¿Es este operador diagonalizable?
Ejericicio 5.4. Sea A una matriz de orden n ≥ 1 y p(x) un polinomio cualquiera. Demuestre que si
A es diagonalizable, entonces p(A) es diagonalizable.
Pn
Ejericicio 5.5. Sea A = [aij ] una matriz de orden n ≥ 1 tal que j=1 aij = 1 para cada 1 ≤ i ≤ n.
Demuestre que 1 es un valor propio de A.
5.3. MATRICES DIAGONALIZABLES 73
1
En caso afirmativo, calcular una matriz real C tal que C −1 AC sea diagonal.
10. Sea A una matriz cuadrada de tamaño n × n con valores propios distintos λ1 , ..., λn .
Demostrar que tr(A) = λ1 + ... + λn y det(A) = λ1 ...λn .
11. Demostrar que la siguiente transformación lineal es diagonalizable. Calcular una ma-
triz diagonalizante: T : C4 → C4 , T (x, y, z, w) = (−y, x, −w, z).
12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En
caso afirmativo calcular una matriz diagonalizante:
2 2 −2 2 −2 −1
A = 1 3 −1 , B = −2 −1 −2 .
−1 1 1 14 25 14
13. Sea A ∈ Mn (R) tal que considerada como matriz compleja tiene un valor propio de
la forma a + ib con vector propio de la forma x + iy, donde x, y ∈ Rn . Demostrar que
a − ib es también un valor propio de A con vector propio x − iy.
14. Sean S, T : V −→ V transformaciones lineales, dim (V ) = n, probar que ST y T S
tienen los mismos valores propios.
15. Sea T : V −→ V una transformación lineal tal que cada vector no nulo de V es un
vector propio de T . Demostrar que T = α.IV para algún escalar α ∈ K.
16. Sea V un espacio vectorial complejo y sea T : V −→ V una transformación lineal.
Sea p (x) un polinomio con coeficientes complejos y sea α ∈ C. Probar que α es un valor
propio de p(T ) si y sólo si α = p(λ), donde λ es un valor propio de T . Mostrar además
que esta propiedad no es válida en general para R.
17. Dar un ejemplo de transformación lineal T cuya matriz con respecto a una cierta base
contenga solamente ceros en la diagonal principal pero T sea invertible.
18. Dar un ejemplo de transformación lineal T cuya matriz con respecto a una cierta base
contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible.
19. Dar un ejemplo de operador T : R4 −→ R4 que no tenga valores propios reales.
20. Sea V un espacio vectorial real de dimensión finita y sea T : V −→ V una transfor-
mación lineal que no tiene valores propios reales. Demostrar que si W es un subespacio
de V tal que T (W ) ⊆ W , entonces la dimensión de W es par.
2
Álgebra Lineal
Capı́tulo 5. Polinomio Caracterı́stico
Ejercicios.
1. Calcular el polinomio caracterı́stico de la siguiente matriz
x1 y1 x1 y2 · · · x1 yn
x2 y1 x2 y2 · · · x2 yn
··· ··· ··· ···
xn y1 xn y2 xn yn
pA (x) = p(DL)D0 (x) = pD0 (DL) (x) = p(D0 D)L (x) = pB (x)
donde
x1 y1 · · · x1 y1
.. .
B = D0 DL = ... ..
. .
xn yn · · · xn yn
Pero B es una matriz donde sus columnas coinciden, y entonces el cálculo de su polinomio
caracterı́stico es muy sencillo:
z − x1 y1 · · · −x1 y1
.. .. ..
pB (x) = det . . .
−xn yn · · · z − xn yn
1
es decir,
pA (x) = pB (x) = z n − (x1 y1 + x2 y2 + · · · + xn yn ) z n−1 .
2. Sean A y B matrices rectangulares de dimensiones m × n y n × m respectivamente. De-
mostrar que los polinomios caracterı́sticos de las matrices AB y BA satisfacen la relación
xn pAB (x) = xm pBA (x).
Solución. Se definen la matrices cuadradas C y D de orden m + n de la siguiente forma:
0 En A Em
C= , D=
xEm −A xEn B
Entonces,
0 En A Em xEn B
CD = =
xEm −A xEn B 0 xEm − AB
A Em 0 En xEm 0
DC = = .
xEn B xEm −A xB xEn − BA
2
4. Sea A una matriz cuadrada y sea B = A − αE, donde α es un escalar y E es la
idéntica. Demostrar que pB (x) = pA (x + α).
Solución. Tenemos que
pB (x) = det(xE − B) = det xE − C −1 AC = det C −1 (xE − A) C =
det C −1 det (xE − A) det C = det (xE − A) = pA (x).
⇐) Supóngase ahora que A, B tienen el mismo polinomio caracterı́stico y que son diago-
nalizables. Existen matrices invertibles C, F tales que C −1 AC = D (a1 , . . . , an ), F −1 BF =
D (b1 , . . . , bn ). Entonces pA (x) = (x − a1 ) · · · (x − an ) = (x − b1 ) · · · (x − bn ) = pB (x). Es-
to implica que {a1 , . . . , an } = {b1 , . . . , bn }, aunque el orden de los elementos no sea el
mismo. Sin embargo, se puede lograr que el orden sea el mismo mediante matrices de per-
mutación Pij . En efecto, para intercambiar la entrada diagonal ai con la aj se debe realizar
la siguiente operación: Pij D (a1 , . . . , ai , . . . , aj , . . . , an ) Pij = D (a1 , . . . , aj , . . . , ai , . . . , an ).
Puesto que Pij−1 = Pij , entonces se puede asegurar que existe una matriz invertible P
(producto de las permutaciones que sea necesarias para ordenar los elementos diagonales)
tal que P −1 D (a1 , . . . , an ) P = D (b1 , . . . , bn ), es decir, las dos matrices diagonales son
similares, y en consecuencia, A y B son similares.
6. Sea P : V → V una transformación lineal no nula tal que P 2 = P (es decir, P es una
proyección). Demostrar que los únicos valores propios de P son 0 y 1.
Solución. Sea a un valor propio de P con vector propio v, entonces P (v) = a.v, luego
P 2 (v) = P (a.v) = a.P (v) = a2 .v = P (v) = a.v. Resulta entonces, (a2 − a) .v = 0, y como
v es no nulo, entonces (a2 − a) = 0, es decir, a = 0 ó a = 1.
7. Sea T : V → V una transformación lineal invertible. Qué relación existe entre los
valores propios de T y T −1 ?
Solución. Sea λ un valor propio de T con vector propio v, entonces T (v) = λ.v, aplicamos
ahora T −1 , luego v = λ.T −1 (v); como v es no nulo entonces λ 6= 0, con lo cual T −1 (v) =
λ−1 .v, es decir, λ−1 es valor propio de T −1 . Se tiene pues que λ es valor propio de T si y
sólo si λ−1 es valor propio de T −1 .
8. Demostrar que la matriz
1 1 ··· 1
1 1 ··· 1
A = .. .. .. ..
. . . .
1 1 ··· 1
3
es diagonalizable.
Solución. Vamos a demostrar que los únicos valores propios de A son n y 0, además vere-
mos que dim (E (n)) = 1 y que dim (E (0)) = n − 1. El resultado es entonces consecuencia
del Teoream 2 de la Lección 3 del Capı́tulo 5.
Nótese que en efecto A (1, ..., 1)T = n. (1, ..., 1)T . Además, sea (x1 , ..., xn )T ∈ E (n), en-
tonces A (x1 , ..., xn )T = n. (x1 , ..., xn )T , es decir, x1 +· · ·+xn = nx1 , ..., x1 +· · ·+xn = nxn ,
o sea que, nx1 = · · · = nxn , lo cual implica que x1 = · · · = xn , es decir, (x1 , ..., xn )T es
múltiplo de (1, ..., 1)T .
Veamos ahora los vectores propios de 0: nótese que 0 es valor propio con vector propio
(0, 0...., −1, 1)T . Sea (x1 , ..., xn )T ∈ E (0), entonces A (x1 , ..., xn )T = 0, es decir, se obtiene
la única ecuación x1 + · · · + xn = 0, la cual evidentemente se satisface por todas las
n-plas de la forma (x1 , ..., xn−1 , −x1 − x2 − · · · − xn−1 )T . La dimensión de este espacio es
claramente n − 1.
9. Determinar si la siguiente matriz real A se puede diagonalizar:
0 0 4
A = −1 1 2
3 0 −1
En caso afirmativo, calcular una matriz real C tal que C −1 AC sea diagonal.
10. Sea A una matriz cuadrada de tamaño n × n con valores propios distintos λ1 , ..., λn .
Demostrar que tr(A) = λ1 + ... + λn y det(A) = λ1 ...λn .
Solución. Puesto que A tiene n valores propios distintos, entonces A es diagonalizable,
es decir, existe C invertible tal que
λ1 0
...
C −1 AC = = D.
0 λn
Entonces, pA (x) = pD (x) = (x − λ1 ) · · · (x − λn ), luego el término independiente de
pD (x) es (−1)n det (A) = (−1)n λ1 · · · λn , es decir, det(A) = λ1 ...λn . De igual manera, el
coeficiente del monomio xn−1 es tr (A) = λ1 + ... + λn .
11. Demostrar que la siguiente transformación lineal es diagonalizable. Calcular una ma-
triz diagonalizante: T : C4 → C4 , T (x, y, z, w) = (−y, x, −w, z).
12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En
caso afirmativo calcular una matriz diagonalizante:
2 2 −2 2 −2 −1
A = 1 3 −1 , B = −2 −1 −2 .
−1 1 1 14 25 14
13. Sea A ∈ Mn (R) tal que considerada como matriz compleja tiene un valor propio de
la forma a + ib con vector propio de la forma x + iy, donde x, y ∈ Rn . Demostrar que
a − ib es también un valor propio de A con vector propio x − iy.
4
Solución. Tenemos
5
Capı́tulo 6
Formas Canónicas
Introducción
Las matrices constituyen un lenguaje computacional para estudiar transformaciones lineales. Si el
aspecto de una matriz que representa una cierta transformación lineal es sencillo, entonces es fácil
conocer propiedades de la matriz , y por lo tanto, de la transformación. Las formas sencillas clásicas
a las cuales puede ser reducida una matriz, bajo ciertas condiciones, son estudiadas en el presente
capı́tulo. El problema de similaridad de matrices es resuelto en términos de las formas canónicas
introducidas.
81
82 CAPÍTULO 6. FORMAS CANÓNICAS
−C (0) A = p0 E
−C A + C (0) =
(1)
p1 E
−C (2) A + C (1) = p2 E
.. .. ..
. . .
(n−1) (n−2)
−C A+C = pn−1 E
C (n−1) = E
Podemos ahora multiplicar estas igualdades a la derecha por E, A, . . . , An respectivamente y luego su-
mar de tal forma que todos los términos del miembro de la izquierda se cancelan por pares y el término
de la derecha es precisamente pA (A), es decir, pA (A) = 0. Por la condición que define al polinomio
mı́nimo se tiene que qA (x) | pA (x).
Recı́procamente, sea a ∈ K una raı́z de qT (x), entonces podemos aplicar el Teorema de Hamilton-
Cayley y escribir pT (x) = qT (x)m(x), de donde pT (a) = qT (a)m(a) = 0.
6.2. FORMA CANÓNICA TRIANGULAR 83
Proposición 6.3. Sea T una transformación lineal de un espacio V de dimensión finita n ≥ 1. Sea
X una base de V y A = mX (T ). Entonces, T es triangulable si y sólo si A es triangulable.
TW : W → W
w → TW (w) = T (w),
es decir, TW es la restricción de T a W . Los polinomios mı́nimo y caracterı́stico de TW guardan
estrecha relación con los correspondientes polinomios de T .
Demostración: Sea Z = {z1 , ..., zr } una base de W y X = {z1 , ..., zr ; v1 , ..., vs } una base de V (de tal
forma que r + s = n). Sea T (zi ) = a1i .z1 + · · · + ari .zr + 0.v1 + · · · + 0.vs , 1 ≤ i ≤ r (debido a que W
es T -invariante). Esto muestra que la matriz de T en la base X tiene la forma
mZ (TW ) B
mX (T ) =
0 C
donde B y C contienen los coeficientes al aplicar T a los vectores v1 , ..., vs . Entonces, pT (x) =
det (xE − mX (T )) = det (xE − mZ (TW )) det (xE − C) = pTW (x)pC (x). Esto completa la demostra-
ción de la primera afirmación.
c) Para cada t(x) ∈ K[x] y cada p(x) ∈ I(v) se tiene que t(x)p(x) ∈ I(v).
d) I(0) = K[x] .
e) Si W = 0, entonces I0T (v) se conoce como el T -anulador del vector v, o simplemente, el anulador
del vector v. Nótese que I0T (v) = K[x] si y sólo si v = 0.
T
f ) Existe un polinomio mónico qv (x) de grado mı́nimo en IW (v) tal que cualquier otro polinomio de
T
IW (v) es múltiplo de él. En particular, qT (x) es múltiplo de qv (x). qv (x) se denomina el olinomio
mı́nimo del vector v relativo a W y a T . Cuando W = 0, qv (x) se conoce también con el nombre
de el anulador del vector v.
Demostración: Sea v un vector cualquiera de de V \ W . Sea qv (x) el polinomio mı́nimo del vector v
relativo al subespacio W . Entonces, qv (x) divide al polinomio mı́nimo qT (x) , de donde , qv (x) es de
la forma
qv (x) = (x − a1 )s1 · · · (x − ak )sk ,
donde 0 ≤ si ≤ ri , 1 ≤ i ≤ k. No es posible que que cada si sea nulo, ya que de lo contrario qv (x) = 1
, y entonces qv (T )(v) = IV (v) = v ∈ W , en contra de lo supuesto. Supongamos pues que s1 ≥ 1 ,
entonces qv (x) = (x − a1 )h(x) donde h(x) ∈ K[x] es de grado inferior al grado de qv (x). Esto implica
que u = h(T )(v) ∈ / W. También, (T − a1 IV )(u) = (T − a1 IV )(h(T )(v)) = qv (T )(v) ∈ W. Puesto que
a1 ∈ K es una raı́z del polinomio mı́nimo , entonces a1 es un valor propio de T (véase la Proposición
2).
Demostración: ⇒) Existe una base X en V tal que la matriz de T en dicha base es de la forma
a11 · · · · · · a1n
0 a22 · · · a2n
mX (T ) = .. .. . . .. .
. . . .
0 ··· 0 ann
Nótese que el polinomio caracterı́stico de T es pT (x) = (x − a11 ) · · · (x − ann ) y los valores propios
de T son a11 , . . . , ann ∈ K. Sean a1 , . . . , ak ∈ K los valores propios diferentes con multiplicidades
d1 , . . . , dk , de tal manera que
y T es triangulable. Si W2 6= V entonces podemos repetir este razonamiento hasta conformar una base
de V en la cual la matriz de T es triangular.
Notemos que la escogencia del valor propio a es arbitraria, sin embargo cada valor ai se puede usar
máximo ri veces debido a que estos valores van por la diagonal principal de la matriz.
86 CAPÍTULO 6. FORMAS CANÓNICAS
qT (x) = (x − a1 ) · · · (x − ak ),
donde ai ∈ K son valores diferentes, 1 ≤ i ≤ k, 1 ≤ k ≤ n. La afirmación del teorema también se
cumple si A es una matriz cuadrada de orden n ≥ 1.
Demostración: ⇒) Si T es diagonalizable V tiene una base conformada por vectores propios: X =
{v1 , . . . , vn }. Sean a1 , . . . , ak los diferentes valores propios de T , 1 ≤ k ≤ n. Sea v = b1 . v1 + · · · +
bn . vn un vector cualquiera de V , entonces
ya que las transformaciones polinomiales conmutan y cada vi esta asociado a algunos de los valores
propios ai , 1 ≤ i ≤ k. Esto indica que el polinomio (x − a1 ) · · · (x − ak ) se anula en T , de donde,
qT (x) divide a dicho polinomio. Pero como ai es raı́z de qT (x), entonces cada factor (x − ai ) divide a
qT (x), por lo tanto (x−a1 ) · · · (x−ak ) divide a qT (x). Se tiene entonces que qT (x) = (x−a1 ) · · · (x−ak ).
⇐=) Nótese que a1 , . . . , ak son los diferentes valores propios de T (véase la Proposición 2). Sea
W el espacio generado por todos los vectores propios de T ; si W = V , entonces T es diagonalizable.
Supóngase que W 6= V . Demostraremos que esta suposición nos lleva a una contradicción.
w = h(T )(u) = m(T )(T − a1 .IV )(u) + h(a1 ).u = m(T )(v) + h(a1 ).u,
es triangulable sobre los reales. En caso afirmativo encontrar una matriz real triangular similar a la
matriz A.
Solución: El polinomio caracterı́stico de A es x3 . Puesto que A2 6= 0, entonces el polinomio mı́nimo de
A es también x3 . Esto garantiza que A es triangulable.
6.3. DIAGONALIZACIÓN EN BLOQUES 87
Para calcular una matriz triangular similar a la matriz A podemos aplicar la segunda parte de la
demostración del Teorema 2. El único valor propio de A es 0, para calcular un vector propio podemos
resolver el sistema AX = 0, y obtener como vector básico del espacio propio E(0) a X1 = (1, 0, −1).
Definimos W = hX1 i. Debemos escoger X2 ∈ / W tal que AX2 ∈ W, para esto debemos encontrar las
T
soluciones de AX2 = (a, 0, −a) , a ∈ R. El vector X2 = (1, 1, 0) satisface las dos condiciones anterio-
res. Ahora debemos escoger X3 ∈ / hX1 , X2 i tal que AX3 ∈ hX1 , X2 i. El vector X3 = (0, 0, 1) cumple
estas condiciones. La matriz C que permite triangularizar es
1 1 0
C= 0 1 0
−1 0 1
y efectivamente
0 1 −2
C −1 AC = 0 0 2
0 0 0
Ejericicio 6.3. Sea K un cuerpo algebraicamente cerrado y sea T : V → V una transformación
de un espacio V de dimensión finita n ≥ 1. Demostrar que en V existen subespacios invariantes
V0 = 0 , V1 , . . . , Vn−1 , Vn = V de dimensiones 0 , 1 , . . . , n − 1, n tales que
V0 ⊂ V1 ⊂ · · · ⊂ Vn−1 ⊂ Vn = V.
Solución: Como K es algebraicamente cerrado podemos aplicar la Proposición 5. Sea v1 un vector
propio de T . Entonces claramente < v1 > es T −invariante de dimensión 1. Si < v1 >= V , ya hemos
terminado: 0 ⊂ V1 =< v1 >= V . Si < v1 >6= V aplicamos la proposición y existe un vector v2 ∈< / v1 >
y tal que (T − aI) (v2 ) ∈< v1 >, donde a es un cierto valor propio de T . Entonces, T (v2 ) = b1 .v1 +
a.v2 , de donde V2 =< v1 , v2 > es T -invariante de dimensión 2. Si V2 = V hemos terminado. De lo
contrario aplicamos nuevamente la proposición mencionada y escogemos un vector v3 ∈ / V2 y tal que
(T − cI) (v3 ) ∈ V2 , para un cierto valor propio c. Entonces, T (v3 ) = b1 .v1 + b2 .v2 + c.v3 , de donde
V3 =< v1 , v2 , v3 > es T -invariante de dimensión 3. Si V3 = V hemos terminado. De lo contrario
continuamos de la misma forma. Nótese que el proceso termina ya que V es de dimensión finita.
Estas relaciones se tienen también para matrices diagonales en bloques de la forma (1) definida arriba.
m(A) = m0 I + m1 A + · · · + ml Al
m0 I + m1 A1 + · · · + ml Al1 ··· 0
.. .. ..
= . . .
0 ··· m0 I + m1 Ar + · · · + ml Alr
m(A1 ) · · · 0
.. .. ..
= . . .
0 ··· m(Ar )
qA1 (A1 )m1 (A1 ) · · · 0
.. .. ..
= . . . = 0.
0 ··· qAr (Ar )mr (Ar )
Para demostrar la segunda parte basta mostrar que qA (x) es múltiplo de cada qAi (x). Sea qA (x) =
q0 + q1 x + · · · + qt xt , entonces qA (A) = 0 luego q0 I + q1 A + · · · + qt At = 0 y
q1 A1 ··· 0 qt At1 ··· 0 qA (A1 ) · · · 0
.. .. .. .. .. .. .. .. ..
q0 I + . . . + ··· + . . . = . . . = 0,
t
0 ··· q1 Ar 0 ··· qt Ar 0 ··· qA (Ar )
luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es múltiplo de cada qAi (x).
Proposición 6.8. Sea V un espacio vectorial descompuesto en suma directas finita de k ≥ 2 subespa-
cios
V = W1 ⊕ · · · ⊕ Wk .
Entonces existen transformaciones lineales T1 , . . . , Tk del espacio V que satisfacen las siguientes con-
diciones:
a) Ti2 = Ti , 1 ≤ i ≤ k.
b) Ti Tj = 0 para i 6= j.
c) IV = T1 + · · · + Tk .
d) Im(Ti ) = Wi , 1 ≤ i ≤ k.
Recı́procamente, si T1 , . . . , Tk son transformaciones lineales del espacio V que satisfacen las condiciones
a) - c) , entonces
V = Im(T1 ) ⊕ · · · ⊕ Im(Tk ).
90 CAPÍTULO 6. FORMAS CANÓNICAS
Para la segunda parte, sea v ∈ V , entonces usando la propiedad c) se tiene que v = T1 (v) +
· · · + Tk (v) ∈ Im(T1 ) + · · · + Im (Tk ). Esto demuestra que V = Im(T1 ) + · · · + Im (Tk ). Sea ahora
0 = T1 (v1 ) + · · · + Tk (vk ), aplicando Ti a cada lado y teniendo en cuenta a) y b) resulta 0 = Ti (vi ),
es decir, la suma es directa.
donde q1 (x) , . . . , qk (x) ∈ K[x] son polinomios mónicos irreducibles diferentes, 1 ≤ grado(qi (x)) ≤ n ,
1 ≤ ri ≤ n , 1 ≤ i ≤ k , 1 ≤ k ≤ n . Sea
Wi = N (qi (T )ri ) , 1 ≤ i ≤ k.
Entonces,
a) Cada Wi es invariante y no nulo.
b) V = W1 ⊕ · · · ⊕ Wk .
c) Sea Ti la restricción de T al subespacio Wi . Entonces el polinomio mı́nimo de Ti es qi (x)ri .
Demostración: Nótese que el teorema se cumple trivialmente para k = 1.
Sea Li = si (T )pi (T ) , 1 ≤ i ≤ k. Se puede probar facilmente que estas transformaciones cumplen las
condiciones a) - c) de la Proposición 8. Entonces V = Im(L1 ) ⊕ · · · ⊕ Im(Lk ).
Queremos ahora demostrar que Im(Li ) = N (qi (T )ri ): sea u ∈ Im(Li ) , entonces u = Li (v) , don-
de v ∈ V , y se tiene que
qi (T )ri (u) = qi (T )ri si (T )pi (T )(v) = si (T )pi (T )qi (T )ri (v) = si (T )qT (T )(v) = 0,
lo cual indica que u ∈ N (qi (T )ri ). Por otro lado, sea u ∈ N (qi (T )ri ); como mencionamos arriba,
IV = L1 + · · · + Lk , y en consecuencia ,
Pero nótese que para j 6= i se tiene que sj (x)pj (x) es múltiplo de qi (x)ri , con lo cual sj (T )pj (T )(u) =
0 ,para j 6= i. Se tiene entonces que u = Li (u), es decir, u ∈ Im(Li ).
6.4. TEOREMA DE DESCOMPOSICIÓN IRREDUCIBLE 91
Según vimos en la Lección 2 , N (qi (T )ri ) es invariante. Puesto que k > 1, grado(qT (x)) > grado(pi (x))
, por lo tanto, pi (T ) 6= 0. Existe entonces v ∈ V tal que w = pi (T )(v) 6= 0, y entonces
Resta probar la parte c). Sea Ti la restricción de T al subespacio Wi = N (qi (T )ri ). Entonces, pa-
ra cada u ∈ Wi se tiene que qi (Ti )ri (u) = qi (T )ri (u) = 0, es decir, qi (Ti )ri = 0, de donde qi (x)ri es
múltiplo del polinomio mı́nimo de Ti , qTi (x). De otra parte, para cada v ∈ V = W1 ⊕ · · · ⊕ Wk se tiene
que Y
qTi (T )pi (T )(v) = qTi (T ) qj (T )rj (w1 + · · · + wk ) = 0,
j6=i
donde wi ∈ Wi , 1 ≤ i ≤ k. Esto quiere decir que qTi (T )pi (T ) = 0, por lo tanto, qTi (x)pi (x) es múltiplo
de qT (x) = pi (x)qi (x)ri , y en consecuencia, qTi (x) es múltiplo de qi (x)ri .
Aclaración. Para la prueba de las partes a) y b) del teorema anterior no es necesario suponer que
el espacio V sea de dimensión finita. Además, podemos reemplazar el polinomio mı́nimo qT (x) por
cualquier polinomio que se anule en T , es decir, por cualquier múltiplo de él. Sin embargo, en esta
generalización no podemos garantizar en la parte a) que cada sumando Wi sea no nulo.
Como consecuencia de este teorema se tiene el siguiente corolario sobre diagonalización en bloques.
El caso n = 1 no es considerado en el corolario, ya que toda transformación lineal de un espacio de
dimensión 1 es diagonalizable en bloques.
Corolario 6.4. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita
n ≥ 2. Supóngase que el polinomio mı́nimo de T tiene la siguiente descomposición :
donde q1 (x) , . . . , qk (x) ∈ K[x] son un polinomios mónicos irreducibles diferentes, 1 ≤ grado(qi (x)) ≤
n − 1 , 1 ≤ ri ≤ n − 1 , 1 ≤ i ≤ k , 2 ≤ k ≤ n . Entonces T es diagonalizable en bloques.
Demostración: Para aplicar la Proposición 7 y el Teorema de descomposición irreducible solo nece-
sitamos probar que para cada 1 ≤ i ≤ k, N (qi (T )ri ) 6= V. Pero esta condición se tiene, ya que si
N (qi (T )ri ) = V para algún i, entonces qi (T )ri = 0 y qi (x)ri serı́a el polinomio mı́nimo de T , en con-
tradicción con la condición k ≥ 2.
Teniendo en cuenta que nuestra definición de diagonalización en bloques requiere de al menos dos
bloques, entonces aún para cuerpos algebraicamente cerrados no toda matriz o transformación lineal
es diagonalizable en bloques. De otra parte, nótese que el recı́proco del corolario anterior no se tiene:
la matriz idéntica es diagonalizable en bloques pero su polinomio mı́nimo es (x − 1).
Ejericicio 6.4. Demuestre que el polinomio mı́nimo de la matriz
11 4
A=
−4 3
es diagonalizable en bloques. Calcule una matriz diagonal en bloques que sea similar a la matriz B.
2 2
36 − 60X + 37X 2 − 10X 3 + X 4 = (X − 2) (X − 3) = qB (x)
Debemos entonces calcular ahora las matrices
−2 −2 −1 1 1 0 2 −1
2 2 1 −1 −4 −2 2 2
(B − 2E) = , (B − 3E) =
2 2
1 1 1 0 −3 −1 −1 2
−3 −3 −2 1 3 1 4 −2
ahora calculamos las bases de sus núcleos:
−2 −2 −1 1
1 −1
2 1
2 1 −1 , nullspace basis: 0 ,
1 1 1 0 −1 0
−3 −3 −2 1 1 0
1 0 −1 −1
0 −1
2 1
1 −1 −1
, nullspace basis: 0 ,
−3 −1 2 2 1 0
3 1 −2 −2 −1 −1
Definimos la matriz “de cambio”
1 −1 0 −1 1 1 0 0
0 1 0 1 0 1 1 1
C= −1
, C −1 = ,
0 1 0 1 1 1 0
1 0 −1 −1 0 0 −1 −1
finalmente,
1 1 0 0 1 −1 0 1 1 −1 0 −1 1 1 0 0
0 1 1 1 0 3 1 0 0 1 0 1 −1 3 0 0
= .
1 1 1 0 2 1 2 −1 −1 0 1 0 0 0 3 0
0 0 −1 −1 −3 −2 0 4 1 0 −1 −1 0 0 1 3
.
6.5. EL TEOREMA DE DESCOMPOSICIÓN CÍCLICA 93
es claramente el menor subespacio invariante de V que contiene al vector v. Este subespacio se conoce
con el nombre de el T -subespacio cı́clico generado por v. Cuando no haya lugar a confusión, diremos
simplemente que [v] es el subespacio cı́clico generado por el vector v. Nótese que
[v]T = hT k (v)|k ≥ 0i
Mas exactamente, [v]T = hT k (v) | 0 ≤ k ≤ m − 1i, donde m es el grado del polinomio mı́nimo de la
transformación T . El vector v se dice que es un vector cı́clico de T si [v]T = V . De manera similar se
define el subespacio [α]A , donde A es una matriz cuadrada de orden n ≥ 1 sobre el cuerpo K y α es
un vector cualquiera de K n . En este contexto , α es un vector cı́clico de la matriz A si [α]A = K n .
Proposición 6.9. Sea T : V → V una transformación lineal de un espacio V de dimensión finita
n ≥ 1 y sea X = {v1 , . . . , vn } una base de V . Entonces, el vector v = c1 .v1 + · · · + cn .vn es un vector
cı́clico de T si y sólo si α = (c1 , . . . , cn ) es un vector cı́clico de la matriz de T en la base X.
Demostración: Sea A = mX (T ) la matriz de la transformación T en la base X; entonces para cada
k ≥ 0 se tiene que Ak es la matriz de T k en la base X. Puesto que V es un K-espacio de dimensión n,
entonces se tiene el isomorfismo
ϕ : V → Kn
vi → ei
donde {e1 , . . . , en } denota la base canónica de K n (véase el Teorema 3 del Capı́tulo 2). Sea v =
c1 .v1 + · · · + cn .vn ∈ V y α = (c1 , . . . , cn ) ∈ K n . Nótese que ϕ(v) = α. Se tiene entonces el siguiente
diagrama conmutativo para cada k ≥ 0 :
V ϕ Kn
→
−
Tk ↓ ↓ Ak
V ϕ Kn
→
−
Debemos demostrar que [v]T = V si y sólo si [α]A = K n . Teniendo en cuenta que [v]T = hT k (v) | 0 ≤
k ≤ m − 1i y que [α]A = hAk .α |0 ≤ k ≤ m − 1i, donde m es el grado del polinomio mı́nimo de T ( y
también de A), entonces basta probar que
hT k (v) | 0 ≤ k ≤ m − 1i = V ⇔ hAk .α |0 ≤ k ≤ m − 1i = K n .
a) [0] = 0
b) dim([v]) = 1 ⇔ v es un vector propio de T .
c) Sea v 6= 0, y qv (x) su polinomio anulador. Entonces dim([v]) =grado (qv (x)). Mas exactamente,
si grado( qv (x)) = k, entonces {v, T (v), . . . , T k−1 (v)} es una base de [v].
d) Sea T [v] la restricción de T a [v]. Entonces, el polinomio mı́nimo de T [v] coincide con el anulador
qv (x) del vector v.
e) Si v es un vector cı́clico de T , entonces qv (x) = qT (x) = pT (x).
Ya estamos en capacidad de enunciar el segundo teorema central del presente capı́tulo.
Teorema 6.5 (de descomposición cı́clica). Sea T : V → V una transformación lineal de un espacio V
de dimensión finita n ≥ 1. Entonces existen r ≥ 1 vectores no nulos v1 , . . . , vr en V con polinomios
anuladores qv1 (x) , . . . , qvr (x) tales que
a) V = [v1 ] ⊕ · · · ⊕ [vr ]
b) qvi+1 (x) | qvi (x) , 1 ≤ i ≤ r − 1.
c) qv1 (x) = qT (x).
Además, el entero r y los polinomios anuladores qv1 (x) , . . . , qvr (x) están unı́vocamente determinados
por a) y b), es decir, si existen otros vectores no nulos w1 , . . . , ws con anuladores qw1 (x) , . . . , qws (x)
tales que se cumplen a) y b), entonces r = s y qvi (x) = qwi (x) para cada 1 ≤ i ≤ r.
Demostración: La prueba de este importante teorema es extensa, razón por la cual la hemos dividido
en varias partes. Primero probaremos lo relativo a la existencia de la descomposición deseada.
Entre todos los vectores u ∈ V − W escogamos uno tal que gr(qu (x)) sea máximo. Sea [u] el subes-
pacio cı́clico generado por el vector u. Aseguramos que W es un subespacio propio de W + [u] :
si W + [u] = W , entonces [u] ⊆ W con lo cual u ∈ W , y esto es imposible. Se tiene entonces que
dim(W +[u]) > dim(W ) . Nótese adicionalmente que W +[u] es invariante ya que es suma de invariantes.
6.5. EL TEOREMA DE DESCOMPOSICIÓN CÍCLICA 95
Hemos demostrado que para cada subespacio propio e invariante W de V existe un vector no nu-
lo u ∈ V − W tal que W + [u] es invariante, dim(W + [u]) > dim(W ) y el grado del polinomio mı́nimo
qu (x) de u relativo a W y a T es máximo.
Paso 2. Tomando en el paso anterior W = 0 encontramos un vector u1 6= 0 tal que [u1 ] es inva-
riante y gr(qu1 (x)) es máximo (en este caso particular qu1 (x) es el polinomio anulador del vector u1 ).
Sea W1 = [u1 ]. Si W1 = V , la prueba de la Parte I ha terminado (en este caso u1 es un vector cı́clico
y por lo tanto qu1 (x) = qT (x). La prueba de la existencia en este caso ya ha terminado).
Parte II. Sea u1 , . . . , ur una colección de r ≥ 2 vectores no nulos de V que cumplen las condiciones
i) y ii) de la Parte I, y sea v un vector cualquiera de V . Para 2 ≤ k ≤ r fijo, sea f (x) el polinomio
mı́nimo de v relativo a Wk−1 = [u1 ] + · · · + [uk−1 ]. Entonces existen polinomios g1 (x), . . . , gk−1 (x) tales
que
f (T )(v) = g1 (T )(u1 ) + · · · + gk−1 (T )(uk−1 ). (6.2)
En esta parte de la prueba queremos demostrar que entonces f (x) divide a cada uno de los polinomios
gi (x). Para cada i consideremos la división con residuo.
gi (x) = f (x)ci (x) + ri (x), ri (x) = 0 ó, gr(ri (x)) < gr(f (x)).
m(T )(v) = m(T )(y+[c1 (T )(u1 )+· · ·+ck−1 (T )(uk−1 )]) = m(T )(y)+m(T )[c1 (T )(u1 )+· · ·+ck−1 (T )(uk−1 )]
T
de donde m(T )(y) ∈ Wk−1 , es decir, m(x) ∈ IW k−1
(y). La prueba de la otra inclusión es completamente
análoga.
Paso 3. Supóngase que no todos los resı́duos ri (x) son nulos, y sea rj (x) 6= 0 con mayor ı́ndice
j. Entonces, f (T )(y) = r1 (T (u1 ) + · · · + rj (T )(uj ); sea p(x) el polinomio mı́nimo de y relativo a
Wj−1 , puesto que Wj−1 ⊆ Wk−1 , entonces de p(T )(y) ∈ Wj−1 se sigue que p(T )(y) ∈ Wk−1 , luego
T T
p(x) ∈ IW k−1
(y) = IW k−1
(v), es decir, p(x) es múltiplo de f (x). Sea p(x) = f (x)g(x). Resulta,
p(T )(y) = g(T )f (T )(y) = g(T )[r1 (T )(u1 ) + · · · + rj (T )(uj )] = g(T )r1 (T )(u1 ) + · · · + g(T )rj (T )(uj );
96 CAPÍTULO 6. FORMAS CANÓNICAS
pero por la definición de p(x), p(T )(y) ∈ Wj−1 y como además W1 ⊆ W2 ⊆ · · · ⊆ Wj−1 son inva-
riantes, entonces g(T )rj (T )(uj ) ∈ Wj−1 , de donde el polinomio g(x)rj (x) es múltiplo del polinomio
mı́nimo de uj realtivo al subespacio Wj−1 . Según la condición ii) de la Parte I, este polinomio mı́nimo
tiene grado máximo, luego el grado de g(x)rj (x) ≥ gr(p(x)). De estas consideraciones se conclu-
ye que gr(g(x)) + gr(rj (x)) = gr(g(x)rj (x)) ≥ gr(p(x)) = gr(f (x)g(x)) = gr(g(x)) + gr(f (x)), luego
gr(rj (x)) ≥ gr(f (x)), obteniéndose una contradicción. Esto indica que efectivamente todos los resı́duos
ri (x) son nulos.
Parte III. La idea ahora es construir los vectores vi de la parte a) del teorema a partir de los
vectores ui que hemos encontrado en la Parte II de la prueba.
Paso 1. Sea u1 , . . . , ur una colección de r ≥ 1 vectores no nulos de V con polinomios mı́nimos qui (x)
que cumplen las condiciones i) y ii) de la Parte I. Si r = 1, entonces, como anotamos antes, V = [u1 ],
u1 es un vector cı́clico y por lo tanto qu1 (x) = qT (x). Sea pues r ≥ 2 como en la Parte II; para cada
1 ≤ i ≤ r queremos construir los vectores vi ; definimos
v1 = u1 ,
según el Paso 2 de la prueba de la Parte I, qv1 (x) es el polinomio anulador del vector v1 . Para i ≥ 2
definimos
vi = ui − [h1 (T )(u1 ) + · · · + hi−1 (T )(ui−1 )], (6.3)
donde los polinomios h1 (x), . . . , hi−1 (x) se definen de la siguiente manera. En calidad de vector v en el
razonamiento de la Parte II tomamos ui y en calidad de f (x) tomamos qui (x) , el polinomio mı́nimo
de ui relativo a Wi−1 ; según (6.2) existen polinomios g1 (x), . . . , gi−1 (x) tales que
qui (T )(ui ) = g1 (T )(u1 ) + · · · + gi−1 (T )(ui−1 )
y además qui (x) divide a cada uno de los polinomios gj (x), 1 ≤ j ≤ i−1. Los polinomios h1 (x), . . . , hi−1 (x)
se definen entonces mediante esta última condición , es decir, son tales que gj (x) = qui (x)hj (x), 1 ≤
T T
j ≤ i − 1. Como en el Paso 2 de la Parte II, IW i−1
(vi ) = IW i−1
(ui ), luego qui (x) es el polinomio mı́nimo
de vi relativo a Wi−1 .
Para comenzar nótese que la intersección de [v1 ] con [v2 ] es nula, es decir que la suma [v1 ] + [v2 ]
es directa: en efecto [v2 ] ∩ [v1 ] = [v2 ] ∩ [u1 ] = [v2 ] ∩W1 = 0.
Supongamos inductivamente que la suma [v1 ] + · · · + [vi−1 ] es directa y probemos que la intersec-
ción de [vi ] con dicha suma es nula. Sea z ∈ [vi ] ∩ ([v1 ] + · · · + [vi−1 ]), entonces existen polinomios
m(x), m1 (x), . . . , mi−1 (x) tales que
6.5. EL TEOREMA DE DESCOMPOSICIÓN CÍCLICA 97
Paso 4. Para terminar la prueba de la parte a) de teorema nótese que V = [v1 ] + · · · + [vr ].
Parte IV. Para la prueba sobre los anuladores se debe demostrar que los polinomios qu1 (x), . . . , qur (x)
encontrados anteriormente son precisamente los anuladores de los elementos v1 , . . . , vr respectivamente.
Sea qvi (x) el polinomio anulador de vi , entonces qvi (T )(vi ) = 0 ∈ Wi−1 , luego qvi (x) es múltiplo
de el polinomio mı́nimo de vi relativo a Wi−1 , es decir, es múltiplo de qui (x). Hemos pues demostrado
que qui (x) = polinomio anulador de vi = qvi (x).
Parte V. Veamos la prueba de la parte b). qvi (T )(vi ) = 0, para cada 1 ≤ i ≤ r. Luego,
luego razonando como en la Parte II se tiene que qvi+1 (x) | qvj (x) para cada 1 ≤ j ≤ i. Esto completa
la prueba de la parte b).
Parte VI. Ahora vamos a demostrar la parte c). Sea qT (x) el polinomio mı́nimo de T, entonces
sabemos que qT (x) es múltiplo de qv1 (x).
De otra parte, según la Parte V, qvi (x) |qv1 (x) para cada 1 ≤ i ≤ r. Existen entonces polinomios
mi (x) tales que qv1 (x) = mi (x)qvi (x). Sea v un vector cualquiera de V , entonces existen polinomios
si (x) tales que
v = s1 (T )(v1 ) + · · · + sr (T )(vr ),
qv1 (T )(v) = s1 (T )(m1 (T )qv1 (T )(v1 )) + · · · + sr (T )(mr (T )qvr (T )(vr )) = 0,
Parte VII. Solo resta probar la parte relativa a la unicidad. Sean w1 , . . . , ws vectores no nulos
con anuladores qw1 (x) , . . . , qws (x) tales que se cumplen las condiciones a) y b) del enunciado del
teorema.
Paso 1. qv1 (x) = qw1 (x) : Basta probar que qw1 (x) = qT (x). Pero esta prueba es idéntica a la
que realizamos en la Parte VI.
Paso 2. Supongamos inductivamente que qvi (x) = qwi (x) para 1 ≤ i ≤ k − 1, donde k ≤ r. Puesto
que k − 1 < r, entonces [v1 ] ⊕ · · · ⊕ [vk−1 ] es un subespacio propio de V , con lo cual
pero como qvi (x) = qwi (x) para 1 ≤ i ≤ k − 1, entonces dim([vi ]) = dim([wi ]) y por lo tanto
dim([w1 ]) + · · · + dim([wk−1 ]) < dim(V ) y por lo tanto k − 1 < s, es decir, k ≤ s. Esto al menos
indica que la pregunta sobre la igualdad de qvk (x) y qwk (x) tiene sentido.
pero como qvi (x) = qwi (x) para 1 ≤ i ≤ k − 1, entonces se puede probar facilmente que los polinomios
anuladores de qvk (T )(vi ) y qvk (T )(wi ) también son iguales y en consecuencia dim([qvk (T )(vi )]) =
dim([qvk (T )(wi )]). Aplicando esto a (6.5) y (6.6) se obtiene que
de donde [qvk (T )(wj )] = 0 para k ≤ j ≤ s, en cosecuencia, qvk (T )(wj ) = 0, de manera que qvk (x) es
múltiplo de qwj (x) para cada k ≤ j ≤ s, en particular qvk (x) es múltiplo de qwk (x).
Podemos repetir todo el razonamiento anterior y probar también que qwk (x) es múltiplo de qvk (x).
Paso 4. Por lo anterior resulta imposible que r 6= s, ya que según vimos k ≤ r si y sólo si k ≤ s.
se conoce con el nombre de matriz compañera del polinomio p(x). Si p(x) = a + x es de grado 1,
entonces la matriz compañera de p(x) se define como la matriz [a] de tamaño 1 × 1. La siguiente
proposición muestra una conexión entre este concepto y el concepto de vector cı́clico presentado en la
lección inmediatamente anterior.
6.6. FORMA CANÓNICA RACIONAL 99
⇐) Sea X = {v1 , . . . , vn } una base de V tal que mX (T ) es la matriz compañera del polinomio mı́nimo
de T , qT (x) = a0 +a1 x+· · ·+ak−1 xk−1 +xk , se tiene entonces necesariamente que k = n, y además, v2 =
T (v1 ), v3 = T (v2 ) = T 2 (v1 ), . . . , vn = T (vn−1 ) = T n−1 (v1 ), es decir, {v1 , T (v1 ), T 2 (v1 ), . . . , T n−1 (v1 )}
es una base de V , con lo cual, V =< v1 , T (v1 ), T 2 (v1 ), . . . , T n−1 (v1 ) >⊆ [v1 ] y v1 es un vector cı́clico
de T .
T (en ) = T n (e1 ) = −a0 .e1 − a1 .e2 − · · · − an−1 .en = −a0 .e1 − a1 .T (e1 ) − · · · − an−1 .T n−1 (e1 ),
es decir, a0 .e1 + a1 .T (e1 ) + · · · + an−1 .T n−1 (e1 ) + T n (e1 ) = 0, lo cual indica que el polinomio p(x) =
a0 + a1 x + · · · + an−1 xn−1 + xn es múltiplo de qe1 (x), y por razones de grado se tiene la igualdad
p(x) = qe1 (x).
Definición 6.7. Sea A una matriz cuadrada de orden n ≥ 1, se dice que A es una matriz racional o
matriz de Frobenius si existen polinomios mónicos no constantes p1 (x), . . . , pr (x) ∈ K[x], 1 ≤ r ≤ n,
tales que pi+1 (x) | pi (x) para cada 1 ≤ i ≤ r − 1 y A es de la forma
A1 · · · 0
.. . . .. ,
. . . (6.7)
0 ··· Ar
donde el bloque Ai es la matriz compañera del polinomio pi (x) , 1 ≤ i ≤ r. Los polinomios pi (x) se
conocen como los factores invariantes de la matriz A. Nótese que el orden de Ai es igual al grado del
polinomio pi (x), además, por el Corolario 3 y la Proposición 11, se tiene que pA (x) = p1 (x) · · · pr (x),
qA (x) = m.c.m{p1 (x), . . . , pr (x)} = p1 (x). Una matriz B se dice racionalizable si B es similar a una
matriz racional. Finalmente, sea T : V → V una transformación lineal de un espacio V de dimensión
n ≥ 1, se dice que T es racionalizable si existe una base X en V tal que la matriz de T en dicha base
es una matriz racional.
De manera inmediata se tiene el siguiente corolario.
Corolario 6.6. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1 y sea
X una base cualquiera de V . Entonces, T es racionalizable si y sólo si mX (T ) es racionalizable.
Teorema 6.6. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1.
Entonces, existe una base X en V tal que mX (T ) es racional. En otras palabras, toda transformación
lineal de un espacio V de dimensión n ≥ 1 es racionalizable. También, toda matriz A de orden n ≥ 1
es racionalizable.
Demostración: Según el Teorema de Descomposición Cı́clica, existen vectores no nulos v1 , . . . , vr ∈ V
con polinomios anuladores qv1 (x), . . . , qvr (x) tales que
V = [v1 ] ⊕ · · · ⊕ [vr ]
y qvi+1 (x) | qvi (x) para cada 1 ≤ i ≤ r − 1. Puesto que los vectores vi son no nulos, entonces los poli-
nomios qvi (x) no son constantes. Teniendo en cuenta que los subespacios [vi ] son invariantes, podemos
aplicar el Corolario 5 de la Lección 6 y la Proposición 7 para completar la prueba del teorema.
Nótese que por el Teorema de Descomposición Cı́clica, existe un vector v1 en V tal que qv1 (x) coincide
con el polinomio mı́nimo de T. Esta observación y el hecho que dim([v1 ])=grado(qv1 (x)), permite
entonces sacar las siguientes conclusiones.
Corolario 6.7. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1.
Entonces,
a) Existe un vector v1 en V tal que qv1 (x) coincide con el polinomio mı́nimo de T.
b) T tiene un vector cı́clico si y solo si pT (x) = qT (x).
Las mismas afirmaciones son válidas para matrices.
6.6. FORMA CANÓNICA RACIONAL 101
Para terminar queremos considerar el problema de similaridad de matrices en términos de los fac-
tores invariantes.
Proposición 6.12. Toda matriz cuadrada B de orden n ≥ 1 es similar a una y sólo una matriz
racional de la forma 6.7 descrita arriba. Los polinomios mónicos p1 (x), . . . , pr (x) se conocen como los
factores invariantes de la matriz B.
K n = [v1 ] ⊕ · · · [vr ]
En efecto, si la matriz racional A tiene un solo bloque, entonces según la Proposición 11 y el Corolario
7, T tiene un vector cı́clico y ası́ K n = [v]. Si el número de bloques de A es r ≥ 2, entonces de acuerdo
a la Proposición 7, K n se descompone en la forma
K n = W1 ⊕ · · · ⊕ Wr ,
Corolario 6.8. Dos matrices cuadradas son similares si y sólo si tienen la misma forma canónica
racional, es decir, si y sólo si tienen los mismos factores invariantes.
(Para este ejercicio considere operaciones elementales en el conjunto de matrices con entradas en
el anillo de polinomios K[x]. La segunda operación elemental debe entenderse en este caso como
multiplicación por un polinomio constante no nulo).
Ejericicio 6.8. Sea A una matriz de grado n ≥ 1 con entradas en un cuerpo K, y sean p1 (x), . . . , pr (x)
sus factores invariantes. Utilizando el Ejercicio 7 demuestre que la matriz xE − A es equivalente a la
matriz
102 CAPÍTULO 6. FORMAS CANÓNICAS
p1 (x) 0 ··· ··· ··· ··· 0
0 p2 (x) ··· ··· ··· ··· 0
.. .. .. .. .. .. ..
. . . . . . .
.. .. .. .. .. ..
. . . pr (x) . . .
.. .. .. .. .. ..
. . . . 1 . .
.. .. .. .. .. .. ..
. . . . . . .
0 0 ··· ··· ··· ··· 1
Solución: Sabemos que A es racionalizable, por lo tanto existe una matriz invertible C tal que
A1 · · · 0
−1 .. . . ..
C AC = . . .
0 ··· Ar
Ejericicio 6.9. Calcular los factores invariates y la forma canónica racional de la matriz
3 −4 −4
A = −1 3 2
2 −4 −3
Además, calcular una matriz racionalizante C.
Solución: Para calcular los factores invariantes, aplicamos el método expuesto en el ejercicio anterior,
es decir, realizamos operaciones elementales sobre la matriz caracterı́sitica xE − A:
6.6. FORMA CANÓNICA RACIONAL 103
x−3 4 4 1 x−3 −2
xE − A = 1 x−3 −2 → x − 3 4 4 →
−2 4 x+3 −2 4 x+3
1 x−3 −2
0 − (x − 5) (x − 1) 2x − 2 →
0 2x − 2 x − 1
1 0 0
0 − (x − 5) (x − 1) 2 (x − 1) →
0 2 (x − 1) x−1
1 0 0 1 0 0
0 − (x − 1) 2
0 → 0 − (x − 1)
2
0 →
0 2 (x − 1) x − 1 0 0 x−1
2
(x − 1) 0 0
0 x−1 0
0 0 1
2
Por lo tanto, p1 (x) = qA (x) = (x − 1) = x2 − 2x + 1, y p2 (x) = (x − 1). La forma racional de A es
entonces
0 −1 0
R= 1 2 0
0 0 1
Veamos ahora como calcular la matriz racionalizante C: según el Teorema de Descomposición Cı́clica se
tiene que R3 = [v1 ]⊕[v2 ], donde v1 es un vector tal que {v1 , Av1 } sean LI pero {v1 , Av1 , A2 v1 } sean LD.
Se puede comprobar que e1 satisface estas dos condiciones de tal forma que {(1, 0, 0) , Ae1 = (3, −1, 2)}
es una base de [v1 ]. Para v2 se debe tener que dim[v2 ] = 1 y v2 ∈ / [v1 ], es decir, v2 es un vector propio
tal que {e1 , Ae1 , v2 } sean LI: los vectores propios son {(2, 1, 0) , (2, 0, 1)}, notemos que
1 3 2
rank 0 −1 1 = 3
0 2 0
En efecto,
−1
1 3 2 3 −4 −4 1 3 2 0 −1 0
0 −1 1 −1 3 2 0 −1 1 = 1 2 0 =R
0 2 0 2 −4 −3 0 2 0 0 0 1
Ejericicio 6.10. En este ejercicio mostramos otro procedimiento para calcular los factores invariantes
de una matriz (la justificación teórica de este procedimiento se puede consultar en N. Jacobson, Basic
Algebra, Freeman, San Francisco, 1974 o también en A. Maltsev, Fundamentos de Algebra Lineal,
Mir, Moscú,1978 ):
104 CAPÍTULO 6. FORMAS CANÓNICAS
4 1 1 1
−1 2 −1 −1
A=
6
1 −1 1
−6 −1 4 2
Solución:
z−4 −1 −1 −1
1 z−2 1 1
Az =
−6 −1 z+1 −1
6 1 −4 z−2
D1 (z) = m.c.d de los polinomios que resultan de calcular los determinantes de todas las subma-
trices de Az de tamaño 1 × 1.
D2 (z) = mcd de de los polinomios que resultan de calcular los determinantes de todas las
submatrices de Az de tamaño 2 × 2.
..
.
Dn (z) = mcd de de los polinomios que resultan de calcular los determinantes de todas las
submatrices de Az de tamaño n × n = pA (z).
D1 (z) = 1
−1 −1
D2 (z) = 1, ya que det =5
1 −4
determinant: z 3 − 3z 2 − 4z + 12 = (z − 3) (z + 2) (z − 2)
determinant: z 2 − z − 6 = (z + 2) (z − 3)
determinant: 6z 2 − 31z + 39 = (6z − 13) (z − 3)
determinant: 6z 2 − 31z + 39 = (6z − 13) (z − 3)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: 6z 2 − 31z + 39 = (6z − 13) (z − 3)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z 2 − z − 6 = (z + 2) (z − 3)
determinant: z 2 − z − 6 = (z + 2) (z − 3)
determinant: 26z − 8z 2 + z 3 − 33 = (z − 3) z 2 − 5z + 11
determinant: 29z − 4z 2 − 51 = (3 − z) (4z − 17)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z 3 − 5z 2 − 2z + 24 = (z − 3) (z − 4) (z + 2).
D4 (z) 2
q1 (z) = = (z + 2) (z − 3) = z 3 − 4z 2 − 3z + 18 = qA (z)
D3 (z)
D3 (z)
q2 (z) = = (z − 3)
D2 (z)
D2 (z)
q3 (z) = =1
D1 (z)
q4 (z) = D1 (z) = 1
Ejericicio 6.11. En este ejercicio mostramos la matriz C que racionaliza la matriz del ejercicio
anterior.
Solucion: Según el ejercicio anterior, la forma canónica racional de A es:
0 0 −18 0
1 0 3 0
B= 0 1
4 0
0 0 0 3
Veamos como calcular C tal que C −1 AC = B. Aplicamos el Teorema de Descomposición Cı́clica:
R4 = [v1 ] ⊕ [v2 ], donde dim [v1 ] = 3, es decir, buscamos un vector v1 tal que {v1 , Av1 , A2 v1 } sean
L.I. pero {v1 , Av1 , A2 v1 , A3 v1 } sean LD. Se puede comprobar que v1 = e1 = (1, 0, 0, 0) satisface estas
condiciones. Para v2 se puede tomar un vector tal que dim ([v2 ]) = 1 y tal que v2 ∈ / [v1 ], es decir, v2 es
un vector propio correspondiente al valor propio 3 y tal que
rank {v1 , Av1 = (4, −1, 6, −6) , A2 v1 = (15, −6, 11, −11) , v2 } = 4:
0
0 1
0 −1 −2
eigenvectors : ↔ −2, , ↔3
−1
0 1
1 1 0
Nótese que
1 4 15 0
0 −1 −6 −1
rank
0
=4
6 11 0
0 −6 −11 1
Resulta entonces que
−1
1 4 15 0 4 1 1 1 1 4 15 0 0 0 −18 0
0 −1 −6 −1 −1 2 −1 −1 0 −1 −6 −1 1 0 3 0
=
0 6 11 0 6 1 −1 1 0 6 11 0 0 1 4 0
0 −6 −11 1 −6 −1 4 2 0 −6 −11 1 0 0 0 3
donde
dim N [qi (T )ri ]
di = ,
gr(qi (x))
para cada 1 ≤ i ≤ k. En otras palabras, qT (x) y pT (x) tienen los mismos factores irreducibles salvo
multiplicidades. Además, si F es un cuerpo que contiene al cuerpo K, entonces
V = [v1 ] ⊕ · · · ⊕ [vr ]
qv1 (x) = qT (x), qvi+1 (x) | qvi (x) para cada 1 ≤ i ≤ r − 1. Sea Ti la restricción de T a [vi ]. Sabemos
que para cada i, qTi (x) = pTi (x) = qvi (x) (véase el Corolario 5); además, pT (x) = qT1 (x) · · · qTr (x), de
donde qT (x) | pT (x).
Sea ahora s(x) un divisor irreducible de qT (x), entonces s(x) es también un factor de pT (x). De
otro lado, sea r(x) un factor irreducible de pT (x) = qT1 (x) · · · qTr (x), entonces existe un i tal que
r(x) | qTi (x), luego r(x) | qT1 (x), es decir, r(x) | qT (x).
V = W1 ⊕ · · · ⊕ Wk , Wi = N (qi (T )ri ), 1 ≤ i ≤ k.
Sea Si la restriccion de T al subespacio Wi ; sabemos entonces que qSi (x) = qi (x)ri , luego pSi (x) =
qi (x)di con algún di ≥ ri . Esto garantiza que pT (x) = q1 (x)d1 . . . qk (x)dk . Se tiene además que
Definición 6.8. Pasamos ahora a definir las celdas, bloques y matrices de Jordan. Sea K un cuerpo
cualquiera y a un elemento de K, la matriz
a 0 ··· 0 0
1 a ··· 0 0
.. .. . . .. ..
Ja,r =
. . . . .
. . .. . ..
.
. . . . .. .
0 0 ··· 1 a
de orden r ≥ 1 se denomina celda o bloque elemental de Jordan de orden r correspondiente al elemento
a. El caso r = 1 debe entenderse como la matriz [a] de tamaño 1 × 1. La matriz Ja con t ≥ 1 celdas
de Jordan, Ja,r1 , Ja,r2 , . . . , Ja,rt de órdenes r1 ≥ r2 ≥ · · · ≥ rt ,
108 CAPÍTULO 6. FORMAS CANÓNICAS
Ja,r1 ··· 0
.. .. ..
Ja = . . . ,
0 Ja,rt
donde Jai es un bloque de Jordan correspondiente al valor ai se denomina matriz de Jordan corres-
pondiente a los elementos a1 , . . . , ak .
Nuestro objetivo ahora es demostrar que toda transformación (matriz) sobre un cuerpo algebraicamente
cerrado es diagonalizable en bloques de Jordan. Podemos comenzar demostrando este resultado para
matrices y transformaciones nilpotentes sobre cualquier cuerpo K. Una transformación T (matriz A)
es nilpotente si existe un entero positivo m ≥ 1 tal que T m = 0 (Am = 0); el menor entero positivo m
con esta condición se denomina red ı́ndice de nilpotencia de T (de A).
donde
0 0 ··· 0 0
1 0 ··· 0 0
.. .. .. .. ..
Mi = . . . . .
0 0 ··· 0 0
0 0 ··· 1 0
es un bloque elemental de Jordan de orden si perteneciente al valor 0 de tal manera que se cumplen
las siguientes propiedades: s1 ≥ s2 ≥ · · · ≥ st ≥ 1, s1 + · · · + st = d y s1 = ı́ndice de nilpotencia de N .
W = [w1 ] ⊕ · · · ⊕ [wt ].
6.7. FORMA CANÓNICA DE JORDAN 109
La matriz compañera de qwi (x) = xsi es un bloque elemental de Jordan Mi de orden sSi perteneciente
t
al valor 0, además si Xi es una base de [wi ], entonces la matriz de N en la base X = i=1 Xi es
M1 ··· 0
.. .. .. .
mX (N ) = . . .
0 ··· Mt
El Teorema de descomposición cı́clica garantiza que el valor t esúnico para N ; veamos que
t = dim(ker(N )).
La idea es probar que {N s1 −1 (w1 ), · · · , N st −1 (wt )} es una base del núcleo de N . Si w ∈ ker(N ),
entonces w = u1 + · · · + ut donde ui es un elemento de [wi ], 1 ≤ i ≤ t. Entonces,
w = g1 (N )(w1 ) + · · · + gt (N )(wt )
donde el grado de gi (x) se puede tomar inferior a si . Entonces, N (w) = 0, y por la invariancia de [wi ]
y la suma directa, se concluye que gi (N )N (wi ) = 0. Esto implica que xsi divide a gi (x)x, pero por la
escogencia del grado de gi (x) se tiene que gi (x)x = bi xsi , bi ∈ K. Por lo tanto, gi (x) = bi xsi −1 , y en
consecuencia,
w = b1 N s1 −1 (w1 ) + · · · + bt N st −1 (wt ).
Demostración: Sea
V = W 1 ⊕ · · · ⊕ Wk ,
Ni = Ti − ai I : Wi → Wi .
Podemos ahora aplicar la Proposición 13 y encontrar una base Xi en Wi para la cual se tiene la
siguiente presentación:
Mi1 · · · 0
.. .. ..
mXi (Ni ) = . . . ,
0 ··· Miti
donde Mij es un bloque elemental de Jordan de tamaño sij correspondiente al valor 0 y de tal forma
que
Pero mXi (Ti ) = mXi (Ni ) + mXi (ai I), con lo cual mXi (Ti ) es un bloque de Jordan correspondiente
al valor ai de tamaño di y dividido en ti bloques elementales de Jordan correspondientes al valor ai
con tamaños que satisfacen la condición (1). Esto completa la prueba de la diagonalización de T en
bloques de Jordan.
Podemos complementar el resultado del teorema mostrando que el número ti de bloques elementa-
les de Jordan correspondientes al valor ai viene dado por
ti = dim(E(ai )).
La última afirmación del teorema es cierta ya que matrices similares tienen el mismo polinomio carac-
terı́stico.
Como consecuencia directa del teorema anterior, del Teorema de Hamilton-Cayley y del Teorema 2, se
obtiene en forma inmediata el siguiente corolario.
Corolario 6.10. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita
n ≥ 1. Entonces, T es diagonalizable en bloques de Jordan si, y sólo si, T es triangulable.
Ejemplo 6.1. En este ejemplo mostramos una matriz invertible C tal que C −1 AC es una matriz de
Jordan, donde
4 1 1 1
−1 2 −1 −1
A= 6
1 −1 1
−6 −1 4 2
6.7. FORMA CANÓNICA DE JORDAN 111
0 0 0 3
Queremos ahora calcular la matriz C. Para esto consideramos a la matriz A como una transformación L
lineal de R4 en la base canónica. De acuerdo a la prueba del Teorema 8 se tiene que R4 = W1 W2 ,
donde W1 = ker(A + 2E) = h(0, 0, −1, 1)i y W2 = ker[(A − 3E)2 ] = h(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)i;
debemos encontrar bases X1 en W1 y X2 en W2 de tal forma que C es la matriz de cambio de la base
canónica de R4 a la base X = X1 ∪ X2 . Consideremos las transformaciones N1 = A + 2E : W1 → W1
y N2 = A − 3E : W2 → W2 . Nótese que N1 es nilpotente de ı́ndice 1y N2 es nilpotente de ı́ndice 2.
Según la prueba de la Proposición 13 debemos descomponer W1 y W2 en suma directa de subespacios
cı́clicos. Como W1 = E(−2) = h(0, 0, −1, 1)i, entonces la descomposición de W1 es trivial: W1 = [v1 ]
con v1 = (0, 0, −1, 1), y en consecuencia, X1 = {(0, 0, −1, 1)}. Para W2 se tiene que: existe un vector
v2 ∈ W2 tal que su polinomio anulador es x2 y {v2 , N2 (v2 )} es una base de L [v2 ], también debe tenerse
un vector v3 ∈ W2 tal que su polinomio anulador divide a x2 y W2 = [v2 ] [v3 ]. Nótese que en calidad
de v2 podemos tomar a (0, 0, 0, 1) de tal forma que N2 (v2 ) = (1, −1, 1, −1); puesto que dim[v3 ] = 1,
entonces el polinomio anulador de v3 es x y en consecuencia v3 pertenece al núcleo de N2 , luego
v3 ∈ E(3). Tomando v3 = (0, −1, 0, 1) se tiene que {(0, 0, 0, 1) , (1, −1, 1, −1) , (0, −1, 0, 1)} es una base
de W2 . La matriz C es entonces
0 0 1 0 1 0 −1 0
0 0 −1 −1 1 1
C= , C −1 = 1 1 ,
−1 0 1 0 1 0 0 0
1 1 −1 1 −1 −1 0 0
1 0 −1 0 4 1 1 1 0 0 1 0 −2 0 0 0
1 1 1 1 −1 2 −1 −1 0 0 −1 −1 0 3 0 0
= .
1 0 0 0 6 1 −1 1 −1 0 1 0 0 1 3 0
−1 −1 0 0 −6 −1 4 2 1 1 −1 1 0 0 0 3
Álgebra Lineal
Capı́tulo 6. Formas Canónicas
Ejercicios.
1. Sea T : V → V una transformación lineal de un espacio K-espacio V de dimensión
finita n ≥ 1. Demostrar que T es invertible si y sólo si el término independiente q0 del
polinomio mı́nimo qT (x) es no nulo.
2. Determinar la forma canónica de Jordan de la matriz:
0 0 1 0
0 0 0 −1
1 0 0 0
0 −1 0 0
(ii) IV = T1 + · · · + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
1
(v) Ti (V ) = E(αi ), 1 ≤ i ≤ k.
Demostrar también el recı́proco de esta afirmación, es decir, si existen k escalares distintos
α1 , . . . αk y k transformaciones lineales T1 , . . . , Tk de V , con k ≤ n, que satisfacen (i)-(iii),
entonces T es diagonalizable, α1 , . . . αk son los valores propios distintos de T y (iv)-(v)
también se cumplen.
9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT .
10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un número natural
m para el cual se tiene que Am = E . Demostrar que A es diagonalizable (E denota la
matriz idéntica de tamaño n).
11. Sean S, T : V → V transformaciones tales que ST = T S. Demostrar que ker(S) e
Im(S) son subespacios T -invariantes.
12. Sea T : V → V una transformación lineal de un espacio V de dimensión finita.
Demostrar que existe un entero k tal que:
(a) Para j ≥ k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y además V = Im(T k ) ⊕ N (T k ).
13. Calcular, usando los resultados del presente capı́tulo, una matriz invertible C tal que
C −1 BC sea una matriz de Jordan, donde
7 1 2 2
1 4 −1 −1
−2 1 5 −1
1 1 2 8
14. Sea T : C2 → C2 una transformación lineal con un solo valor propio λ. Demostrar que
T − λI es nilpotente.
15. Sea T : V → V una transformación lineal invertible en un espacio V complejo de
dimensión finita. Demostrar que existe una transformación S : V → V tal que S 2 = T
(sugerencia: use la forma canónica de Jordan). Se dice que S es la raı́z cuadrada de T .
16. Encontrar la raı́z cuadrada de la siguiente matriz
2 −1 1
−1 2 −1
−1 −1 2
17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una
matriz C triangulante:
1 1 0 0
−1 −1 0 0
−2 −2 2 1
1 1 −1 0
2
18. Calcular la forma canónica racional de la transformación T : R3 → R3 definida por
T (x, y, z) = (4z, y − x + 2z, 3x − z).
19. Para la matriz real
−1 −1 0 −8
1 1 0 4
A= 0
1 0 −5
0 0 1 4
determinar:
(a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante.
(b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante.
(c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la con-
vierta en matriz diagonal en bloques.
(d) La forma racional de A y una matriz racionalizante.
(e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz
que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
20. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que la forma racional de A es la compañera del polinomio mı́nimo de A (en
consecuencia, la forma racional de A tiene un solo bloque racional).
21. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que A no es diagonalizable en bloques.
3
Álgebra Lineal
Capı́tulo 6. Formas Canónicas
Ejercicios.
1. Sea T : V → V una transformación lineal de un espacio K-espacio V de dimensión
finita n ≥ 1. Demostrar que T es invertible si y sólo si el término independiente q0 del
polinomio mı́nimo qT (x) es no nulo.
Solución. Sea pT (x) = p0 + p1 x + · · · + xn el polinomio caracterı́stico de T , entonces
p0 = (−1)n det(T ), luego Si T es invertible entonces p0 es no nulo, pero según el Teorema
de Hamilton-Cayley qT (x) divide a pT (x) y esto implica que p0 = q0 s0 , con s0 ∈ K, por
lo tanto q0 es no nulo.
Recı́procamente, sea q0 no nulo, esto indica que 0 no es raı́z de qT (x), y nuevamente por
la versión general del Teorema de Hamilton-Cayley, 0 no puede ser raı́z de pT (x), luego
p0 es no nulo y entonces T es invertible.
2. Calcular la forma de Jordan de la matriz
0 0 1 0
0 0 0 −1
1 0 0 0
0 −1 0 0
3. Determinar la forma canónica de Jordan de la matriz:
5 −10 10 −5 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
1
mXi (T1i ) y mXi (T2i ) son matrices diagonales. Tenemos entonces que V = W1 ⊕ · · · ⊕ Ws y
X = ∪si=1 Xi es una base de V , pero como Wi es T1 , T2 -invariante, entonces
mX1 (T11 ) 0
..
mX (T1 ) = .
0 mXs (T1s )
mX1 (T21 ) 0
..
mX (T2 ) = .
0 mXs (T2s )
W1 = E(ai1 ) ⊕ · · · ⊕ E(ais ) = W .
6. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 tal que su número de entradas nulas
es superior a n2 − n. Demostar que el determinante de A es igual a cero.
7. Sea A = [aij ] una matriz cuadrada invertible de orden n ≥ 1. Demostrar que
2
donde pA (x) denota el polinomio caracterı́stico de la matriz A.
8. Sea T : V −→ V una transformación lineal de un K-espacio de dimensión finita n.
Supongamos que T es diagonalizable y que α1 , . . . αk son los distintos valores propios de
T , 1 ≤ k ≤ n. Demostrar que existen transformaciones lineales T1 , . . . , Tk de V tales que:
(i) T = α1 T1 + · · · + αk Tk
(ii) IV = T1 + · · · + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
(v) Ti (V ) = E(αi ), 1 ≤ i ≤ k.
Demostrar también el recı́proco de esta afirmación, es decir, si existen k escalares distintos
α1 , . . . αk y k transformaciones lineales T1 , . . . , Tk de V , con k ≤ n, que satisfacen (i)-(iii),
entonces T es diagonalizable, α1 , . . . αk son los valores propios distintos de T y (iv)-(v)
también se cumplen.
9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT .
10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un número natural
m para el cual se tiene que Am = E . Demostrar que A es diagonalizable (E denota la
matriz idéntica de tamaño n).
Solución. Si m = 1, no hay nada que demostrar. Sea m ≥ 1, existe C compleja e
invertible de orden n tal que C −1 AC = J, donde J es la forma de Jordan de A. Entonces,
(C −1 AC)m = J m = C −1 Am C = E, luego para cada celda Ja,r de J también se tiene que
m
Ja,r = Er , donde Er denota la idéntica de tamaño r. Supongamos que alguna celda es
m
de orden r > 1, entonces por sobre la diagonal principal de Ja,r tenemos am = 1 y en la
m−1
segunda diagonal por debajo de la principal tenemos ma = 0, lo cual es contradictorio.
Por lo tanto, r = 1 y J es una matriz diagonal, es decir, A es diagonalizable.
11. Sean S, T : V → V transformaciones tales que ST = T S. Demostrar que ker(S) e
Im(S) son subespacios T -invariantes.
12. Sea T : V → V una transformación lineal de un espacio V de dimensión finita.
Demostrar que existe un entero k tal que:
(a) Para j ≥ k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y además V = Im(T k ) ⊕ N (T k ).
Solución. Considérense las siguientes cadenas de subespacios:
Estas cadenas se deben estabilizar ya que V es de dimensión finita, esto quiere decir que
existen py qenteros tales que Im(T j ) = Im(T p )si j ≥ py ker(T j ) = ker(T q )si j ≥ q. Siendo
k = máx{p, q}se cumple la parte (a).
3
Según la Lección 2 del Capı́tulo 6, Im(T k )y ker(T k )son subespacios T -invariantes. Veamos
ahora que V es suma directa de ellos. Sea x ∈ Im(T k ) ∩ ker(T k ), entonces x =T k (v), y
T k (x) = 0, luego 0 = T k (x) = T 2k (v), es decir, v ∈ ker(T 2k ) = ker(T k ), es decir,
T k (v) = 0, o sea que x = 0. Para la transformación T k : V → V se tiene que dim(V ) =
dim N (T k ) + dim(Im(T k )), pero como estos subespacios están en suma directa, entonces
V = Im(T k ) ⊕ ker(T k ).
13. Calcular, usando los resultados del presente capı́tulo, una matriz invertible C tal que
C −1 BC sea una matriz de Jordan, donde
7 1 2 2
1 4 −1 −1
−2 1 5 −1
1 1 2 8
Solución. El primer paso es calcular el polinomio caracterı́stico y el polinomio mı́nimo
de B, para esto usamos el SWP: pB (x) = (x − 6)4 , qB (x) = (x − 6)3 . Esto indica que la
matriz de Jordan de B tiene un solo bloque de Jordan. El número de bloques elementales
de Jordan correspondientes al valor propio 6 es igual a la dimensión de E(6), y el primer
bloque elemental de Jordan es la multiplicidad de 6 en el polinomio mı́nimo, o sea 3. Con
esta información podemos asegurar que dim(E(6)) = 2 y también ya tenemos la forma de
Jordan para la matriz B:
6 0 0 0
1 6 0 0
J = 0 1 6 0
0 0 0 6
Debemos ahora calcular la matriz C. Vamos a asumir que B representa una transfor-
mación lineal B : R4 → R4 (no necesitamos considerarla sobre C ya que su polinomio
caracterı́stico se factoriza completamente en R). Se tiene entonces que R4 = ker((B−6I)3 ).
Debemos encontrar una base X en ker((B − 6I)3 ) de tal forma que la matriz C será la
matriz de cambio de la canónica de R4 a esta nueva base X. Consideremos para es-
to la transformación N = B − 6I : R4 → R4 ; N es nilpotente de ı́ndice 3 y según la
Proposición 13, R4 se descompone en suma directa de 2 subespacios cı́clicos (recuérdese
que 2 = dim(ker(N )) = dim ker(B − 6I) = dim(E(6))). Sea pues R4 = [w1 ] ⊕ [w2 ],
donde w1 tiene como polinomio anulador a x3 y {w1 , N w1 , N 2 w1 } es una base de [w1 ]
y, w2 es tal que su polinomio anulador divide a x3 . Pero como dim([w2 ]) = 1 el poli-
nomio anulador de w2 es x, esto indica que N (w2 ) = 0, es decir, w2 debe pertenecer al
núcleo de N y no estar en la envolvente lineal de {w1 , N w1 , N 2 w1 } (debido a que la suma
es directa). Pasemos entonces a encontrar los vectores w1 y w2 con estas condiciones.
En calidad de w1 ∈N ((B − 6I)3 ) = R4 tomamos el vector w1 = (0, 0, 0, 1), entonces
N w1 = (2, −1, −1, 2) y N 2 w1 = (3, 3, −6, 3); nótese que estos tres vectores son LI. Ahora
4
w2 ∈ N (B − 6I) = E(6) =< (−1, −1, 1, 0), (−1, −1, 0, 1) > y {w1 , N w1 , N 2 w1 , w2 } deben
ser LI. En calidad de C entonces tomamos
0 2 3 −1
0 −1 3 −1
0 −1 −6 1
1 2 3 0
0 1 1 1 7 1 2 2 0 2 3 −1 6 0 0 0
1 −1
0 0 1 4 −1 −1 0 −1
3 −1 1 6 0 0
y de esta forma: 3 3
− 2 − 1 − 1 0 −2 1 0 −1 −6 =
9 9 3
5 −1 1 0 1 6 0
−1 −1 −1 0 1 1 2 8 1 2 3 0 0 0 0 6
14. Sea T : C → C una transformación lineal con un solo valor propio λ. Demostrar que
2 2
T − λI es nilpotente.
15. Sea T : V → V una transformación lineal invertible en un espacio V complejo de
dimensión finita. Demostrar que existe una transformación S : V → V tal que S 2 = T
(sugerencia: use la forma canónica de Jordan). Se dice que S es la raı́z cuadrada de T .
16. Encontrar la raı́z cuadrada de la siguiente matriz
2 −1 1
−1 2 −1
−1 −1 2
1 1 0 0
−1 −1 0 0
−2 −2 2 1
1 1 −1 0
5
(b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante.
(c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la con-
vierta en matriz diagonal en bloques.
(d) La forma racional de A y una matriz racionalizante.
(e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz
que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
Solución. (a) Calculamos el polinomio mı́nimo de A: para esto podemos realizar opera-
ciones elementales sobre la matriz xE − A y obtenemos
2
(x + 1)(x − 2)2 0 0 0
0 1 0 0
,
0 0 1 0
0 0 0 1
por lo tanto para la matriz A se encuentra que PA (x) = (x2 + 1)(x − 2)2 = qA (x). Se tiene
que A no es una matriz diagonalizable.
(b) A no es una matriz triangulable (considerada como matriz real).
(c) Puesto que qA (x) tiene dos factores, entonces A es diagonalizable en bloques (si qA (x)
tuviera solo un factor irreducible, no podrı́amos todavı́a decidir nada respecto a la diag-
onalización en bloques). Calculamos
ker(A2 + E) =< (8, −4, 1, 0), (28, −12, 0, 1) >
ker[(A − 2E)2 ] =< (1, 0, 1, 0), (−1, 1, 0, 1) >
La matriz que diagonaliza en loques es
8 28 1 −1
−4 −12 0 1
C=
1
,
0 1 0
0 1 0 1
y se puede comprobar que
−4 −17 0 0
1 4 0 0
C −1 AC =
0
.
0 0 −4
0 0 1 4
(d) La forma racional de A se calcula con los factores invariantes. Según la parte (a), solo
hay un factor invariante, el polinomio mı́nimo qA (x) = x4 − 4x3 + 5x2 − 4x + 4. Por lo
tanto, la forma racional de A es
0 0 0 −4
1 0 0 4
R= 0 1 0 −5 .
0 0 1 4
6
Puesto que pA (x) = qA (x), entonces A tiene un vector cı́clico v, y para él se tiene que
{v, Av, A2 v, A3 v} es una base de R4 de tal forma que R4 = [v]. Se puede verificar que v se
puede tomar como uno cualquiera de los 4 vectores canónicos de R4 . Si tomamos v = e1 ,
entonces la matriz que racionaliza es
1 −1 0 0
0 1 0 0
C = [v Av A2 v A3 v] =
0
,
0 1 0
0 0 0 1
y se comprueba que C −1 AC = R.
(e) A no es diagonalizable en bloques de Jordan ya que su polinomio caracterı́stico no
puede factorizar completamente en factores lineales reales.
(f) Vamos a considerar ahora la matriz A sobre el cuerpo de números complejos. Entonces,
A no es diagonalizable pero si es triangulable. En efecto, qA (x) = (x − i)(x + i)(x − 2)2 .
Calculemos una matriz C que triangule a la matriz A. Elegimos un vector propio v1 de A.
Primero calculemos E(i) =< (−4 + 8i, 4 − 4i, −4 + i, 1) >,E(−i) =< (−4 − 8i, 4 + 4i, −4 −
i, 1) > y E(2) =< (−3, 1, −2, 1) >. Escogemos v1 = (−3, 1, −2, 1) y buscamos ahora un
vector v2 ∈<
/ v1 > pero tal que (A − λE)v2 ∈< v1 >, siendo λ algún valor propio de A.
Tomemos λ = 2, debemos entonces resolver el siguiente sistema:
−3 −1 0 −8 a −3
1 −1 0 4
b = θ 1
0 1 −2 −5 c −2
0 0 1 2 d 1
7
ahora elegir al valor τ = −i, con lo cual debemos resolver el sistema
se comprueba que
i 0 0 0
0 −i 0 0
C −1 AC =
0 0 0 −4 .
0 0 1 4
La forma racional para A es única, y no depende si extendemos el cuerpo de escalares.
En efecto, sea A ∈ Mn (K) y sea F ⊇ K, si R es la forma racional de A relativa a K,
entonces existe una matriz C ∈ GLn (K) tal que C −1 AC = R. Teniendo en cuenta que
GLn (K) ⊆ GLn (F ), entonces R es la forma racional de A considerada como matriz de
Mn (F ). Por lo tanto, la matriz que obtuvimos en el caso real es la misma que en el caso
complejo.
8
Para terminar, notemos que los cálculos ya realizados nos permiten obtener en forma
inmediata la forma de Jordan para A: el número de bloques de Jordan es 3, para el valor
i el bloque es de orden 1 × 1, lo mismo ocurre para el valor −i. Para el valor 2 el bloque
es de tamaño 2 × 2, además el número de celdas para este bloque es la dimensión de
E(2) = 1, luego la forma es
i 0 0 0
0 −i 0 0
J = 0 0 2 0 .
0 0 1 2
Para el cálculo de la matriz C se tiene: C4 = ker(A − iE) ⊕ ker(A + iE) ⊕ ker[(A − 2E)2 ].
Ya sabemos que ker(A−iE) =< (−4+8i, 4−4i, −4+i, 1) >, ker(A+iE) =< (−4−8i, 4+
4i, −4−i, 1) >. Sea W = ker[(A−2E)2 ] =< (1, 0, 1, 0), (−1, 1, 0, 1) >. Consideremos ahora
la transformación nilpotente de ı́ndice 2, N = A − 2E : W −→ W , debemos encontrar
un vector w ∈ W tal que W = [w] =< w, N w >, escogemos el vector w = (1, 0, 1, 0) de
tal forma que N w = (−3, 1, −2, 1). Notemos que estos dos vectores son LI, luego son una
base de W . Se comprueba entonces que para la matriz
−4 + 8i −4 − 8i 1 −3
4 − 4i 4 + 4i 0 1
C= −4 + i −4 − i 1 −2 .
1 1 0 1
se tiene que
i 0 0 0
0 −i 0 0
C −1 CJ =
0 0 2 0 .
0 0 1 2
Una observación final: notemos que la matriz racional de A tiene un solo bloque, pero la
matriz de Jordan tiene tres bloques. Por lo tanto, un solo bloque racional no garantiza
una sola celda de Jordan. Además, este ejemplo muestra que la forma de bloques de una
matriz no es única.
20. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que la forma racional de A es la compañera del polinomio mı́nimo de A (en
consecuencia, la forma racional de A tiene un solo bloque racional).
Solución. Sea J la forma canónica de Jordan de A, la cual es una celda de Jordan
correspondiente al valor a . Sabemos que A es similar a J, por lo tanto, la forma racional de
A y J coinciden. Pero una celda de Jordan tiene como vector cı́clico a e1 , y en consecuencia,
la forma racional de J es la compañera de su polinomio mı́nimo qA (x) = pA (x) = (x − a)n .
21. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que A no es diagonalizable en bloques.
9
Solución. Supongamos que A es diagonalizable en dos bloques A1 , A2 , de tamaños mi <
n, i = 1, 2. Sabemos que qA (x) = m.c.m(qA1 (x)qA2 (x)), pero esto es contradictorio con los
resultados del problema anterior ya que qA (x) = (x − a)n , para un cierto a.
10
Capı́tulo 7
Espacios Duales
Introducción
La colección de transformaciones lineales de un K-espacio vectorial V en K constituye un nuevo espacio
vectorial con propiedades similares a las de V, y es muy útil para el estudio geométrico de los espacios
con producto interno que serán abordados en lo que resta del curso.
Definición 7.1. Una transformación lineal T : V → K se dice que es un funcional del espacio V .
Algunos ejemplos de funcionales son los siguientes.
Ejemplo 7.1. Sea Mn (K) el espacio de matrices cuadradas de orden n ≥ 1 sobre el cuerpo K. La
función traza definida por
tr : Mn (K) −→ K Pn
A = [aij ] 7−→ tr(A) = k=1 akk
es un funcional sobre el espacio Mn (K). De otra parte, sea K[x] es espacio de los polinomios con
coeficientes en K y sea a un elemento fijo de K. Entonces, la función que evalua cada polinomio de
K[x] en el punto a es un funcional. Finalmente, sea C[a, b] el espacio de funciones continuas en el
Rb
intervalo cerrado [a, b], la integral definida a f (x)dx establece un funcional sobre el espacio C[a, b].
Proposición 7.1. Sea V un espacio de dimensión finita n ≥ 1 y sea X = {v1 , . . . , vn } una base de
V . Entonces, existe una única base X ∗ = { v1∗ , . . . , vn∗ } en V ∗ tal que
1, si j = i
vi∗ (vj ) =
0, si j 6= i
125
126 CAPÍTULO 7. ESPACIOS DUALES
(a, b, c) = v1∗ (v). (1, 0, −1) + v2∗ (v). (1, 1, 1) + v3∗ (v).(2, 2, 0)
de donde
Sea af1 + bf2 + cf3 = 0 , aplicamos esta relación a los vectores dela base canonica {1, x, x2 }:
af1 (1) + bf2 (1) + cf3 (1) = 0 af1 (x) + bf2 (x) + cf3 (x) = 0 af1 (x2 ) + bf2 (x2 ) + cf3 (x2 ) = 0
Para el polinomio 1 tenemos:
R1 R2 R −1
f1 (1) = 0
dz = 1 f2 (1) = 0
dz = 2 f3 (1) = 0
dz = −1
Para el polinomio x tenemos:
R1 1
R2 R −1 1
f1 (x) = 0 zdz = 2 f2 (x) = 0
zdz = 2 f3 (x) = 0
zdz = 2
Sea pues W no nulo y {w1 , ..., wk } una base de W . Entonces, completamos esta base hasta una base
de V : X = {w1 , ..., wk , z1 , ..., zr } de tal forma que k + r = n. Definimos ahora la transformación lineal
α : V ∗ → W∗
α (f ) = f (w1 ) .w1∗ + · · · + f (wk ) .wk∗
Nótese que N (α) = W 0 . (En forma complementaria podemos demostrar que z1∗ , ..., zr∗ es una base de
W 0 : la independencia lineal es clara ya que estos funcionales son parte de la base dual X ∗ . Sea f ∈
W 0 , entonces el funcional f se puede expresar en la forma f = f (w1 ) w1∗ + · · · + f (wk ) wk∗ + f (z1 ) z1∗ +
· · · + f (zr ) z1∗ =
0 + f (z1 ) z1∗ + · · · + f (zr ) z1∗ = f (z1 ) z1∗ + · · · + f (zr ) z1∗ . Esto garantiza que la envolvente lineal de
z1∗ , ..., zr∗ coincide con W 0 ).
f) La condición necesaria es evidente. Ahora, si W10 = W20 , entonces según la parte e) dim (W1 ) =
dim (W2 ). Basta entonces demostrar que W2 ⊆ W1 . Supongamos lo contrario, entonces existe un vector
no nulo v ∈ W2 pero v ∈ / W1 . Sea {w1 , ..., wk } una base de W1 , entonces {w1 , ..., wk , v} es LI y pode-
mos completar este conjunto hasta una base de V : {w1 , ..., wk , v, wk+2 , ..., wn }; consideremos la dual
de esta base. Para cada vector x = a1 .w1 + · · · + ak .wk ∈ W1 se tiene que v ∗ (a1 .w1 + · · · + ak .wk ) = 0
/ W20 , es decir, W10 6= W20 .
y v ∗ (v) = 1, de donde v ∗ ∈ W10 y v ∗ ∈
128 CAPÍTULO 7. ESPACIOS DUALES
Ejericicio 7.3. Sea W la envolvente lineal de los vectores w1 = (2, −2, 3, 4, −1), w2 = (−1, 1, 2, 5, 2),
w3 = (0, 0, −1, −2, 3), w4 = (1, −1, 2, 3, 0). Calcular W ◦ .
Por tanto, dim (W ) = 3 y X = {v1 =(1, −1, 0, −1, 0) , v2 = (0, 0, 1, 2, 0) , v3 = (0, 0, 0, 0, 1)} es una
base de W . Esto implica que dim W 0 = 2. La base X se puede completar hasta una base de R5 :
Y = X ∪{v4 = (0, 1, 0, 0, 0) , v5 = (0, 0, 0, 1, 0)}. Según se vió en la demostración de la propiedad e) en la
Lección 2 del Capı́tulo 7, {v4∗ , v5∗ } es una base de W 0 . Ası́ pues, un elemento f de W 0 es de la forma f =
av4∗ + bv5∗ . Queremos ahora calcular en forma explı́cita la imagen de un vector (x1 , x2 , x3 , x4 , x5 ) ∈ R5
a través de f : f (x1 , x2 , x3 , x4 , x5 ) = av4∗ (x1 , x2 , x3 , x4 , x5 ) + bv5∗ (x1 , x2 , x3 , x4 , x5 ). Debemos entonces
expresar (x1 , x2 , x3 , x4 , x5 ) a través de la base Y , es decir, expresar los vectores canónicos e1 , ..., e5 a
través de la base Y . Para esto debemos calcular la inversa de la matriz
1 0 0 0 0
−1 0 0 1 0
0 1 0 0 0
−1 2 0 0 1
0 0 1 0 0
1 0 0 0 0
0 0 1 0 0
inverse :
0 0 0 0 1
1 1 0 0 0
1 0 −2 1 0
entonces
e 1 = v1 + v4 + v5
e 2 = v4
e3 = v2 − 2v5
e 4 = v5
e 5 = v3
Sea {f1 , . . . , fn } una base de V ∗ y sea {t1 = f1∗ , . . . , tn = fn∗ } su base dual, entonces ti (fj ) = 1
si i = j y ti (fj ) = 0 si i 6= j . Sea v1 , . . . , vn los vectores definidos en la parte a), es decir, tales que
ti (fj ) = fj (vi ). Usando la notación de la Proposición 2, vi = F −1 (ti ), con lo cual {v1 , . . . , vn } es una
base de V . Resulta entonces que {f1 , . . . , fn } es la base dual de {v1 , . . . , vn }. En efecto, vi∗ = fi para
cada 1 ≤ i ≤ n, ya que
Según lo anterior podemos identificar los funcionales de V ∗∗ con los vectores de V , ası́: t ∈ V ∗∗
se identifica con el vector vt ∈ V tal que t(f ) = f (vt ) para cada f ∈ V ∗ ; de esta manera podrı́amos
reemplazar t por vt y escribir que vt (f ) = f (vt ) para cada f ∈ V ∗ .
Corolario 7.2. Sea V un espacio de dimensión finita n ≥ 1 y sea S 6= ∅ un subconjunto de V .
Entonces, S ◦◦ = hSi. En particular, si W es un subespacio de V , entonces W ◦◦ = W.
Demostración: Por definición
S ◦ = {f ∈ V ∗ | f (x) = 0 para cada x ∈ S}, S ◦◦ = {T ∈ V ∗∗ | T (f ) = 0 para cada f ∈ S ◦ },
pero de acuerdo a la identificación acordada podemos escribir que
S ◦◦ = {v ∈ V | f (v) = 0 para cada f ∈ S ◦ }.
En este orden de ideas, veamos que hSi ⊆ S ◦◦ : sea v = a1 .x1 +· · ·+an .xn ∈ hSi, donde ai ∈ K y xi ∈ S
para cada 1 ≤ i ≤ n, entonces para cada f ∈ S ◦ se tiene que f (v) = a1 .f (x1 ) + · · · + an .f (xn ) = 0, es
decir, v ∈ S ◦◦ .
De otra parte, nótese que hSi◦ = S ◦ ; por la propiedad e) en Lección 2 se tiene entonces que
130 CAPÍTULO 7. ESPACIOS DUALES
Tt : W∗ −→ V∗
f 7−→ T t (f ) = Tft
donde
Tft : V −→ K
v 7−→ Tft (v) = f (T (v))
Se puede probar muy facilmente que T t es una transformación lineal la cual se conoce con el nombre
de transpuesta de T . Algunas propiedades de la transpuesta son las siguientes.
a) N (T t ) = Im(T )◦
c) Im(T t ) = N (T )◦ .
Ejemplo 7.2. Sea V = R[x] el espacio de polinomios reales y a, b elementos fijos de R. Sea f el
funcional
Rb
f (p(x)) = a p(z)dz.
p1 x + p2 x2 + · · · + pn xn |ba = p1 b + p2 b2 + · · · + pn bn − p1 a − p2 a2 − · · · − pn an =
p(b) − p(a).
Ejemplo 7.3. Sea V = Rn [x] el espacio de polinomios reales de grado ≤ n y sea D el operador
derivación sobre V. Entonces (xn )∗ es una base del núcleo de Dt , además, (xn )∗ (a0 +a1 x+· · ·+an xn ) =
an .
Solución: Solución. La imagen del operador derivación es Im (D) = Rn−1 [x] = h1, x, ..., xn−1 i. Esta
0 ∗
base puede ser completada {1, x, ..., xn−1 , xn } y sabemos que una base de Im (D) es (xn ) . Pero
según
n ∗
la Proposición 3, esta es una base para N (D ) y además (x ) a0 + a1 x + a2 x + · · · + an xn = an .
t 2
Álgebra Lineal
Capı́tulo 7. Espacios Duales
Ejercicios.
1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, −2) , v3 = (−1, −1, 0)} una base de R3 . Calcular
vi∗ (a, b, c), para cada i = 1, 2, 3, donde (a, b, c) ∈ R3 .
2. Sea V un espacio de dimensión finita y sean W1 , W2 subespacios de V . Demostrar que
(W1 + W2 )0 = W10 ∩ W20 , (W1 ∩ W2 )0 = W10 + W20 .
3. Sea K un cuerpo. Demostrar que cada elemento de (K n )∗ es de la forma f (x1 , ..., xn ) =
a1 x1 + · · · + an xn , para ciertos escalares fijos ai ∈ K, i = 1, 2, ..., n.
4. Sea W =< (1, 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) >. Hallar una base de W 0 y calcular
la acción de cada uno de los funcionales de dicha base sobre un vector (a, b, c, d, e).
5. Sean f, g ∈ V ∗ . Demostrar que g es múltiplo escalar de f si y sólo si N (f ) ⊆ N (g).
6. Sean f1 , ..., fr ∈ V ∗ . Demostrar que el funcional g ∈ V ∗ es combinación lineal de
f1 , ..., fr si y sólo si N (f1 ) ∩ · · · ∩ N (fr ) ⊆ N (g).
7. Sean V y W espacios de dimensión finita y sea T : V → W una transformación lineal.
Demostrar que Im(T ) = N (T t )0 , N (T ) = Im(T t )0 .
8. Sea V = W1 ⊕ · · · ⊕ Wr . Si Vi = W1 + · · · + Wi−1 + Wi+1 + · · · + Wr , demostrar que
V ∗ = V10 ⊕ · · · ⊕ Vr0 .
1
Álgebra Lineal
Capı́tulo 7. Espacios Duales
Ejercicios.
1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, −2) , v3 = (−1, −1, 0)} una base de R3 . Calcular
vi∗ (a, b, c), para cada i = 1, 2, 3, donde (a, b, c) ∈ R3 .
2. Sea V un espacio de dimensión finita y sean W1 , W2 subespacios de V . Demostrar que
(W1 + W2 )0 = W10 ∩ W20 , (W1 ∩ W2 )0 = W10 + W20 .
3. Sea K un cuerpo. Demostrar que cada elemento de (K n )∗ es de la forma f (x1 , ..., xn ) =
a1 x1 + · · · + an xn , para ciertos escalares fijos ai ∈ K, i = 1, 2, ..., n.
4. Sea W =< (1, 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) >. Hallar una base de W 0 y calcular
la acción de cada uno de los funcionales de dicha base sobre un vector (a, b, c, d, e).
5. Sean f, g ∈ V ∗ . Demostrar que g es múltiplo escalar de f si y sólo si N (f ) ⊆ N (g).
Solución. ⇐) Si N (g) = V , entonces g = 0 y de esta forma g = 0.f . Sea pues N (g) 6= V , y
sea x0 ∈ / N (g), entonces por hipótesis x0 ∈ / N (f ); sea f (x0 ) 6= 0; entonces f (f (x0 )−1 .x0 ) =
1, es decir, existe x1 ∈ / N (f ) tal que f (x1 ) = 1; para cada x ∈ V se tiene que x−f (x) .x1 ∈
N (f ), en efecto, f (x − f (x) .x1 ) = f (x) − f (x)f (x1 ) = 0. Nuevamente por hipótesis, x −
f (x) .x1 ∈ N (g), luego g (x − f (x) .x1 ) = 0, de donde, g(x) = f (x) g (x1 ) = g(x1 ).f (x),
es decir, g = g (x1 ) .f .
⇒) Si g = a.f , entonces claramente N (f ) ⊆ N (g).
6. Sean f1 , ..., fr ∈ V ∗ . Demostrar que el funcional g ∈ V ∗ es combinación lineal de
f1 , ..., fr si y sólo si N (f1 ) ∩ · · · ∩ N (fr ) ⊆ N (g).
7. Sean V y W espacios de dimensión finita y sea T : V → W una transformación lineal.
Demostrar que Im(T ) = N (T t )0 , N (T ) = Im(T t )0 .
Solución. Veamos la prueba de la primera igualdad. Tenemos el isomorfismo
F : W −→ W ∗∗
1
Pasemos a la segunda igualdad. Sea ahora F : V −→ V ∗∗ , probemos que F (ker(T )) =
Im(T t )0 . Mostramos en primer lugar que F (ker(T )) ⊆ Im(T t )0 : sea v ∈ ker(T ), veamos
que Fv ∈ Im(T t )0 , sea f ∈ Im(T t ), entonces f = T t (h), con h ∈ W ∗ , y de esta forma
f = Tht . Se tiene, Fv (f ) = Fv (T t (h)) = T t (h)(v) = h(T (v)) = h(0) = 0. Para com-
pletar la prueba de la igualdad podemos razonar como en la primera parte en térmi-
nos de las dimensiones. Notemos que dim F (ker(T )) = dim ker(T ), y de otra parte,
dim Im(T t )0 = dim V ∗ − dim Im(T t ) = dim V − dim ker(T )0 = dim ker(T ). Esto com-
pleta todo el problema.
8. Sea V = W1 ⊕ · · · ⊕ Wr . Si Vi = W1 + · · · + Wi−1 + Wi+1 + · · · + Wr , demostrar que
V ∗ = V10 ⊕ · · · ⊕ Vr0 .
2
Capı́tulo 8
Producto Interno
Introducción
El producto interno en espacios reales y complejos permite manejar conceptos geométricos tales como
distancia, ángulo, perpendicularidad, etc. Las transformaciones lineales actuando sobre tales espacios
ocupan un lugar importante en el estudio de la geometrı́a ortogonal y simpléctica.
( , ) : V × V −→ R
que asigna a cada par de vectores u, v ∈ V un real denotado por (u, v) y que satisface las siguientes
propiedades:
a) (u, v + w) = (u, v) + (u, w)
b) (a.u, v) = a(u, v)
c) (u, v) = (v, u)
d) Si u 6= 0, entonces (u, u) > 0
para cualesquiera vectores u, v, w ∈ V y cualquier escalar a ∈ R. Un espacio vectorial real se dice
que es euclidiano si en V está definido un producto interno. Veamos algunos ejemplos de espacios
euclidianos.
Ejemplo 8.1. El producto interno de R2 se generaliza a Rn de la siguiente manera: si x = (x1 , . . . , xn ),
y = (y1 , . . . , yn ) ∈ Rn , entonces (x, y) = x1 y1 + · · · + xn yn . Este se conoce como el producto interno
canónico. Existen otros productos internos sobre Rn , por ejemplo, en R2 se puede probar fácilmente
que la relación (x, y) = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2 define un producto interno.
135
136 CAPÍTULO 8. PRODUCTO INTERNO
Ejemplo 8.2. Sea C[a, b] el espacio de funciones continuas en el intervalo [a, b] y sean f (x), g(x) ∈
Rb
C[a, b], entonces (f, g) = f (x)g(x)dx define un producto interno.
a
Ejemplo 8.3. En el espacio Mn (R) de matrices cuadradas reales de orden n ≥ 1 está definido un
P
n
producto interno canónico dado por (A, B) = aij bij donde A, B ∈ Mn (R).
i,j=1
Ejemplo 8.4. Sea V un espacio vectorial real y W un espacio euclidiano, sea T : V −→ W una trans-
formación lineal inyectiva. Entonces, V es un espacio euclidiano con el producto (u, v) = (T (u), T (v)),
con u, v ∈ V .
Algunas propiedades de un producto interno en un espacio euclidiano son las siguientes:
Demostración: La prueba se puede realizar para el caso unitario que veremos en la Lección
4 del presente capı́tulo y observar que el conjugado de un número real c coincide con c y que
además | c |2 = c2 , donde | c | denota el módulo del complejo c.
Sea V un espacio unitario, u, v ∈ V y sean a, b ∈ C. Nótese que si v = 0 entonces la desigualdad
(igualdad!) se cumple trivialmente. En este caso se tiene que u, v son LD.
Sea v 6= 0, entonces, (au + bv, au + bv) = aa (u, u) + ab (u, v) + ba (v, u) + bb (v, v) ≥ 0. To-
2
memos a = (v, v) y b = − (u, v), entonces (v, v) (u, u) − (v, v) (u, v) (u, v) − (u, v) (v, v) (v, u) +
2
(u, v) (u, v) (v, v) ≥ 0, y entonces (v, v) (u, u) − 2 (v, v) | (u, v) |2 + | (u, v) |2 (v, v) ≥ 0. Puesto que
a = (v, v) 6= 0, entonces (v, v) (u, u) − | (u, v) |2 ≥ 0, por tanto (v, v) (u, u) ≥| (u, v) |2 .
Nótese que si la igualdad se da entonces al devolvernos se tiene que (au + bv, au + bv) = 0,
es decir, au + bv = 0, o sea que u y v son LD. Supóngase recı́procamente que u, v son LD. Sea
2 2
u = kv, donde k ∈ C, entonces (u, v) =| (kv, v) |2 =| k(v, v) |2 =| k |2 (v, v) ; (u, u) (v, v) =
(kv, kv) (v, v) =| k | (v, v) .
2 2
Definición 8.2. Se dice que el espacio vectorial real V es normado si existe una función norma
k · k : V −→ R+ ∪ {0}
y la desigualdad triangular es
v v v
u b u b u b
uZ uZ uZ
u u u
t (f (x) + g(x))2 dx ≤ t f (x)2 dx + t g(x)2 dx.
a a a
Los conceptos de vectores ortogonales y base ortonormal del espacio R2 pueden extenderse a espacios
euclidianos arbitrarios. Sea V un espacio euclidiano con producto interno (, ), dos vectores u, v se dicen
ortogonales si (u, v) = 0. Un subconjunto no vacı́o S de V se dice que es un conjunto ortogonal de
vectores si (u, v) = 0 para cada par de vectores u 6= v en S. El conjunto S se dice que es ortonormal
si S es ortogonal y además kuk = 1 para cada u ∈ S. Por último, sean u, v vectores no nulos de V , se
define el ángulo entre u y v como el único número real θ ∈ [0, π] que satisface la ecuación.
(u, v)
cos θ = .
kuk kvk
Nótese que dos vectores no nulos en V son ortogonales si y sólo si el ángulo entre ellos es π/2. Además,
en V se cumple el teorema de Pitágoras, es decir, si u1 , . . . , un son vectores ortogonales, entonces
2 2 2
ku1 + · · · + un k = ku1 k + · · · + kun k
A cada producto interno en un espacio euclidiano podemos asignar una matriz invertible con ciertas
condiciones de simetrı́a y positividad, como veremos a continuación.
P
n
a) Si u = b1 · x1 + · · · + bn · xn , v = c1 · x1 + · · · + cn · xn , entonces (u, v) = aij bi cj .
i,j=1
b) AT = A.
138 CAPÍTULO 8. PRODUCTO INTERNO
Y AY T > 0.
d) A es invertible.
Con una matriz real que cumpla b) y c) de la proposición anterior podemos definir un producto interno
en un espacio real V de dimensión finita.
Proposición 8.4. Sea V un espacio de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn } una base de V .
Sea A = [aij ] una matriz real de tamaño n × n que satisface las condiciones b) y c) de la proposición
anterior. Entonces V es un espacio euclidiano con producto interno dado por
(u, v) = Y AZ T ,
donde Y = (y1 , . . . , yn ) ∈ Rn , Z = (z1 , . . . , zn ) ∈ Rn son las coordenadas de los vectores u y v en la
base X, respectivamente.
Ejericicio 8.1. Sea C[−1, 1] con producto interno definido como en el Ejemplo 2, calcular el ángulo
entre las funciones f (x) = x y g(x) = 1 + x
Ejericicio 8.2. Sea Rn [x] el espacio de polinomios reales de grado ≤ n. Se define en este espacio el
producto interno entre dos polinomios f (x) = a0 + a1 x + · · · + an xn , g(x) = b0 + b1 x + · · · + bn xn por
P
n
(f (x), g(x)) = ak bk . Determinar un polinomio h(x) de grado ≤ 2 que este a igual distancia de los
k=0
polinomios f1 (x) = 3x2 + 2x + 1, f2 (x) = −x2 + 2x + 1, f3 (x) = 3x2 + 2x + 5 y f4 (x) = 3x2 + 5x + 2
en el espacio R2 [x]
Solución: Sea h(x) = ax2 + bx + c. La distancia entre este polinomio y los polinomios f1 (x), f2 (x),
f3 (x) y f4 (x) es:
d(h(x), f1 (x)) =
(a − 3)x2 + (b − 2)x + (c − 1)
d(h(x), f2 (x)) =
(a + 1)x2 + (b − 2)x + (c − 1)
d(h(x), f3 (x)) =
(a − 3)x2 + (b − 2)x + (c − 5)
d(h(x), f4 (x)) =
(a − 3)x2 + (b − 5)x + (c − 2)
en donde se debe cumplir que d(h(x), f1 (x)) = d(h(x), f2 (x)) = d(h(x), f3 (x)) = d(h(x), f4 (x)).
√
d(h(x), f1 (x)) =
−2x2 + x + 2
= 9 = 3
√
d(h(x), f2 (x)) =
2x2 + x + 2
= 9 = 3
√
d(h(x), f3 (x)) =
−2x2 + x − 2
= 9 = 3
√
d(h(x), f4 (x)) =
−2x2 − 2x + 1
= 9 = 3
a partir de lo cual se determina que los polinomios f1 (x), f2 (x), f3 (x) y f4 (x) se encuentran a la misma
distancia del polinomio h(x).
Paso 1 Si la sucesión dada tiene un solo vector u1 entonces se toma v1 = u1 y las condiciones
a)∼ c) se cumplen trivialmente.
Paso 2 . Supóngase que ya han sido construidos k vectores v1 , . . . , vk que cumplen a)∼ c). Para
construir el vector vk+1 hacemos
(
Pk (uk+1 ,vi )
si vi 6= 0
vk+1 = uk+1 − i=1 ai .vi , ai = (vi ,vi )
0, si vi = 0
Pk (uk+1 ,vj )
(vk+1 , vj ) = (uk+1 , vj ) − ( i=1 ai .vi , vj ) = (uk+1 , vj ) − aj (vj , vj ) = (uk+1 , vj ) − (vj ,vj ) (vj , vj ) =0
Paso 3 Veamos que hv1 , . . . , vk+1 i = hu1 , . . . , uk+1 i. Sea v ∈ hv1 , . . . , vk+1 i, existen b1 , . . . , bk+1 ∈ R
tales que v = b1 .v1 + · · · + bk .vk + bk+1 .vk+1 , pero por construcción vk+1 ∈ huk+1 , v1 , . . . , vk i =
huk+1 , u1 , . . . , uk i.
Sea ahora v ∈ hu1 , . . . , uk+1 i, entonces existen c1 , . . . , ck+1 ∈ R tales que v = (c1 .u1 + · · · + ck .uk ) +
ck+1 .uk+1 , pero por construcción uk+1 ∈ hvk+1 , v1 , . . . , vk i, luego v ∈ hu1 , . . . , uk , v1 , . . . , vk+1 i =
hv1 , . . . , vk+1 i. Hemos probado b).
Paso 4 Por recurrencia suponemos que los k vectores construidos satisfacen c). Sean w1 , . . . , wk+1
vectores que también satisfacen a) y b). Entonces, hw1 , . . . , wk+1 i = hu1 , . . . , uk+1 i = hv1 , . . . , vk+1 i,
luego wk+1 = z + e.vk+1 , donde z ∈ hv1 , . . . , vk i = hw1 , . . . , wk i; según a), hwk+1 , zi = 0 = hvk+1 , zi,
luego hwk+1 − e.vk+1 , zi = 0 = hz, zi, de donde z = 0 y wk+1 = e.vk+1 . Esto completa la prueba de c)
y del teorema.
v 1 = u1
k
X
vk+1 = uk+1 − ai · vi
i=1
Donde,
(
(uk+1 ,vi )
(vi ,vi ) si vi 6= 0
ai =
0 si vi = 0
Corolario 8.1. Sea V un espacio euclidiano de dimensión finita n ≥ 1 y sea X = {u1 , . . . , un } una
base de V . Entonces, el conjunto de vectores {v1 , . . . , vn } definido por el teorema anterior conforma
una base ortogonal de V . Una base ortonormal de V se obtiene normalizando ésta: definimos wi =
vi
kvi k , 1 ≤ i ≤ n.
Ejemplo 8.7 (Polonomios de Legendre). Sea R[x] el espacio de polinomios reales y considérese el
producto interno dado por
Z 1
(p(x), q(x)) = p(t)q(t)dt.
−1
v0 (x) = 1
v1 (x) = x
1
v2 (x) = x2 −
3
3 3
v3 (x) = x − x
5
6 3
v4 (x) = x − x2 +
4
7 35
10 5
v5 (x) = x5 − x3 + x
9 21
..
.
n! dn 2
vn (x) = (x − 1)n , n ≥ 0,
(2n)! dxn
La sucesión anterior de polinomios se conoce como los polinomios de Legendre, y la fórmula dada
por
(2n)! 1 dn n
Pn (x) = 2 v n (x) = n n! dxn
x2 − 1
n
2 (n!) 2
Ejericicio 8.3. Construir una base ortonormal en el espacio R4 del subespacio hu1 , u2 , u3 , u4 i, donde
u1 = (2, 3, −4, −6), u2 = (1, 8, −2, −16), u3 = (12, 5, −14, 5) y u4 = (3, 11, 4, −7)
Ahora, v2 = u2 − (u 2 ,v1 )
(v1 ,v1 ) v1 = (1, 8, −2, −16) −
(1,8,−2,−16)·(2,3,−4,−6)
(2,3,−4,−6)·(2,3,−4,−6) (2, 3, −4, −6) = (−3, 2, 6, −4), es
decir, v2 = (−3, 2, 6, −4); de donde
v2 3√ 2√ 6√ 4√
w2 = = − 65, 65, 65, − 65
k v2 k 65 65 65 65
(u3 , v1 ) (u3 , v2 )
v3 =u3 − v1 − v2
(v1 , v1 ) (v2 , v2 )
(12, 5, −14, 5) · (2, 3, −4, −6) (12, 5, −14, 5) · (−3, 2, 6, −4)
= (12, 5, −14, 5) − (2, 3, −4, −6) − (−3, 2, 6, −4)
(2, 3, −4, −6) · (2, 3, −4, −6) (−3, 2, 6, −4) · (−3, 2, 6, −4)
= (4, 6, 2, 3)
Lo anterior indica que dim(hu1 , u2 , u3 , u4 i) = 3 y {w1 , w2 , w3 } es una base ortonormal de esta en-
volvente lineal.
De otra parte, y como complemento a este ejercicio, el SWP produce la descomposición QR de una ma-
triz cuyos vectores columna son los vectores dados de tal forma que la matriz Q tiene en sus columnas
la base ortonormal buscada:
2√ 3
√ 4
√ 6
√ √
√ √ √
2 1 12 3 65 √65 − 65√ 65 65 √65 65 √65 2√ 6565 √65 √65
3 8 5 11 3 65 2
65 6 4
− 65 −2
= 65 √ 65 √ 65 √65 √ 65 65 0 √ 65 √65 .
−4 −2 −14 4 − 65 4 6 2 3
√65 65 √ 65 65 √65 65 √65 0 0 65 65
−6 −16 5 −7 6
− 65 65 4
− 65 65 3
65 65
2
− 65 65 0 0 0 0
6
√ 4
√ 3
√ 2
√
Nótese que en la matriz Q aparece un cuarto vector columna 65 65, − 65 65, 65 65, − 65 65 que
también es ortogonal a los otros 3 vectores: las cuatro columnas constituyen una base ortonormal de
R4 . La pregunta que surge es, cómo se calcula este cuarto vector? En otras palabras, dado un sistema
de m vectores ortogonales en un espacio euclidiano (unitario) V de dimensión n > m, como se completa
este sistema hasta una base ortonormal de V ?
2√ 3√ 4√ 6√ 2 √ 3 √ 4 √ 6 √
(a, b, c, d) · 65, 65, − 65, − 65 = a 65 + b 65 − c 65 − d 65 =0
65 65 65 65 65 65 65 65
3 √ 2 √ 6 √ 4 √ 2 √ 3 √ 6 √ 4 √
(a, b, c, d) · − 65, 65, 65, − 65 = b 65 − a 65 + c 65 − d 65 =0
65 65 65 65 65 65 65 65
4 √ 6 √ 2 √ 3 √ 4 √ 6 √ 2 √ 3 √
(a, b, c, d) · 65, 65, 65, 65 = a 65 + b 65 + c 65 + d 65 =0
65 65 65 65 65 65 65 65
(a, b, c, d) · (a, b, c, d) = a2 + b2 + c2 + d2 = 1
2
√ 3
√4
√ 6
√
65 a√ 65 + − 65 c√65 − 65
65 b√65 d√65 = 0
2 3 6 4
65 b √65 − c√65 − 65
65 a√65
+ 65 d√65 = 0
4 6 2 3
65 a 65 + 65 b 65
+ 65 c 65 + 65 d 65 = 0
a + b + c2 + d2 = 1
2 2
6
√ 4
√ 3
√ 2
√
Con el SWP la solución es: a = 65 65, b = − 65 65, c = 65 65, d = − 65 65 , que es exactamente la
cuarta columna dada por el SWP en la descomposición QR.
8.3. COMPLEMENTO ORTOGONAL Y PROYECCIONES 143
a) S ⊥ es un subespacio de V . Además, S ⊆ (S ⊥ )⊥ .
La proposición anterior permite definir las proyecciones. Sea V un espacio euclidiano y sean u, w ∈ V
(u,w)
con w 6= 0. El vector p = (w,w) ·w se denomina la proyección de u sobre w. Sea W un subespacio de V
Pm
de dimensión finita y sea X = {w1 , . . . , wm } una base ortonormal de W. El vector p = i=1 (u, wi ).wi
se denomina la proyección ortogonal de u sobre W y el vector p⊥ = u − p ∈ W ⊥ se denomina la
perpendicular de u al subespacio W .
Ejericicio 8.4. Determinar la función polinómica de primer grado más próxima a la función f (x) = ex
en el intervalo [−1, 1].
Z1
Solución: Consideremos el producto interno canónico hf (x), g(x)i = f (x)g(x)dx, y sea W el subes-
n o −1
1 1 3 3
p(x) = (ex , √ ) · √ + (ex , √ x) · √ x
2 2 6 6
Z1 Z1
1 1 3
=√ √ ex dx + x xex dx
2 2 2
−1 −1
1 2
= e − 1 e−1 + 3e−1 x.
2
144 CAPÍTULO 8. PRODUCTO INTERNO
Definición 8.4. Sea V un espacio vectorial sobre el cuerpo de números complejos C, se dice que V
es un espacio unitario si existe en V un producto interno ( , ) que asigna a cada par de elementos
u, v ∈ V un número complejo (u, v) de tal forma que se cumplen las siguientes propiedades:
b) (a.u, v) = a(u, v)
En los espacios unitarios se tiene que (u, a.v) = a(u, v), donde la barra indica conjugación compleja.
Ejemplo 8.9. Sea C∗ [a, b] el espacio de las funciones continuas definidas en el intervalo real [a, b] y
con valores complejos, es decir, cada función f (t) ∈ C∗ [a, b] es de la forma f (t) = f1 (t) + if2 (t), donde
Rb
f1 (t), f2 (t) ∈ C[a, b]. En C∗ [a, b] se define el producto interno canónico por (f, g) = a f (t)g(t)dt.
Ejemplo 8.10. En el espacio Mn (C) de matrices cuadradas complejas de orden n ≥ 1 está definido
P
n
el producto interno canónico dado por (A, B) = aij bij donde A, B ∈ Mn (C).
i,j=1
La gran mayorı́a de las propiedades de los espacios euclidianos se mantienen para los espacios unitarios.
A continuación presentamos un resumen de las propiedades estudiadas en las lecciones anteriores pero
un su versión compleja.
2) (v, v) = 0 si y sólo si v = 0.
4) Desigualdad de Cauchy-Schwartz: |(u, v)|2 ≤ (u, u)(v, v) para cualesquiera vectores u, v ∈ V . Las
barras indican el módulo de un complejo. Además, la igualdad se da si y sólo si u, v son LD.
8) La Proposición 2 se cumple.
Definición 8.5. Sea V un espacio unitario de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn } una
base de V . Entonces la matriz A = [aij ] definida por aij = (xi , xj ) se conoce como la matriz del
producto interno ( , ) y tiene las siguientes propiedades:
P
n
a) Si u = b1 .x1 + · · · + bn .xn , v = c1 .x1 + · · · + cn .xn , entonces (u, v) = aij bi cj .
i,j=1
b) AT = A.
c) Para cada vector no nulo Y = (y1 , . . . , yn ) ∈ Cn se cumple que
Y AY T > 0.
d) A es invertible.
e) Si la base X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X vienen
dadas por
(u, xi )
bi = .
(xi , xi )
P
n
f ) Si X es ortonormal, entonces (u, v) = bi c j .
i,j=1
Con una matriz compleja A que cumpla b) y c) podemos definir un producto interno en un espacio com-
plejo V de dimensión finita mediante (u, v) = Y AZ T , donde Y = (y1 , . . . , yn ) ∈ Rn , Z = (z1 , . . . , zn ) ∈
Rn son las coordenadas complejas respectivas de los vectores u y v en una base ortonormal X.
Para terminar, veamos como se puede definir el ángulo entre dos vectores no nulos u, v de un es-
pacio unitario V : Nótese que (u,v)+(v,u)
2 = (u,v)+(u,v)
2 ∈ R, luego | (u,v)+(u,v)
2 | ≤ |(u, v)| ≤ kuk kvk (por
|(u,v)+(v,u)|
la desigualdad de Cauchy-Schwartz). Por lo tanto, 2kukkvk ≤ 1, es decir, −1 ≤ (u,v)+(v,u) 2kukkvk ≤ 1. Se
define entonces el ángulo entre u y v como el único real 0 ≤ θ ≤ π tal que
(u, v) + (v, u)
cos(θ) = .
2 kuk kvk
fv : V −→ K
u 7−→ fv (u) = (u, v)
es un funcional de V , es decir, fv ∈ V ∗ . Si V es de dimensión finita, entonces es válido el recı́proco, es
decir, dado f ∈ V ∗ existe un único vector v ∈ V tal que f = fv , luego f (u) = (u, v) para cada u ∈ V .
146 CAPÍTULO 8. PRODUCTO INTERNO
Demostración: Claramente fv es una transformaciónP lineal. Sea X = {v1 , . . . , vn } una base ortonormal
n
de V , entonces dado f ∈ V ∗ definimos el vector v = i=1 f (vi ).vi ; se tiene pues que fv (vj ) = (vj , v) =
Pn
(vj , i=1 f (vi ) · vi ) = f (vj ) = f (vj ) para cada 1 ≤ j ≤ n. Esto implica que f = fv . Sea w otro vector
tal que f = fw , entonces fv (u) = f (u) = (u, v) = fw (u) = (u, w) para cada u ∈ V , luego v = w.
Proposición 8.8. Sea V un espacio con producto interno de dimensión finita n ≥ 1. Entonces,
para cada transformación lineal T : V → V existe una única transformación T ∗ : V → V tal que
(T (u), v) = (u, T ∗ (v)) para cualesquiera vectores u, v ∈ V .
Demostración: Cada vector v ∈ V define un funcional hv ∈ V ∗ dado por hv (u) = (T (u), v) para cada
u ∈ V ; según la Proposición 7 existe un único vector w ∈ V tal que hv (u) = (u, w) para cada u ∈ V .
Se define entonces la aplicación
T∗ : V −→ V
v 7−→ w
Ası́ pues, T ∗ (v) = w ⇔ (T (u), v) = (u, w) para cada u ∈ V . Veamos que T ∗ es una transformación
lineal: sean u, v1 , v2 ∈ V , entonces
1) (T + U )∗ = T ∗ + U ∗
2) (a.T )∗ = a.T ∗
3) (T U )∗ = U ∗ T ∗
4) (T ∗ )∗ = T .
8.6. TRANSFORMACIONES HERMITIANAS Y SIMÉTRICAS 147
Ejericicio 8.5. Sea T : C2 → C2 la transformación lineal definida por T (x, y) = (x − iy, 2ix) y
considérese en C2 el producto interno canónico. Calcular T ∗ . Además, sea X = {(1, 1), (−2, 2)} una
base ortogonal no ortonormal de C2 . Demostrar que mX (T ∗ ) 6= mX (T )∗ .
luego
1
∗ − 12 i − 14 − 34 i
2
(mX (T )) = 1 1
−1 + 3i 2 + 2i
De otro lado,
−1
1−2 1 −2
mX (T ∗ ) = mY (T ∗ ) =
1 2 1 2
−1 1
1 −2 1 −2i 1 −2 2 − 12 i −1 − 3i
= .
1 2 i 0 1 2 − 41 + 34 i 1 1
2 + 2i
∗
Esto muestra que mX (T ∗ ) 6= (mX (T )) .
Definición 8.7. Sea T : V → V una transformación lineal de un espacio unitario V , se dice que T
es hermitiana si
Si V es de dimensión finita n ≥ 1 con base {v1 , . . . , vn }, entonces las condiciones anteriores se pueden
expresar de la siguiente manera:
para 1 ≤ i, j ≤ n.
La siguiente proposición muestra como se comportan los valores propios de las transformaciones intro-
ducidas.
Proposición 8.9. Sea V un espacio con producto interno (unitario o euclidiano) y T : V → V una
transformación lineal con valor propio α. Entonces
a) Si T es hermitiana, entonces α ∈ R
b) Si T es simétrica, entonces α ∈ R
c) Si T es antihermitiana, entonces α es imaginario puro
d) Si T es antisimétrica, entonces α = 0
Demostración: Sea v un vector propio correspondiente al valor propio α. Entonces, hT (v), vi = hα.v, vi =
αhv, vi, de donde
hT (v), v)i
α=
hv, vi
Si T es hermitiana, entonces
Sabemos que vectores propios correspondientes a valores propios diferentes son LI. Para transfor-
maciones hermitianas, antihermitianas y simétricas los vectores propios son además ortogonales.
Proposición 8.10. Sea T una transformación lineal hermitiana, antihermitiana o simétrica. Sean
α, β valores propios de T diferentes con vectores propios u, v respectivamente. Entonces, hu, vi = 0.
Demostración: Se tiene que hT (u), vi = hα.u, vi = αhu, vi y hu, T (v)i = hu, βvi = βhu, vi. Si T es
hermitiana o simétrica, entonces αhu, vi = βhu, vi = βhu, vi ya que β es real (Proposición 9). Esto
implica que hu, vi = 0. Si T es antihermitiana, entonces β = −β y entonces αhu, vi = −(−βhu, vi) y
nuevamente hu, vi = 0.
A continuación veremos como son las matrices de las transformaciones definidas en la presente lección
relativas a bases ortonormales arbitrarias.
Proposición 8.11. Sea V un espacio con producto interno (unitario o euclidiano) , T : V → V una
transformación lineal y X = {v1 , . . . , vn }una base ortonormal de V . Sea A = [aij ] la matriz de T en
la base X. Entonces,
para cada 1 ≤ i, j ≤ n.
La proposición anterior define los siguientes tipos de matrices: Sea A = [aij ] una matriz con en-
tradas complejas, se dice que A es hermitiana siA∗ = A, cuando A∗ = −A se dice entonces que
A es antihermitiana. Sea A = [aij ] una matriz con entradas reales, se dice que A es simétrica si
AT = A, cuando AT = −A se dice entonces que A es antisimétrica. Una consecuencia directa de
estas definiciones y de la proposición inmediatamente anterior es el siguiente corolario.
Corolario 8.3. Sea T : V → V una transformación de un espacio con producto interno de dimensión
finita. Entonces, T es hermitiana (antihermitiana) si y sólo si la matriz de T en cualquier base orto-
normal es hermitiana (antihermitiana). También, T es simétrica (antisimétrica) si y sólo si la matriz
de T en cualquier base ortonormal es simétrica (antisimétrica).
Ejemplo 8.11. Algunos ejemplos de las matrices definidas anteriormente son los siguientes:
0 i 2
i 0 3 es antihermitiana pero no es hermitiana
−2 −3 4i
La matriz nula es hermitiana y antihermitiana
150 CAPÍTULO 8. PRODUCTO INTERNO
2 i
es hermitiana pero no es antihermitiana
−i 4
0 i 2
−i 0 3 no es hermitiana ni tampoco antihermitiana
−2 −3 0
1 2
es simétrica pero no es antisimétrica
2 3
La matriz nula es simétrica y antisimétrica
0 1
es antisimétrica pero no es simétrica
−1 0
0 2
no es simétrica ni antisimétrica
4 0
En una matriz hermitiana los elementos diagonales son reales, en una antihermitiana son imaginarios
puros y en una antisimétrica son nulos.
8.7. Diagonalización
Ahora estudiaremos la diagonalización de matrices y transformaciones hermitianas y simétricas.
Demostración: La prueba se hace por inducción sobre n. Si n = 1 entonces V = hvi, con v 6= 0. Sea
v
w = kvk , entonces V = hwi y T (w) = a.w con a ∈ C (a ∈ R). De esta manera, w es un vector propio
de T y {w} es una base ortonormal de V .
Supóngase que el teorema ha sido demostrado para espacios de dimensión n, y sea V de dimen-
sión n + 1. Si V es unitario, entonces podemos garantizar la existencia de valores y vectores propios
para T . Sea V euclidiano y T simétrica. Sea X una base ortonormal de V , entonces A = mX (T ) es
simétrica (véase el Corolario 3 ). Podemos considerar la matriz A como hermitiana, de donde, A tiene
al menos un valor propio a1 ∈ C, sin embargo sabemos que a1 es necesariamente real (proposición 9).
Sea Z ∈ Cn+1 el vector propio asociado al valor a1 de tal forma que (A−a1 .E)Z = 0; el vector Z puede
escribirse en la forma Z = Z1 + iZ2 , donde Z1 , Z2 ∈ Rn+1 . Se tiene entonces que (A − a1 .E)Zi = 0,
i = 1, 2. Además, Z1 6= 0 ó Z2 6= 0. Ası́ pues, Z1 ó Z2 es un vector propio real de A con valor propio
real a1 .
Ası́ pues, en cualquiera de los tres casos T tiene al menos un vector propio u1 con valor propio
a1 . Sea v1 = kuu11 k , entonces T (v1 ) = a1 .v1 , es decir v1 es un vector propio de T de norma 1.
Sea W = hv1 i, sabemos que V = W ⊕ W ⊥ (Proposición 5), de donde dim(W ⊥ ) = n. Notemos que
W ⊥ es T -invariante: en efecto, sea x ∈ W ⊥ , entonces (T (x), v1 ) = (x, T ∗ (v1 )) = (x, T (v1 )) en el caso
en que T sea Hermitiana o simétrica. En el caso antihermitiano (T (x), v1 ) = −(x, T (v1 )). Entonces,
(T (x), v1 ) = ±(x, a1 .v1 ) = 0, lo cual indica que T (x) ∈ W ⊥ . Podemos entonces definir la restricción T0
de T al subespacio W ⊥ . Es obvio que T0 es Hermitiana (antihermitiana, simétrica, respectivamente).
Por inducción, existen v2 , . . . , vn+1 vectores propios ortonormales que conforman una base de W ⊥ .
Resulta entonces que v1 , v2 , . . . , vn+1 es una base ortonormal de vectores propios de T .
8.7. DIAGONALIZACIÓN 151
Las siguientes proposiciones permiten caracterizar las matrices diagonalizantes a que hace referen-
cia el Teorema 2.
Proposición 8.12. Sea A una matriz compleja hermitiana (antihermitiana) de orden n. Entonces
existe una matriz compleja invertible C de orden n tal que
a1 0 0
C −1 AC = 0 . . . 0 ,
0 0 an
donde a1 , . . . , an son los valores propios de A y para C se tiene que C −1 = C ∗ .
Demostración: Sea X la base canónica de Cn , existe una transformación T : Cn → Cn tal que
mX (T ) = A. Puesto que X es ortonormal entonces T es hermitiana (antihermitiana); existe una
base ortonormal Y de vectores propios de T en Cn tal que mY (T ) = diag(a1 , . . . , an ), donde a1 , . . . , an
los de A. Se tiene entonces que mY (T ) = C −1 AC,
son los valores propios de T, y en consecuencia, P
n
donde C es la matriz de cambio de X a Y : yi = k=1 cki .xk . Resta ver que C −1 = C ∗ .
* n n
+ n
n X
X X X
hyj , yi i = ckj .xk , cki .xk = csi ckj hxk , xs i.
k=1 k=1 s=1 k=1
Proposición 8.13. Sea A una matriz real simétrica de orden n. Entonces existe una matriz real
invertible C de orden n tal que
a1 0 0
C −1 AC = 0 . . . 0 ,
0 0 an
donde a1 , . . . , an son los valores propios de A y para C se tiene que C −1 = C T .
Ejericicio 8.6. Para
0 −2
A= ,
2 0
calcular una matriz C tal que C −1 AC sea diagonal.
Solución: A es una matriz antisimétrica no nula, por lo tanto no puede ser diagonalizada por medio
de una matriz real. Si consideramos a la matriz A como una matriz antihermitinana, entonces A
puede ser diagonalizada por medio de una matriz compleja C. Los valores propios de A son 2i y −2i;
E(2i) = {a.(i, 1) | a ∈ C − {0}}, E(−2i) = {a.(−i, 1) | a ∈ C − {0}}. Entonces, los vectores u1 = (i, 1)
y u2 = (−i, 1) son vectores propios correspondientes a valores propios diferentes, luego de acuerdo a la
Proposición 10 estos vectores son LI y ortogonales. Resulta entonces que {w1 = kuu11 k = √12 (i, 1), w2 =
152 CAPÍTULO 8. PRODUCTO INTERNO
u2
= √12 (−i, 1)} es una base ortonormal de C2 de vectores propios de A. La prueba de la Proposición
ku2 k
12 C es la matriz de cambio de base de la canónica a la base {w1 , w2 }, es decir,
" # " #
√1 i − √1 i − √1 i √1
C= 2
√1 √1
2 , C∗ = 2
√1 i √1
2 .
2 2 2 2
(b) Para cada base X = {v1 , . . . , vn } de V se cumple que hT (vi ), T (vj )i = hvi , vj i , para cada
1 ≤ i, j ≤ n.
(c) Si {v1 , . . . , vn } es una base de ortonormal de V , entonces {T (v1 ), . . . , T (vn )} es también una
base ortonormal de V.
(d) Existe una base ortonormal {v1 , . . . , vn } de V tal que {T (v1 ), . . . , T (vn )} es también una base
ortonormal de V .
(f ) T −1 existe y T −1 = T ∗ .
(b) ⇒ (c): Basta observar que {T (v1 ), . . . , T (vn )} es un conjunto ortonormal de vectores no nulos.
(e) ⇒ (f ): Basta probar que T es inyectiva para garantizar la existencia de T −1 . Si T (v) = 0, en-
tonces kT (v)k = kvk = 0, luego v = 0.
8.8. TRANSFORMACIONES UNITARIAS Y ORTOGONALES 153
Vamos ahora a probar que T preserva productos, usando las siguientes identidades de polarización:
1 2 1 2
hu, vi = ku + vk − ku − vk (caso real)
4 4
1 2 1 2 i 2 i 2
hu, vi = ku + vk − ku − vk + ku + i.vk − ku − i.vk (caso complejo).
4 4 4 4
Entonces en el caso real se tiene que
1 2 1 2
hT (u), T (v)i = kT (u) + T (v)k − kT (u) − T (v)k
4 4
1 2 1 2
= kT (u + v)k − kT (u − v)k
4 4
1 2 1 2
= ku + vk − ku − vk
4 4
= hu, vi .
El caso complejo
se demuestra usando
la segunda
identidad de polarización. De lo anterior resulta,
hT (u), vi = T (u), T (T −1 (v)) = u, T −1 (v) , es decir, T ∗ = T −1 .
(f ) ⇒ (a): Sean u, v ∈ V , entonces hT (u), T (v)i = hu, T ∗ (T (v))i = hu, T −1 (T (v)i = hu, vi.
Algunas de las propiedades expuestas en la proposición anterior son válidas para transformaciones
lineales sobre espacios de dimensión infinita. Sea T : V → V una transformación lineal de un espacio
V , entonces
(i) T es unitaria (ortogonal) si y sólo si T preserva la norma si y sólo si T preserva distancias, es
decir, kT (v) − T (u)k = kv − uk, para cada u, v ∈ V .
(ii) Sea T es unitaria (ortogonal), entonces hT (u), T (v)i = 0 si y sólo si hu, vi = 0.
(iii) Toda transformación unitaria (ortogonal) es inyectiva. Además, T −1 : T (V ) → V preserva el
producto interno. En consecuencia, si T es una transformación unitaria (ortogonal) biyectiva,
entonces T −1 es también unitaria (ortogonal).
(iv) La composición de transformaciones unitarias (ortogonales) es nuevamente una transformación
unitaria (ortogonal). En consecuencia, el conjunto de transformaciones unitarias (ortogonales)
biyectivas es un grupo.
Una matriz compleja C se dice unitaria si CC ∗ = E (es decir, C es invertible y su inversa es igual a
su adjunta). Una matriz real C se dice ortogonal si CC T = E (es decir, C es invertible y su inversa
es su transpuesta).
Corolario 8.4. Sea T : V → V una transformación lineal de un espacio unitario (euclidiano) de
dimensión finita n ≥ 1. Entonces, T es unitaria (ortogonal) si y sólo si la matriz de T en cada base
ortonormal de V es unitaria (ortogonal).
Demostración: Sea X = {v1 , . . . , vn } una base ortonormal de V y sea C = [cij ] = mX (T ). Entonces,
n
X n
X
T (vj ) = clj .vl , T (vi ) = cki .vk ,
l=1 k=1
* n n
+
X X
hT (vj ), T (vi )i = clj .vl , cki .vk =
l=1 k=1
154 CAPÍTULO 8. PRODUCTO INTERNO
n
X
1, i=j
ckj .cki = hvj , vi i =
0, i 6= j
k=1
Se tiene entonces que CC ∗ = E. La prueba en sentido contrario funciona para probar la afirmación
recı́proca.
Sea U = T −a.I, entonces U es también normal (a es cualquier número real o complejo): U ∗ = T ∗ −aI,
entonces U U ∗ = (T − a.I) (T ∗ − a.I) = (T ∗ − a.I) (T − a.I) = U ∗ U .
De lo anterior se tiene entonces que k(T − a.I) (u)k = k(T ∗ − a.I) (u)k, luego (T − a.I) (u) = 0 si
y sólo si (T ∗ − a.I) (u) = 0.
Teorema 8.3. Sea V un espacio unitario de dimensión finita n ≥ 1 y sea T : V −→ V un operador
normal. Entonces, existe una base ortonormal X = {v1 , . . . , vn } de vectores propios de T tal que
mX (T ) es diagonal.
Demostración: La prueba se realiza por inducción sobre n. Para n = 1 sea V = hvi, entonces norma-
v
lizamos el vector v, y obtenemos w = kvk . Es claro que V = hwi y {w} es una base ortonormal de V
tal que la matriz de T en esta base es diagonal.
8.9. TRANSFORMACIONES NORMALES 155
Supongamos que el teorema ha sido probado para n y sea V un espacio de dimensión n + 1. Como
suponemos que estamos en el caso complejo, podemos asegurar la existencia de al menos un vector
u ∈ V y un escalar a ∈ C tal que T (u) = a.u. Sea W = hui y W ⊥ el complemento ortogonal de W .
Veamos que W ⊥ es T -invariante. En efecto, sea x ∈ W ⊥ , entonces (T (x), u) = (x, T ∗ (u)) = (x, a.u),
donde la última igualdad se tiene por la Proposición 15. Se tiene entonces que (x, a.u) = 0, y por lo
tanto, T (x) ∈ W ⊥ . Como V = W ⊕ W ⊥ y dim(W ⊥ ) = n, entonces para aplicar inducción debemos
garantizar que la restricción T0 de T a W ⊥ sea nuevamente un operador normal. En W ⊥ construimos
una base ortonormal, de tal manera que al reunir esta base con {u} obtenemos una base ortonormal
de V y en esta base la matriz de T es normal y tiene dos bloques, uno de tamaño 1 × 1 y el segundo
B de tamaño n × n. Es claro que B es una matriz normal, con lo cual T0 es también normal.
Corolario 8.7. Toda matriz normal compleja es diagonalizable por medio de una matriz unitaria.
De los resultados del presente capı́tulo se pueden sacar las siguientes conclusiones:
y satisface
1−i 0
C −1 AC = .
0 1+i
Notemos que C es ortogonal, y por lo tanto unitaria.
Ejericicio 8.7. Para cada matriz compleja A existe una matriz unitaria U tal que U −1 AU es triangular
superior.
Solución: Sabemos que toda matriz compleja se puede triangular, es decir, si T : Cn :−→ Cn es la
transformación de A en la base canónica X, entonces existe una base Y en Cn tal que la matriz de T en
esta base es triangular superior. Podemos aplicar el método de Gram-Schmidt a esta base Y y obtener
una nueva base ortonormal Z en la cual la matriz de T es también triangular superior. Notemos que
156 CAPÍTULO 8. PRODUCTO INTERNO
mZ (T ) = U −1 AU ,
donde U es la matriz de cambio de X a Z, por lo tanto, las columnas de U son vectores ortonormales
de Cn , es decir, U es unitaria.
Álgebra Lineal
Capítulo 8. Espacios con Producto Interno
Ejercicios.
Iniciamos esta sección de ejercicios repasando algunos conceptos de geometría vectorial.
a. Sean !
u ;!v vectores no nulos de Rn . Probar que !u ;!v son ortogonales si y sólo si
k!
u +!
v k2 =k !
u k2 + k !
v k2 :
b. Sean !
u ;!
v vectores de Rn . Probar que
k!
u +!
v k2 + k !
u !
v k2 = 2(k !
u k2 + k !
v k2 ):
k!
u !
v k2 =k !
u k2 + k !
v k2 2k!
u kk !
v k cos ;
1
i. Demostrar que el volumen de un paralelepípedo conformado por tres vectores no
coplanares !u ;!v ;!
w 2 R3 viene dado por (! u ! v ;!
w ).
j. Líneas rectas en R3 : en este ejercicio repasamos la de…nición de recta en R3 y algunas
de sus más importantes caracterizaciones y propiedades.
es decir
x = p 1 + a1
y = p 2 + a2
z = p 3 + a3 :
2
! !
a = (a1 ; a2 ) 6= 0 se de…ne por
!
L (P; !
a ) = fOP + :! a j 2 Rg =
f(p1 ; p2 ) + : (a1 ; a2 ) j 2 Rg =
f(p1 + a1 ; p2 + a2 ) j 2 Rg:
x = p 1 + a1
y = p 2 + a2 :
a2 x = a2 p 1 + a 1 a2
a1 y = a1 p 2 + a 1 a2
luego
a2 x a2 p1 = a1 y a1 p 2
a1 y = a2 x + a1 p 2 a2 p 1
! ! !
z OP ; !
n = 0
!
(!
z ;!
n ) = OP ; !
n :
3
Distancia de un punto a una recta L (P; ! a ): sea Q un punto que no pertenece a la recta,
! ! !
entonces la distancia d de Q a L (P; a ) es la norma de la proyección del vector OP OQ =
!
QP sobre el vector normal ! n , por lo tanto
! !
! QP ;n
d =k proj n QP k= k
!
! 2
:!
nk =
k n k
! !
QP ; !n j QP ; !
n j
j ! 2 jk! n k= =
k n k k!n k
j ((p1 q1 ; p2 q2 ) ; (a2 ; a1 )) j
p )
a21 + a22
ja2 (p1 q1 ) a1 (p2 q2 ) j
d= p
a21 + a22
!
l. Sean !
a ; b vectores de Rn . Demostrar que
! ! 2 !
k! a + b k2 k ! a b k =4 ! a; b :
4
! !
r2. Dos planos M (P; ! u ;!
v ) y M (P; u0 ; v 0 ) que pasan por el mismo punto P
! !
son iguales si y sólo si < !u ;!
v >=< u0 ; v 0 >: en efecto, si M (P; ! u ;!v) =
!0 !0 !
M (P; u ; v ), entonces dados ; 2 R se tiene que OP + : u + :! ! v 2
! ! ! ! ! !0 !0 !
M (P; u ; v ), luego OP + : u + : v 2 M (P; u ; v ), por lo tanto, OP +
! ! !
:!
u + :! v = OP + 0 : u0 + 0 : v 0 para ciertos escalares 0 ; 0 2 R, en conse-
! ! ! !
cuencia :! u + :! v = 0 : u0 + 0 : v 0 . Esto muestra que < !
u ;!v > < u0 ; v 0 >.
! !
Por la simetría del problema, se tiene también que < u0 ; v 0 > < ! u ;!
v >.
! ! !0 !0
Supongamos ahora que < u ; v >=< u ; v >, entonces claramente
!
M (P; ! v ) = fOP + :!
u ;! u + :!
v j ; 2 Rg =
! !0 !0 ! !
fOP + : u + : v j ; 2 Rg = M (P; u0 ; v 0 ):
r3. M (P; !
u ;!v ) = M (Q; !
u ;!v ) , P 2 M (Q; ! u ;!v ) , Q 2 M (P; ! u ;!v ).
! !
r4. Se dice que dos planos M (P; !u ;!
v ) y M (Q; u0 ; v 0 ) son paralelos si y sólo
! !
si < !
u ;!v >=< u0 ; v 0 >. Se tiene entonces la siguiente propiedad:
r5. Sea M (P; !
u ;! = M (P; !
v ) un plano y Q 2 u ;!
v ) un punto por fuera de dicho
plano. Entonces, existe un único plano M que contiene a Q y es paralelo a M .
Este plano es por supuesto M (Q; ! u ;!
v ).
r6. Sean P; Q:R tres puntos distintos de R3 que no están sobre una misma
recta, es decir, no son colineales. Entonces, existe un único plano que contiene
! ! ! !
a estos tres puntos, dicho plano es M P; : OQ OP + : OR OP .
r7. Tres vectores ! u ;!
v y! w son linealmente dependientes si y sólo si están
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres
vectores son LD, entonces uno de ellos, por ejemplo ! u , está en la envolvente
lineal de !v y ! w , es decir, !u 2< ! v ;!w >. Si ! v y ! w son LI, entonces
tenemos que los tres están en el plano que pasa por el origen y tiene como
vectores directores a ! v y ! w , es decir, los tres vectores están en el plano
M (0; !v ;!
w ). Si por el contrario !v y!w son LD, entonces ! v = :! w , para un
cierto escalar 2 R. Esto hace que los tres vectores estén en la recta L (0; ! w ),
pero esta recta está contenida por ejemplo en el plano M (0; ! w;! z ), siendo
!z cualquier vector LI con ! w . Probemos la a…rmación recíproca. Supongamos
!
que los tres vectores u ; v y !
! ! w están en el plano M 0; ! a ; b , entonces
! ! !
u ;!
v ;!w 2< ! a ; b >, pero sabemos por de…nición que ! a y b son LI, luego
!u ;!
v y! w son LD.
r8. Ecuaciones paramétricas del plano: un punto cualquiera (x; y; z) del plano
M (P; !
u ;!v ) satisface las siguientes ecuaciones
5
x = p1 + u1 + v 1
y = p2 + u2 + v 2
z = p3 + u3 + v 3 :
r9. Ecuación Cartesiana del plano: eliminando los parámetros y de las
ecuaciones parámetricas del plano obtenemos la ecuación cartesiana, veamos
un ejemplo: consideremos el plano M (P; ! u ;!v ), donde P = (1; 2; 3), !
u =
(1; 1; 0) y !
v = (0; 1; 1). Entonces, las ecuaciones paramétricas son
x=1+
y =2+ +
z =3+
luego
y 2 =z 3
con lo cual
y 2 x+1=z 3
es decir, la ecuación cartesiana es
x y + z = 2:
r10. Ecuación normal del plano: sea M (P; !u ;!v ) un plano, un vector ! n 2 R3
se dice perpendicular al plano M (P; u ; v ) si n es perpendicular tanto a !
! ! ! u
como a ! v . Si además ! n es no nulo, entonces se dice que ! n es normal a
M (P; !u ;!v ). Notemos que !n es perpendicular a M (P; ! u ;!v ) si y sólo si !
n
! !
es perpendicular a cada vector de < u ; v >. Se tiene la siguiente propiedad:
!u ! v es normal al plano M (P; ! u ;!
v ) y el plano se puede describir por la
siguiente ecuación normal:
! !
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX OP ; !u !
v = 0g
! !
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX; !
u ! v = OP ; !
u !
v g
6
usando la notación de producto punto también podemos escribir
! !
M (P; !u ;!
v ) = fX = (x; y; z) 2 R3 j OX (! u ! v ) = OP (! u ! v )g
En efecto, como !u y! v son LI, entonces ! u !v es no nulo y sabemos que
!
u ! v es perpendicular tanto a ! u como a ! v.
! ! !
Sea ahora X 2 M (P; ! u ;!
v ), entonces OX = OP + :! u + ! v , luego OX
! ! !
OP 2< ! u ;!v >, con lo cual OX OP ; ! u ! v = 0. Recíprocamente, sea
! !
X 2 R3 tal que OX OP ; ! u ! v = 0, sabemos que ! u ;!
v y! u ! v son
! !
LI, luego generan R3 , por lo tanto OX OP = :! u + :!v + : (!u ! v ), luego
el producto interno de este vector con (!u ! v ) es nulo, y en consecuencia,
! ! ! !
= 0. Resulta, OX OP = :! u + :!
v , es decir, OX = OP + :! u + :! v,
! !
de donde X 2 M (P; u ; v ).
1. Sea V un espacio vectorial real tal que V = W1 Wk . Supóngase que cada Wi
es euclidiano con producto interno hi i . De…nir sobre V un producto interno y demostrar
que V es euclidiano.
2. Pruebe que si los vectores vi = (xi1 ; xi2 ; : : : ; xin ), 1 i n conforman una base
n
ortogonal de R , donde xij = 0 para i > j, entonces xij 6= 0 para i = j y xij = 0 para
i 6= j:
2 n
3. De…nir en el espacio Rn [x] un producto interno tal que f1; x; x2! ; : : : ; xn! g sea una base
ortonormal.
4. Sea V un espacio euclidiano y W1 ; W2 subespacios de V de dimensión …nita. Demostrar
que V = W1 W2 si y sólo si V = W1? W2? :
5. Sea V un espacio unitario de dimensión …nita y sea T : V ! V una transformación
lineal. Si T es invertible, entonces T es invertible y (T ) 1 = (T 1 ) :
6. Sea V un espacio unitario de dimensión …nita y sea T : V ! V una transformación
lineal hermitiana. Demostrar que la composición de dos transformaciones hermitianas es
hermitiana si y sólo si ellas conmutan para la composición.
7. Sea V un espacio unitario de dimensión …nita y sea T : V ! V una transformación
lineal tal que T 2 = T: Demostrar que T es hermitiana si y sólo si T T = T T:
8. Demuestre que una matriz compleja A de tamaño n n es unitaria si y sólo si las
columnas de A conforman una base ortonormal de Cn , si y sólo si, las …las de A conforman
una base ortonormal de Cn :
9. Sea Tn+ (C) el conjunto de matrices cuadradas complejas de orden n tales que los ele-
mentos diagonales son números reales positivos y los elementos por encima de la diagonal
son nulos. Demostrar que Tn+ (C) es un grupo respecto al producto.
10. Sea T : V ! V una transformación lineal de un espacio unitario. Entonces T se
puede descomponer en la forma T = U1 +iU2 , donde U1 ; U2 : V ! V son transformaciones
hermitianas.
7
11. En el espacio R2 [x] de polinomios reales de grado 2 se de…ne el producto interno
R1
(f; g) = 1
p(x)q(x)dx
2 i
A= .
i 4
8
Álgebra Lineal
Capı́tulo 8. Espacios con Producto Interno
Ejercicios.
Iniciamos esta sección de ejercicios repasando algunos conceptos de geometrı́a vectorial.
a. Sean −
→
u ,−
→v vectores no nulos de Rn . Probar que − →
u ,−
→v son ortogonales si y sólo si
k−
→
u +−
→
v k2 =k −
→
u k2 + k −
→
v k2 .
b. Sean →
−
u ,−
→
v vectores de Rn . Probar que
k−
→
u +−
→
v k2 + k −
→
u −−
→
v k2 = 2(k −
→
u k2 + k −
→
v k2 ).
c. Sean −
→u ,−
→v vectores no nulos de Rn . Demostrar que pr− →
− →
−
u ( v ) = (k v k cos θ) .e−
→ u , donde
→
→
−
e u es un vector de norma 1 en la dirección de u .
→
−
d. Sean −→u ,−
→v vectores no nulos de Rn . Probar que
k−
→
u −−
→
v k2 =k −
→
u k2 + k −
→
v k2 −2 k −
→
u kk −
→
v k cos θ,
1
i. Demostrar que el volumen de un paralelepı́pedo conformado por tres vectores no
coplanares − →
u ,−
→v ,−
→
w ∈ R3 viene dado por (− →
u ×−→v ,−
→
w ).
j. Lı́neas rectas en R3 : en este ejercicio repasamos la definición de recta en R3 y algunas
de sus más importantes caracterizaciones y propiedades.
es decir
x = p1 + λa1
y = p2 + λa2
z = p3 + λa3 .
2
−
→ →
−
a = (a1 , a2 ) 6= 0 se define por
−→
L (P, −
→
a ) = {OP + λ.− →
a | λ ∈ R} =
{(p1 , p2 ) + λ. (a1 , a2 ) | λ ∈ R} =
{(p1 + λa1 , p2 + λa2 ) | λ ∈ R}.
x = p1 + λa1
y = p2 + λa2 .
a2 x = a2 p1 + λa1 a2
a1 y = a1 p2 + λa1 a2
luego
a2 x − a2 p1 = a1 y − a1 p2
a1 y = a2 x + a1 p 2 − a2 p 1
3
sobre el vector normal →
−
n , por lo tanto
−→ −→
−→ −→ OP − OT , −
→
n
n OP − OT
d =k proj−
→ k= k .−
→
nk =
k−→
n k2
−→ −→ −→ −→
→
−
OP − OT , n →
−
| OP − OT , n |
| | k →
−
n k=
→
−
k n k2 k−→
n k
→
−
l. Sean →
−
a , b vectores de Rn . Demostrar que
→
− →
− −→
k−
→
a + b k2 − k −
→
a − b k2 = 4 −
→
a, b .
4
−→ →
− →
−
α.−
→
u + β.−→v = OP + α0 . u0 + β 0 . v 0 para ciertos escalares α0 , β 0 ∈ R, en conse-
→
− →
− → −
− →
cuencia α.−
→u + β.−→
v = α0 . u0 + β 0 . v 0 . Esto muestra que < −
→u ,−
→
v >⊆< u0 , v 0 >.
→ −
− →
Por la simetrı́a del problema, se tiene también que < u0 , v 0 >⊆< − →u ,−
→
v >.
→
− →
− →
− 0
→
−0
Supongamos ahora que < u , v >=< u , v >, entonces claramente
−→
M (P, −
→u ,−
→
v ) = {OP + α.− →u + β.−
→
v | α, β ∈ R} =
−→ →0
− →0
− → −
− →
{OP + α. u + β. v | α, β ∈ R} = M (P, u0 , v 0 ).
r3. M (P, −
→u ,−
→
v ) = M (Q, −
→
u ,−
→v ) ⇔ P ∈ M (Q, − →
u ,−
→v ) ⇔ Q ∈ M (P, − →u ,−
→v ).
→
− →
−
r4. Se dice que dos planos M (P, −→
u ,−
→
v ) y M (Q, u0 , v 0 ) son paralelos si y sólo
→
− →
−
si < −
→
u ,−
→v >=< u0 , v 0 >. Se tiene entonces la siguiente propiedad:
r5. Sea M (P, −
→
u ,−
→v ) un plano y Q ∈/ M (P, −
→
u ,−
→
v ) un punto por fuera de dicho
plano. Entonces, existe un único plano M que contiene a Q y es paralelo a M .
Este plano es por supuesto M (Q, − →u ,−
→
v ).
r6. Sean P, Q.R tres puntos distintos de R3 que no están sobre una misma
recta, es decir, no son colineales. Entonces,
existe
−→ un −
único plano
−que contiene
→ → −→
a estos tres puntos, dicho plano es M P, α. OQ − OP + β. OR − OP .
r7. Tres vectores − →u ,−
→
v y− →
w son linealmente dependientes si y sólo si están
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres
vectores son LD, entonces uno de ellos, por ejemplo − →u , está en la envolvente
lineal de v y w , es decir, u ∈< v , w >. Si v y −
→
− →
− →
− →
− →
− →
− →w son LI, entonces
tenemos que los tres están en el plano que pasa por el origen y tiene como
vectores directores a − →v y −→
w , es decir, los tres vectores están en el plano
M (0, −
→v ,−
→
w ). Si por el contrario −
→
v y−→
w son LD, entonces − →v = λ.− →
w , para un
cierto escalar λ ∈ R. Esto hace que los tres vectores estén en la recta L (0, −
→
w ),
→
− →
−
pero esta recta está contenida por ejemplo en el plano M (0, w , z ), siendo
→
−z cualquier vector LI con − →
w . Probemos la afirmación recı́proca. Supongamos
→
−
→
− →
− →
− →
−
que los tres vectores u , v y w están en el plano M 0, a , b , entonces
→
− →
− →
−
u ,−
→
v ,−→
w ∈< − →a , b >, pero sabemos por definición que − →
a y b son LI, luego
→
−u ,−
→
v y− →
w son LD.
r8. Ecuaciones paramétricas del plano: un punto cualquiera (x, y, z) del plano
M (P, −
→
u ,−
→v ) satisface las siguientes ecuaciones
x = p1 + αu1 + βv1
y = p2 + αu2 + βv2
z = p3 + αu3 + βv3 .
5
r9. Ecuación Cartesiana del plano: eliminando los parámetros α y β de las
ecuaciones parámetricas del plano obtenemos la ecuación cartesiana, veamos
un ejemplo: consideremos el plano M (P, − →
u ,−
→v ), donde P = (1, 2, 3), −
→
u =
→
−
(1, 1, 0) y v = (0, 1, 1). Entonces, las ecuaciones paramétricas son
x=1+α
y =2+α+β
z =3+β
luego
y−2−α=z−3
con lo cual
y−2−x+1=z−3
x − y + z = 2.
−−→ −→
−
→ →
− →
− →
−
M (P, u , v ) = {X = (x, y, z) ∈ R | OX − OP , u × v = 0}
3
−−→ −→
M (P, −
→
u ,−
→v ) = {X = (x, y, z) ∈ R3 | OX, −
→
u ×−
→v = OP , −
→
u ×−
→
v }
−−→ → − −→ → −
M (P, −
→
u ,−
→
v ) = {X = (x, y, z) ∈ R3 | OX · (−
u ×→
v ) = OP · (−
u ×→
v )}
6
En efecto, como −→u y− →
v son LI, entonces − →u ×− →
v es no nulo y sabemos que
→
− →
− →
−
u × v es perpendicular tanto a u como a v . →
−
−−→ −→ −−→
Sea ahora X ∈ M (P, − →u ,−
→v ), entonces OX = OP + α.− →
u + β−
→v , luego OX −
−→ −−→ −→ → −
OP ∈< − →
u ,−
→v >, con lo cual OX − OP , − u ×→ v = 0. Recı́procamente, sea
−−→ −→
X ∈ R3 tal que OX − OP , − →u ×− →
v = 0, sabemos que − →
u ,−
→
v y− →
u ×− →v son
−−
→ −→
LI, luego generan R3 , por lo tanto OX − OP = α.− →u +β.−→
v +γ. (−
→
u ×− →
v ), luego
→
− →
−
el producto interno de este vector con ( u × v ) es nulo, y en consecuencia,
−−→ −→ −−→ −→
γ = 0. Resulta, OX − OP = α.− →u + β.−
→
v , es decir, OX = OP + α.− →u + β.−→v,
→
− −
→
de donde X ∈ M (P, u , v ).
7
c11 · · · c1n
..
A = ... ..
. .
cn1 · · · cnn
Entonces, A es unitaria si y sólo si ((ci1 , . . . , cin ) , (cj1 , . . . , cjn )) = δij , donde δii = 1 y
δij = 0 para i 6= j. Nótese entonces que A es unitaria si y sólo si las filas de A conforman
un conjuntos ortonormal de n vectores de Cn , es decir, si y sólo si las filas de A conforman
una base ortonormal de Cn . Al considerar la segunda igualdad matricial de arriba se
obtiene la afirmación análoga por columnas.
9. Sea Tn+ (C) el conjunto de matrices cuadradas complejas de orden n tales que los ele-
mentos diagonales son números reales positivos y los elementos por encima de la diagonal
son nulos. Demostrar que Tn+ (C) es un grupo respecto al producto.
10. Sea T : V → V una transformación lineal de un espacio unitario. Entonces T se
puede descomponer en la forma T = U1 +iU2 , donde U1 , U2 : V → V son transformaciones
hermitianas.
11. En el espacio R2 [x] de polinomios reales de grado ≤ 2 se define el producto interno
R1
(f, g) = −1 p(x)q(x)dx.
Si D es el operador derivación definido sobre R2 [x], encuentre la matriz del operador D∗
en la base canónica de R2 [x].
12. En el espacio Rn [x] de polinomios reales de grado ≤ n se define el producto interno
Pn
k=0 p(k)q(k)
8
15. Ilustrar dos operadores normales T y S tales que ST y T S sean normales y distintos.
16. Sea U = h(−1, i, 0, 1) , (i, 0, 2, 0)i ⊂ C4 . Encontrar una base ortonormal de U ⊥ y
extenderla hasta una base ortonormal de C4 .
Solución. Inicialmente buscamos vectores (a, b, c, d) , (x, y, z, w) ∈ C4 tales que
(a, b, c, d) · (−1, i, 0, 1) = d − ib − a = 0
(a, b, c, d) · (i, 0, 2, 0) = 2c − ia = 0
(x, y, z, w) · (−1, i, 0, 1) = w − x − iy = 0
(x, y, z, w) · (i, 0, 2, 0) = 2z − ix = 0
Resolvemos
d − ib − a = 0
2c − ia = 0
w − x − iy = 0
2z − ix = 0
9
z1 = (−1, i, 0, 1) = y1 √ √ √
(−1,i,0,1)
t1 = k(−1,i,0,1)k = t1 = − 13 3, 31 i 3, 0, 13 3
z2 = (i, 0, 2, 0)
(i,0,2,0)·(−1,i,0,1)
y2 = (i, 0, 2, 0) − (−1,i,0,1)·(−1,i,0,1) (−1, i, 0, 1) = 23 i, − 13 , 2, 13 i ,
( 2 i,− 1 ,2, 1 i) 1
√ √ 1
√ √ √ √ √ √
t2 = 32 i,− 31 ,2, 31 i = 21 i 3 14, − 42 3 14, 17 3 14, 42 1
i 3 14 .
k( 3 3 3 )k
Veamos finalmente que los 4 vectores son LI:
√ √
0√ − 21√ i 2 √0 1
2 √
2
−2i 7 1
7 1
7 1
− 7√ i 7
7 √ 7 √ 7
−1 3 1
i 3 0 1
3
1
√3 √ 1
3√ √
1
√ √ 1
√
3 √
21
i 3 14 − 42 3 14 7 3 14 42 i 3 14
Los dos valores propios son diferentes y son por supuesto las dos raı́ces distintas del
mı́nimo. Esto garantiza que A es diagonalizable. La diagonalización del Capı́tulo 6 se
hace a través de la base de vectores propios disponiendo estos vectores en las columnas
de una matriz C y calculando C −1 AC:
√ √ −1 √ √
−i 2 − i i 2 − i 2 i −i 2 − i i 2 − i
1 1 −i 4 1 1
10
Usando el SWP para este cálculo se obtiene una matriz F = [fij ] con entradas suficien-
temente complicadas, sin embargo estas entradas se pueden simplificar con el comando
Simplify y obtenemos lo siguiente :
√ √
2 i
f11 = 4 √ + √ i 2 + 2i +
4 2+4 4 2+4
√ !
√ 2 2 √
−i 2 − i −i √ + √ i 2 + 2i
4 2+4 4 2+4
√
= 3 − 2.
√ √
2 i
f12 = 4 √ + √ i 2 + 2i +
4 2+4 4 2+4
√ !
√ 2 2 √
i 2−i −i √ + √ i 2 + 2i
4 2+4 4 2+4
= 0.
5√ √ 3 √ 1
f21 = 2 + −i 2 − i − i 2 − i + 2 = 0.
4 4 2
5√ √ 3 √ 1
√
f22 = 2+ i 2−i − i 2 − i + 2 = 2 + 3.
4 4 2
Con lo cual,
√
−1 3− 2 √ 0
C AC = .
0 2+3
11
√
p √ √
−i 2 − i, 1
= 2 2 + 4, √ √1 −i 2 − i, 1
2 2+4
√
p √ √
i 2 − i, 1
= 4 − 2 2, √ 1 √ i 2 − i, 1
4−2 2
√ √ −1
√ 1 1
√ −i 2 − i √ √ i 2−i
2 2+4
1
4−2 2 ×
√ √ √ 1√
2 2+4 4−2 2
2 i
×
−i 4
√ √
√ 1 1
√ −i 2 − i √ √ i 2−i
2 2+4
1
4−2 2
√ √ √ 1√
2 2+4 4−2 2
Al realizar el producto anterior con el SWP obtenemos una matriz cuyas entradas deben
ser simplificadas:
√ p√ √ p√ p√ √ p√
1
2
√√ 2 −2 2+2+2 2 i
2 + 2 + 4√2+4 2i 2 + 2 + 2i 2 2+2
2+2
√ √ 1 p√ √ p√ p√ √ p√
+ 12 √√ 2 −i 2 − i 2 i 1
2 + 2 − 2i 2 2
2 + 2 + 4 2+4 2i
√ 2 + 2 + 2i 2 2+2
2+2
√
=3− 2;
√ p√ √ p√ p√ √ p√
1 √ 2 i
2 √ −2 2+2+2 2 2 + 2 + 4√2+4 2i 2 + 2 + 2i 2 2+2
− 2+2
√ √ p√ √ p√ p√ √ p√
+ 21 √ √2 i 2 − i 12 i 2 + 2 − 12 i 2 2 + 2 + 4√22+4 2i 2 + 2 + 2i 2 2+2 =
− 2+2
= 0;
p √
√ √ p √
1
2
√√ 25
− 2+2+2 2 − 2+2 +
2+2 2
√
1√ 2
√ 3 p √ 1
√ p √
2 √ −i 2 − i − 2
i − 2 + 2 − 2
i 2 − 2 + 2 = 0;
2+2
√ p √ √ p √
1 √2 5
2 √ 2
− 2 + 2 + 2 2 − 2 + 2 +
− 2+2
√
1√ 2
√ p √ √ p √
2 √ i 2 − i − 32 i − 2 + 2 − 12 i 2 − 2 + 2
− 2+2
√
= 2+3
12
Lo cual coincide con el procedimiento del Capı́tulo 6.
Veamos finalmente que C es unitaria:
√ √
√ √1 −i 2 − i √ 1 √ i 2 − i
2 2+4 4−2 2
√ √1 √ 1√
2 2+4 4−2 2
1 0
.
0 1
√ √ √ √ √
i√ 2 (1 + i) 3 a −i 2√ 8 2 √
1 1
√ √8 √ b 2 √ (1 − i) 3 b (−1 − i) 3
2 3 2 (−1 + i) 3 −2 2 3 a 2 −2
1
√
12
aa + 23 √ 1
6
a + 121
+ 121
i b 3 + 13 i − 16 a − 13i √
= 16 a + 121
− 12 1
i b 3 − 13 i 1
12
bb + 1 √ 1
− 12 1
+ 12 i b 3
1 1 1 1
−6a + 3i − 12 − 12 i b 3 1
1 0 0
= 0 1 0
0 0 1
Entonces,
1
aa + 23 = 1
12
1 1 1
√
6
a + 12 + 12 i b 3 + 13 i = 0
− 16 a − 13 i = 0
13
1 1
√
1
6
a + 12 − 12 i b 3 − 13 i = 0
1
bb + 1 = 1, luego b = 0
12
1 1
√
− 12 + 12 i b 3=0
− 16 a + 31 i = 0, luego a = 2i
1 1
√
− 12 − 12 i b 3 = 0.
En total, b = 0 y a = −2i.
19. Encontrar una matriz ortogonal Q tal que
√ √
√25 −2 5 − 5
T
Q −2√5 18 14 Q
− 5 14 −3
sea diagonal.
Solución. Según la Proposición 13 de la Lección 7 del Capı́tulo 8 tal matriz existe y sus
columnas son la base ortonormal de vectores propios de la matriz dada.
√ √
√25 −2 5 − 5
−2 5 18 14
√
− 5 14 −3
√ √
0 5 − 5
eigenvectors: − 1
↔ −10, 2 ↔ 20, 2 ↔ 30
2
1 1 1
√
k 0, − 21 , 1 k= 12 5
√ √
k 5, 2, 1 k= 10
√ √
k − 5, 2, 1 k= 10
√ √ −1 √ √ √ √
1 1 1
0 2 − 2 25 −2 5 − 5 √0 2 − 12 2
− 1 √5 √22 2
√2
√ 1
−5 5
2
√2 √2
5√ 10 10 −2√5 18 14 √ 10 10
2 √1 √1 2 √1 √1
5
5 10 10
− 5 14 −3 5
5 10 10
−10 0 0
= 0 20 0
0 0 30
√ √
√ 0 12 2 − 12 2
1 2 √2
Veamos finalmente que la matriz − 5 √5 √10 10 es ortogonal:
2 √1 √1
5
5 10 10
14
√ √ −1 √ √
1
0 2 − 12 2 0 − 1
5 2
5
− 1 √5 2
√2 √2
√ √
5 5√
5√ 10 10 = 1
2 √
2 5 √10 10 √10
1 1
2 √1 √1
5
5 10 10
− 2 2 15 10 10
1 1
10
√ √ T
√ 0 21 2 − 12 2
1 2 √2
= − 5 √5 √10 10
2 1 1
5
5 √
10
√
10
15
180 CAPÍTULO 8. PRODUCTO INTERNO
Capı́tulo 9
Formas Bilineales
Introducción
El producto interno en espacios euclidianos y unitarios constituye un caso particular de un concepto
más general como es el de forma bilineal sobre un cuerpo arbitrario. El enfoque generalizado de los
espacios euclidianos que se plantea en el presente capı́tulo permite hacer estudios geométricos sobre
cuerpos arbitrarios.
f : V × V −→ K
(u, v) 7−→ f (u, v)
tal que
ii) f (a · u, v) = af (u, v)
para cualesquiera u1 , u2 , u, v, v1 , v2 ∈ V, a ∈ K.
El conjunto L(V, V, K) de las formas bilineales sobre el K-espacio vectorial V constituye un espacio
vectorial con las operaciones siguientes:
Definición 9.2. Sea V un K-espacio de dimensión finita y X = {v1 , . . . , vn } una base ordenada de
V . Sea f una forma bilineal sobre V , la matriz de f en la base X se define por:
181
182 CAPÍTULO 9. FORMAS BILINEALES
L(V, V, K) ∼
= Mn (K)
mX : L(V, V, K) −→ Mn (K)
f 7−→ mX (f )
es decir,
f (u, v) = Y AZ T
Además, claramente mX (f ) = A.
9.2. Rango
En la lección anterior asignamos una matriz a una forma bilineal. Esto permitirá en la presente lección
desarrollar una noción de rango para formas bilineales.
Proposición 9.1. Sea V un K-espacio de dimensión finita n y f ∈ L(V, V, K). Sean X = {v1 , . . . , vn }, X 0 =
{u1 , . . . , un } bases ordenadas de V . Entonces
mX 0 (f ) = C T mX (f )C,
Pn
Demostración: Sea C = (cij ), con uj = i=1 cij· vi . Entonces,
n n
! n X
n
X X X
f (ui , uj ) = f cki · vk , clj · vl = cki clj f (vk , vl )
k=1 l=1 k=1 l=1
entonces,
n X
X n
bij = cki clj akl ,
k=1 l=1
Pn Pn
donde B = mX 0 (f ) y A = mX (f ). Resulta bij = l=1 ( t
k=1 cik akl ) clj , es decir, B = C T AC.
Teniendo en cuenta que las matrices de cambio de base son invertibles, se tiene entonces el siguiente
corolario de la proposición anterior.
Notemos sin embargo que mX 0 (f ) y mX (f ) no son necesariamente matrices similares (no po-
demos asegurar que C −1 = C T )
Definición 9.3. Sea f una forma bilineal sobre un espacio V de dimensión finita. Se llama rango de
f al rango de su matriz (en cualquier base ordenada).
Proposición 9.2. Sea f una forma bilineal sobre un espacio V de dimensión n. Entonces las siguientes
condiciones son equivalentes:
(i) rank(f ) = n
Lf : V −→ V∗
u 7−→ Luf :V −→ K
v 7−→ f (u, v);
Rf : V −→ V∗
v 7−→ Rfv : V −→ K
u 7−→ f (u, v)
Evidentemente Luf , Rfv ∈ V ∗ ∀u, v ∈ V , y Lf y Rf son transformaciones lineales.
En este lenguaje, nótese que la parte (ii) del enunciado de la proposición es equivalente a que N (Lf ) =
0, al igual que la parte (iii) es equivalente a que N (Rf ) = 0. La proposición estarı́a probada si logramos
establecer que
Sea X una base ordenada de V , Z = [a1 , . . . , an ], Y = [b1 , . . . , bn ] las coordenadas de los vectores
u, v ∈ V en la base X; y A = mX (f ). Entonces u ∈ N (Lf ) ⇔ f (u, v) = 0, ∀v ∈ V ⇔ ZAY T = 0 para
todo vector Y ∈ K n ⇔ ZA = 0 ⇔ AT Z T = 0 ⇔ Z T ∈ N (At ), entonces
f : V × V −→ R
(u, v) −→ f (u, v) = (u, v)
es claramente una forma bilineal tal que f (u, v) = f (v, u) para todo u, v ∈ V y además f (u, u) > 0 para
cada u 6= 0. Recı́procamente, cada forma bilineal f sobre V que cumpla las dos condiciones anteriores,
define un producto interno.
Ejemplo 9.2. En el espacio V = R2 consideremos la forma bilineal definida por el producto interno
y las bases X = {(1, 0), (0, 1)}, X 0 = {(1, −1), (1, 1)}, X 00 = {(1, 2), (3, 4)}. Entonces se tiene que
1 0 2 0 5 11
mX (f ) = , mX 0 (f ) = , mX 00 (f ) =
0 1 0 2 11 25
Presentamos ahora uno de los teoremas centrales del presente capı́tulo acerca de la diagonlización
de las formas bilineales simétricas en cuerpos de caracterı́stica diferente de 2.
Teorema 9.2. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma bilineal
simétrica sobre V , entonces existe una base X en V tal que mX (f ) es diagonal.
Demostración: Si f = 0 ó n = 1 no hay nada que probar. Sea f 6= 0 y n > 1. Si f (u, u) = 0 para cada
u ∈ V , entonces f = 0. En efecto, como char(K) 6= 2, 4 = 1 + 1 + 1 + 1 6= 0 en K y por lo tanto existe
4−1 = 1/4. Se tiene la siguiente identidad de polarización:
1 1
f (u, v) = f (u + v, u + v) − f (u − v, u − v).
4 4
9.3. FORMAS BILINEALES SIMÉTRICAS 185
W ⊥ = {v ∈ V | f (u, v) = 0} .
Claramente W ⊥ ≤ V . Veamos que V = W ⊥ ⊕ W . Sea v ∈ V . Hagamos
f (v, u)
z=v− · u.
f (u, u)
Entonces
f (v, u)
f (u, z) = f (u, v) − f u, ·u
f (u, u)
f (v, u)
= f (u, v) − f (u, u)
f (u, u)
= f (u, v) − f (v, u) = 0.
Sea ahora a · u ∈ W tal que a · u ∈ W ⊥ . Entonces f (u, a · u) = af (u, u). Pero como f (u, u) 6= 0,
entonces a = 0 y ası́ W ⊥ ∩ W = 0.
f restringida a W ⊥ es una forma bilineal simétrica. Como dim W ⊥ = n − 1, podemos aplicar in-
ducción y suponer que existe una base {u2 , . . . , un } en W ⊥ tal que f (ui , uj ) = 0 para i 6= j e i, j ≥ 2.
Sea X = {u1 = u, u2 , . . . un }, X es pues la base buscada.
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 ≤ i ≤ r, f (vi , vi ) = 0 para i > r.
Demostración: Según el Teorema 9.2, existe una base X 0 = {u1 , . . . , un } en V tal que mX 0 (f ) es
diagonal. Como rank(f ) = r, entonces rank (mX 0 (f )) = r. Reordenando la base X 0 podemos suponer
que f (uj , uj ) 6= 0 para 1 ≤ j ≤ r y f (uj , uj ) = 0 para j > r. Resta definir
(
√ 1 · uj , 1 ≤ j ≤ r
vj = f (uj ,uj )
uj , j>r
p
donde f (uj , uj ) es una cualquiera de las raı́ces cuadradas de f (uj , uj ).
La última parte de la demostración anterior no puede ser aplicada al caso real. Por eso en su lu-
gar tenemos:
Corolario 9.5. Si dimR V = n y f una forma bilineal simétrica sobre V con rank(f ) = r. Entonces,
existe una base ordenada X = {v1 , v2 , ..., vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = ±1 para 1 ≤ i ≤ r, y f (vi , vi ) = 0 para i > r.
186 CAPÍTULO 9. FORMAS BILINEALES
(c) El número de vectores de la base X para los cuales en (b) se da el signo positivo es independiente
de dicha base.
Demostración: Existe una base X 0 = {u1 , u2 , ..., un } en V tal que f (ui , uj ) = 0 para i 6= j. Como
rank(f ) = r, entonces rank(mX 0 (f )) = r y podemos reordenar X 0 de tal manera que f (ui , ui ) 6= 0
para 1 ≤ i ≤ r y f (ui , ui ) = 0 para i > r.
Sea
(
√ 1
.ui 1≤i≤r
vi = | f (ui ,ui )|
ui i > r.
Nótese que entonces X = {v1 , v2 , ..., vn } cumple (a) y (b).
Sea p el número de vectores vi de la base X para los cuales f (vi , vi ) = 1. Se debe probar que p
es independiente de la base X que satisface (a) y (b).
Sean
Si v 6= 0 está en VX+ , entonces f (v, v) > 0, es decir, f es definida positivamente sobre VX+ . Análoga-
mente, si v 6= 0 esta en VX− entonces f (v, v) < 0 , es decir, f es definida negativamente en VX− .
Sea ahora VX⊥ = hvi ∈ X | f (vi , vi ) = 0i . Nótese que si v ∈ VX⊥ entonces f (v, x) = 0 para cada
x ∈ V. Teniendo en cuenta que X es una base de V , entonces
Según lo probado y de acuerdo a (9.1) se tiene dim W ≤ dim VX+ . En otras palabras, si W es un
subespacio de V en el cual f está definida positivamente, entonces dim W ≤ dim VX+ . Sea entonces Y
otra base de V que cumple (a) y (b), y sean VY− , VY⊥ , VY+ definidos como para la base X. Por lo tanto
dim VY+ ≤ dim VX+ , y por simetrı́a, dim VX+ ≤ dim VY+ , ası́ se tiene que dim VX+ = dim VY+ .
Adaptando la prueba del Corolario 9.3 se pueden establecer los siguientes resultados para el caso
antisimétrico.
Corolario 9.6. Sea V un K-espacio de dimensión finita n y X una base ordenada cualquiera de V.
Sea f una forma sobre V. Entonces, f es antisimétrica ⇔ mX (f ) es antisimétrica.
Corolario 9.7. Sea f ∈ L(V, V, K) una forma bilineal antisimétrica sobre un K-espacio de dimensión
finita, donde char(K) 6= 2. Entonces, en cualquier base ordenada X de V, los elementos diagonales de
mX (f ) son nulos.
Proposición 9.3. Si char(K) 6= 2 y f ∈ L(V, V, K), entonces f es suma de una forma simétrica y
una antisimétrica. Tal representación de f es única.
1
⇒ g 0 (u, v) = [f (u, v) + f (v, u)] = g(u, v).
2
De manera similar resulta h0 = h.
Ahora presentamos los análogos del Teorema 9.2, Corolario 9.4 y Corolario 9.5 del caso simétrico
para el caso antisimétrico.
188 CAPÍTULO 9. FORMAS BILINEALES
Teorema 9.3. Sea dimV = n y f ∈ L(V, V, K) una forma bilineal antisimétrica, donde char(K) 6= 2.
Entonces el rango de f es par, rank(f ) = 2k. Además, existe una base ordenada X en V tal que la
matriz de f es “suma directa” de la matriz nula de orden (n − 2k) y k matrices 2×2 de la forma
0 1
−1 0
Demostración: Si f = 0 el teorema es verdadero. Sea f 6= 0. Existen u1 , v1 ∈ V − {0} tales que
f (u1 , v1 ) 6= 0. Multiplicando u1 por f (u1 , v1 )−1 podemos suponer (s.p.) que f (u1 , v1 ) = 1.
Sea ahora W1 = hu1 , v1 i, por lo probado antes se tiene que la dim (W1 ) = 2.
Sea W1⊥ = {z ∈ V | f (z, w) = 0, para cada w ∈ W1 } . Veamos que V = W1 ⊕ W1⊥ : Sean x ∈ V ,
w = f (x, v1 ).u1 − f (x, u1 ).v1 y z = x − w. Claramente w ∈ W1 y x = w + z. Veamos que z ∈ W1⊥ :
luego z = 0.
Si la restriccion f2 de f1 a W2⊥ es nula hemos terminado. En este caso tendremos dos bloques de
tamaño 2 × 2 y un bloque nulo de tamaño (n − 4 × n − 4) de tal forma que rank (f ) = 4. Si f2 no es
nula podemos continuar de esta manera y consegir una sucesión finita (dim V es finita ) de pareja de
vectores (u1 , v1 ) ,(u2 , v2 ),..., (uk , vk ) tales que:
(a) f (uj , vj ) = 1 para 1 ≤ j ≤ k.
(b) f (ui , uj ) = f (vi , vj ) = f (ui , vj ) = 0 para i 6= j.
9.5. FORMAS SESQUILINEALES 189
V = W1 ⊕ · · · ⊕ Wk ⊕ W0
m{u1 ,v1 } (f ) 0
..
.
mX (f ) =
..
.
0 m{uk ,vk } (f )
mX0 (f )
0 1
−1 0
..
. k bloques
= 0 1
0
−1 0
0 0
0
0 0
Corolario 9.8. Toda forma bilineal antisimétrica f no singular es de grado par. Si dim V = 2k ,
entonces existe una base X en V tal que
0 L
mX (f ) =
−L 0
Definición 9.7. Sea V un espacio real o complejo. Una forma sesquilineal f sobre V es una función
f : V × V −→ K (K = C, ó R)
(u, v) −→ f (u, v)
tal que
Para cualesquiera u1 , u2 , u, v1 , v2 , v ∈ V, a ∈ K.
Observación. Nótese que las formas sesquilineales reales coinciden con las formas bilineales reales
estudiadas en las lecciones anteriores. De otra parte, con las mismas operaciones definidas en la Lección
1, la colección de formas sesquilineales constituyen un espacio vectorial S. Establecemos enseguida el
isomorfismo de este espacio con el de las matrices cuadradas complejas (o reales) para el caso de
espacios de dimensión finita.
Definición 9.8. Sea V un espacio de dimensión finita n y sea X = {v1 , . . . , vn } una base ordenada
cualquiera de V . Sea f una forma sesquilineal sobre V , la matriz de f en la base X se define por
S∼
= Mn (K)
con K = C ó R. En consecuencia, dim S = n2 .
Demostración: Fijemos una base ordenada cualquiera X = {v1 , . . . , vn } en V y consideremos la función
mX : S −→ Mn (K)
f 7−→ mX (f ) = A
mX es claramente K-lineal. f puede escribirse matricialmente con ayuda de A, en la siguiente forma:
sean Y = (a1 , ..., an ), Z = (b1 , . . . , bn ) las coordenadas de u y v respectivamente en la base X. Entonces,
n X
X n
f (u, v) = ai bj f (vi , vj ),
i=1 j=1
T
f (u, v) = Y AZ ∗ , Z ∗ = Z (9.2)
mX es sobreyectiva: sea A ∈ Mn (K) y f definida como en (9.2). Entonces,
f (u + u, v) = f (u, v) + f (u, v)
f (u, v + v) = f (u, v) + f (u, v)
f (a.u, v) = af (u, v)
f (u, a.v) = af (u, v)
y además mX (f ) = A.
9.5. FORMAS SESQUILINEALES 191
La siguiente propiedad estudia el cambio que sufre la matriz de una forma sesquilineal cuando se
produce un cambio de base (compárese con la Proposición 9.1 para el caso bilineal). Esto permitirı́a
definir los conceptos de rango de una forma sesquilineal y de forma sesquilineal no singular. Sin em-
bargo, en la literatura clásica sobre formas sesquilineales estos conceptos no son tratados con suficiente
atención.
Proposición 9.4. Sea V un espacio real o complejo de dimensión finita n, y sea f una forma sesqui-
lineal sobre V . Sean X = {v1 , . . . , vn } y X 0 = {u1 , ..., un } bases ordenadas de V . Entonces,
mX 0 (f ) = C T mX (f ) C
donde C es la matriz de cambio de la base X a la base X 0 .
Veremos a continuación la manera de asociar a cada forma sesquilineal definida sobre un espacio con
producto interno una cierta transformación lineal cuya matriz es la transpuesta de la matriz de la
forma.
Proposición 9.5. Sea V un espacio de dimensión finita n con producto interno, y f una forma
sesquilineal sobre V . Entonces, existe una única transformación lineal S : V −→ V tal que
Demostración: Paso 1 Sea v un elemento fijo de V y sea X = {v1 , · · · , vn } una base ortonormal de
V , definimos
w = f (v1 , v) · v1 + · · · + f (vn , v) · vn
y sea u = a1 .v1 + · · · + an .vn un elemento cualquiera de V . Entonces, f (u, v) = a1 f (v1 , v) + · · · +
an f (vn , v) y también hu, wi = a1 f (v1 , v) + · · · + an f (vn , v), es decir, f (u, v) = hu, wi∀u ∈ V .
S:V −→ V
v 7−→ S(v) = w
cumple f (u, v) = hu, wi , ∀u ∈ V y además S es K−lineal y cumple (4).
Paso 3 Sean S1 , S2 que cumplan (9.3), entonces para todo u, v ∈ V hu, S1 (v)i = hu, S2 (v)i, es decir,
hu, (S1 − S2 )(v)i = 0, entonces (S1 − S2 )(v) = 0 ∀v ∈ V , es decir, S1 = S2 .
Corolario 9.9. Sea V un espacio con producto interno de dimensión finita n, y sea f una forma
sesquilineal sobre V . Entonces existe una única transformación lineal Tf : V −→ V tal que
* n
+
X
bij = f (vi , vj ) = hTf (vi ), vj i = aki vk vj = aji
k=1
por lo tanto,
mX (f ) = mX (Tf )T (9.4)
(b) Sea ahora V un espacio real o complejo (no necesariamente con producto interno) y X una base
de V . Sea f una forma sesquilineal sobre V . f determina una matriz A = mX (f ); A determina una
transformación U : V −→ V ası́: U (x) = AT Z T , con Z = [a1 , · · · , an ] coordenadas de x en X. Nótese
que mX (U ) = AT .
(c) Combinando (a) y (b) para un espacio V con producto interno y X ortonormal se tiene:
mX (Tf ) = mX (f )T = AT = mX (U )
luego,
U = Tf .
En la Lección 3 vimos que las formas bilineales simétricas (ya sean reales o complejas) son diagonaliza-
bles. Veremos ahora como las formas sesquilineales definidas sobre espacios unitarios son triangulables.
Teorema 9.5. Sea f una forma sesquilineal sobre un espacio unitario V de dimensión finita n ≥ 1.
Entonces existe una base ortonormal X en V tal que la matriz de f es triangular superior.
Demostración: Según el Ejercicio 7 de la Lección 9 del Capı́tulo 8, existe una base ortonormal X =
{v1 , ..., vn } en V tal que la matriz de la transformación Tf asociada a f es triangular superior. Según
(9.4) mX (f ) es triangular inferior. Siendo Y = {vn , · · · , v1 } entonces se tiene la afirmación.
Proposición 9.6. Una forma sesquilineal f sobre un espacio V de dimensión finita n ≥ 1 con producto
interno es hermitiana si, y sólo si, Tf es autoadjunta, es decir, Tf∗ = Tf . En otras palabras, f es
hermitiana si y sólo si Tf es hermitiana.
Demostración: Supongamos que Tf es autoadjunta, por lo tanto
ası́, f es hermitiana.
Recı́procamente, si f es hermitiana, entonces f (u, v) = f (v, u), luego hTf (u), vi = hTf (v), ui, por
lo tanto, hTf (u), vi = hu, Tf (v)i ∀u, v ∈ V , por consiguiente, Tf∗ = Tf , es decir, Tf es autoadjunta.
9.6. FORMAS HERMITIANAS 193
Proposición 9.7. Una forma sesquilineal f sobre un espacio unitario V es hermitiana si y solo si
f (u, u) es real para cada u ∈ V .
Demostración: ⇒) Evidente a partir de la definición.
⇐) Sean u, v ∈ V , entonces
1
f (u, v) = f1 (u) f2 (v) − f2 (u) f1 (v)
define una forma bilineal antisimétrica sobre V. Demostrar que f = 0 si y sólo si f1, f2 son
linealmente dependientes.
2
196 CAPÍTULO 9. FORMAS BILINEALES
Capı́tulo 10
Formas Cuadráticas
Introducción
Las ideas y resultados expuestos en los dos capı́tulos anteriores son ahora considerados para el estudio
de las llamadas formas cuadráticas que tienen amplias aplicaciones en diferentes áreas de matemáticas
y estadı́stica.
q : V −→ K
u 7−→ q(u) = f (u, u)
Nótese que q(βu) = f (βu, βu) = β 2 f (u, u) = β 2 q(u), para β ∈ K, u ∈ V , en particular q(−u) = q(u).
De otra parte,
1
f (u, v) = [q(u + v) − q(u) − q(v)]
2 (10.2)
1
f (u, v) = [f (u + v, u + v) − f (u, u) − f (v, v)]
2
Si reemplazamos v por −v en (1) obtenemos:
197
198 CAPÍTULO 10. FORMAS CUADRÁTICAS
1
f (u, v) = [f (u + v, u + v) − f (u − v, u − v)] (10.4)
4
Esta es la identidad de polarización que vimos en Teorema 2 del Capı́tulo 3.
donde α1 , ..., αk son la coordenadas de u en la base X. Los coeficientes de f (u, u) en (3) se denominan
canónicos. Uno de los teoremas centrales sobre formas cuadráticas es debido a Lagrange.
Teorema 10.1. (Método de Lagrange). Toda forma cuadrática sobre un K-espacio V de dimensión
finita n es reducible a una suma de cuadrados.
Demostración: Si f (u, u) = 0 para cada u ∈ V , entonces en cualquier base X de V se tiene que
1
f (u, v) = [q (u + v) − q (u) − q (v)] = 0,
2
para cualesquiera u, v ∈ V . Por lo tanto, la matriz A de la forma cuadrática es nula y de esta manera
q(u) = 0 para cada u ∈ V . Es decir, q = 0 es una suma de cuadrados.
Se puede siempre suponer que f (v1 , v1 ) = a11 6= 0. En efecto, consideremos dos casos:
Caso 1. Si a11 = 0 pero aii 6= 0 para algún 2 ≤ i ≤ n , entonces podemos reordenar la base Y
(cambiando v1 por vi ) de tal forma que el coeficiente correspondiente al primer cuadrado sea no nulo.
Caso 2. Si aii = 0 para cada 1 ≤ i ≤ n, entonces algún coeficiente aij = 6 0 y, con un reordena-
miento, podemos suponer que dicho coeficiente es a12 (cambiando v1 por vi y v2 por vj ).
Hacemos
1 1
0
−1 1
−1 1
C :=
..
0 .
1
1
2 − 21
1 1 0
2 2
1
C=
..
0 .
1
de donde
1 1
2 α1 − 21 α21
α1 α11 1 1
+ 21 α21
2 α1
.. .. α31
. = C .
=
..
αn αn1 .
αn1
y
z1 = 21 v1 + 12 v2 z2 = − 21 v1 + 12 v2 zi = vi 3≤i≤n
Ası́ pues, en (10.7) podemos suponer que el la base Y = {v1 , . . . , vn }, a11 6= 0. Se tiene entonces
que
200 CAPÍTULO 10. FORMAS CUADRÁTICAS
2 Pn
f (u, u) = a11 (α1 ) + 2a12 α1 α2 + · · · + 2a1n α1 αn + i,j=2 aij αi αj .
Pero
2 a12 a1n 2
a11 (α1 ) + 2a12 α1 α2 + ..... + 2a1n α1 αn = a11 (α1 + a11 α2 + ··· + a11 αn )
a2 2 a2 2
− a11
12
(α2 ) − · · · − a1n
11
(αn ) − · · ·
−2 a11 α2 α3 − · · · − 2 a12a11
a12 a13 a1n
α2 αn − · · · − 2 a1n−1
a11
a1n
αn−1 αn .
a12 a1n Pn
q(u) = a11 (α1 + a11 α2 + ..... + a11 αn )
2
+ i,j=2 a0ij αi αj
donde
( )
(a1i )2
a0ii = aii − a 2≤i≤n
a1i11
a1j (10.9)
a0ij = aij − a11 i 6= j, 2 ≤ i, j ≤ n
(a) Si la forma cuadrática q viene definida por la forma bilineal simétrica f con matriz simétrica
A en una base X = {v1 , . . . , vn }, entonces
q(u) = ZAZ T
donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X. La reducción a una suma de
cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si
X = {x01 , . . . , x0n } es la nueva base a través de la cual q es una suma de cuadrados, entonces
10.2. SUMA DE CUADRADOS 201
q(u) = Z 0 DZ 0T
d1 0
.. 0 0 T
= [α10 . . . αn0 ] . [α1 . . . αn ]
0 dn
2 2
= d1 (α10 ) + · · · + dn (αn0 )
donde Z 0 = [α10 . . . αn0 ] son las coordeandas del vector u en la base X 0 . Según la Lección 2 del Capı́tulo
9, las matrices A y D están relacionados por D = C T AC, donde C es la matriz de cambio de la base
X a la base X 0 . Reiteramos que A y D no son necesariamente similares, pero si tienen por supuesto el
mismo rango.
(b) La base a través de la cual la forma cuadrática se reduce a una suma de cuadrados no está definida
univocamente, y por lo tanto, los coeficientes d1 , . . . , dn tampoco son únicos.
(c) Además, si una forma cuadrática está reducida a la forma canónica (10.6), no necesariamente
todos los coeficientes d1 , . . . , dn son diferentes de cero. Sin embargo, en cualquier base X de V la
cantidad de coeficientes no nulos es la misma, y coincide con el rango de la forma cuadrática,
Ejemplo 10.1. Sea V un espacio vectorial sobre R, y sea q la forma cuadrática sobre V cuya matriz
con respecto a una base X = {v1 , v2 , v3 } es
1 2 −3
2 1 4
−3 4 0
Mostramos ahora un algoritmo para reducir q a una suma de cuadrados siguiendo el procedimiento de
la prueba del teorema anterior. La idea es entonces calcular los coeficientes d:
Paso 1. d1 = a11 = 1.
a212 4
a022 = a22 − = 1 − = −3
a11 1
a213 9
a033 = a33 − = 0 − = −9
a11 1
a12 a13 −6
a023 = a23 − =4− = 10 = a032
a11 1
es decir,
1 0 0
A0 = 0 −3 10
0 10 −9
202 CAPÍTULO 10. FORMAS CUADRÁTICAS
Paso 6. Entonces,
2 73 0 2 2
q (u) = (α10 ) − 3 (α20 ) +
(α3 ) .
3
Ejemplo 10.2. Reducir a una suma de cuadrados la siguiente forma cuadrática:
a212 1 5
a022 = a22 − =2− =
a11 3 3
2
a 0
a033 = a33 − 13 = 3 − = 3
a11 3
a12 a13 0
a023 = a23 − = −1 − = −1 = a032
a11 3
es decir,
3 0 0
A0 = 0 5
3 −1
0 −1 3
Paso 3. d2 = 53 .
definiendo
2
(a023 ) 1 12
a0033 = a033 − =3− 5 =
a022 3
5
Paso 5. d3 = a0033 = 12
5 .
Paso 6. Entonces,
5 0 2 12 0 2
2
q (u) = 3 (α10 ) +
(α ) + (α3 ) .
3 2 5
En este ejemplo vamos a mostrar adicionalmente los cambios de coordenadas y de base que hemos
realizado. Entonces, de acuerdo con la prueba del Teorema 1 se tiene que:
a12 a13 −1 0 1
α10 = α1 + α2 + α3 = α1 + α2 + α3 = α1 − α2
a11 a11 3 3 3
α20 = α2
α30 = α3
e01 = e1
1
e02 = e1 + e2
3
e03 = e3
con matriz
1
1 3 0
C= 0 1 0
0 0 1
Sabemos que (Proposición 1 de la Lección 2, Capı́tulo 9):
1
1 0 0 3 −1 0 1 3 0 3 0 0
mX 0 (q) = C T AC = 13 1 0 −1 2 −1 0 1 0 = 0 53 −1
0 0 1 0 −1 3 0 0 1 0 −1 3
Debe ser claro que esta nueva matriz para la forma q no es similar a la matriz A. Veamos como es la
forma cuadrática asociada esta nueva matriz:
0
0 3 0 0 α1
5
α1 α20 α30 0 53 −1 α20 = 3(α10 )2 − 2α20 α30 + (α20 )2 + 3(α30 )2
3
0 −1 3 α30
lo cual corresponde a la matriz A0 .
α100 = α10
a023 0 −1 3
α200 = α20 + α = α20 + 5 α30 = α20 − α30
a022 3 3
5
α300 = α30
e001 = e01
e002 = e02
3
e003 = e02 + e03
5
con matriz
1 0 0
C0 = 0 1 3
5
0 0 1
Por lo tanto, la matriz de q en esta nueva base es:
T
mX 00 (q) = (C 0 ) C T ACC 0
1 0 0 3 0 0 1 0 0
= 0 1 0 0 5
3 −1 0 1 3
5
3
0 5 1 0 −1 3 0 0 1
3 0 0
= 0 5
3 0
12
0 0 5
Nuevamente, no sobra recordar que la matriz inicial A no es similar a esta matriz diagonal.
Veamos como es la forma cuadrática asociada esta nueva matriz:
00
00 3 0 0 α1
5 12
α1 α200 α300 0 53 0 α200 = 3(α100 )2 + (α200 )2 + (α300 )2
3 5
0 0 12 5 α300
lo cual corresponde a la matriz A00 , y por supuesto a la reducción encontrada.
Sea X una base de V , entonces se define la matriz de q en la base X por mX (q) = mX (f ). Notemos
que esta matriz A es herimitiana y además,
q(u) = ZAZ ∗
donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X y A = mX (f ).
Si el espacio V viene dotado con un producto interno, entonces la forma q puede ser reducida a una
suma de cuadrados mediante una técnica más simple que la de Lagrange y en la cual los coeficientes
son los valores propios de A.
Teorema 10.2. Sea V un espacio con producto interno de dimensión finita n y f una forma sesquili-
neal hermitiana sobre V . Entonces existe una base ortonormal X = {v1 , ..., vn } en V y reales λ1 , ..., λn
tales que
n
X
f (u, u) = λk |αk |2
k=1
donde α1 , ..., αn son las coordenadas de u en la baseX.
Demostración: Según el Corolario 9 y la Proposición 6 del capı́tulo anterior, existe una transformación
lineal hermitiana (simétrica) Tf tal que
Tf (vk ) = λk · vk , 1 ≤ k ≤ n.
Entonces
n
X
Tf (u) = αk λk vk
k=1
(a) Si la forma cuadrática q viene definida por la forma sesquilineal hermitiana f con matriz her-
mitiana A en una base X = {v1 , . . . , vn }, entonces
q(u) = ZAZ ∗
donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X. La reducción a una suma de
cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si
X 0 = {x01 , . . . , x0n } es la nueva base a través de la cual q es una suma de cuadrados, entonces
206 CAPÍTULO 10. FORMAS CUADRÁTICAS
∗
q(u) = Z 0 D (Z 0 )
λ1 0 h iT
.. 0
= [α10 . . . αn0 ] . α1 . . . αn0
0 λn
= λ1 | α10 |2 + · · · + λn | αn0 |2
donde Z 0 = [α10 . . . αn0 ] son las coordeandas del vector u en la base X 0 . Según Proposición 4 de la
Lección 5 del Capı́tulo 9, las matrices A y D están relacionados por D = C T AC, donde C es la
matriz de cambio de la base X a la base X 0 . Pero en la prueba del teorema se vio que la base X 0 es
precisamente la base de vectores propios de Tf , por lo tanto la matriz C de cambio de X a X 0 es,
según la Proposición 12 de la Lección 7 del Capı́tulo 8, una matriz unitaria, es decir, C −1 = C ∗ . Se
−1
tiene pues en este método, a diferencia del método de Lagrange, que C = (C −1 ) = C T = C T .
Por lo tanto, D y A en este caso si son similares.
Ejemplo 10.3. Consideremos la forma cuadrática definida en el Ejemplo 2 de la Lección anterior,
q(u) = 3α12 − 2α2 α3 − 2α1 α2 + 2α22 + 3α32 . Reducir q a una suma de cuadrados usando el método
del teorema anterior. En la demostración del teorema vimos que la base X 0 a través de la cual se
diagonaliza la forma cuadrática q definida por la matriz
3 −1 0
A = −1 2 −1
0 −1 3
viene dada por la base ortonormalizada de vectores propios de la transformación lineal Tf , pero sa-
T
bemos que para cualquier base X de R3 se cumple mX (f ) = mX (Tf ) . Sea pues X la base canóni-
ca de R , entonces A = mX (f ) y A = mX (Tf ) = A, ya que A es hermitiana (realmente, A es
3 T
simétrica). Debemos entonces calcular los valores y vectores propios de A: E(1) = h(1, 2, 1)i , E(3) =
h(−1, 0, 1)i , E(4) = h(1, −1, 1)i. La base normalizada es entonces
0 1 1 1
X = √ (1, 2, 1) , √ (−1, 0, 1) , √ (1, −1, 1)
6 2 3
Se tiene entonces que
mX 0 (q) = C T AC
1 −1
√ √2 √1 √1 √ √1
6 6 6 3 −1 0 6 2 3
−1 −1
= √
2
0 √1
2 −1 2 −1 √2
6
0 √
3
√1 −1
√ √1 0 −1 3 √1 √1 √1
3 3 3 6 2 3
1 0 0
= 0 3 0
0 0 4
y la forma cuadrática q en esta nueva base es una suma de cuadrados donde los coeficientes son los
valores propios de A:
2 2 2
q(u) = (α10 ) + 3 (α20 ) + (α30 ) .
Se contrasta este resultado con el obtenido por el método de Lagrange en el Ejemplo 2 de la lección
anterior: como anotamos arriba, en este caso C −1 = C T , es decir, A y la matriz diagonal de valores
propios son similares.
10.3. FORMAS CUADRÁTICAS Y FORMAS HERMÍTICAS 207
Corolario 10.1. Sea V un espacio real o complejo de dimensión finita n. Sean f, g formas sesqui-
lineales hermitianas sobre V tales que g(u, u) > 0, ∀u ∈ V − 0. Entonces existe una base ortonormal
X = {v1 , ..., vn } en V tal que
n
X n
X
2
f (u, u) = λk |αk | , g(u, u) = |αk |2 (10.11)
k=1 k=1
También,
* n n
+ n
X X X
hu, ui = g(u, u) = αk vk , αk vk = |αk |2 .
k=1 k=1 k=1
Álgebra Lineal
Capı́tulo 10. Formas Cuadráticas
Ejercicios.
1. Usar la demostración de la Proposición 1 de la Lección 3 del presente capı́tulo para
expresar la forma cuadrática
q : R3 → R
q (x, y, z) = 3x2 + 2y 2 + 3z 2 − 2xy − 2yz
como una suma de cuadrados. Realizar también el ejercicio por el método de Lagrange y
comparar los resultados.
2. Supóngase que q : V → R es una forma cuadrática asociada al producto interno ( , )
de V . Probar que para cualesquiera vectores u, v ∈ V se tiene que
1
(u, v) =(q (u + v) − q (u) − q (v))
2
3. Sea q : V → R es una forma cuadrática y supóngase que
1
Álgebra Lineal
Capı́tulo 10. Formas Cuadráticas
Ejercicios.
1. Usar la demostración de la Proposición 1 de la Lección 3 del presente capı́tulo para
expresar la forma cuadrática
q : R3 → R
q (x, y, z) = 3x2 + 2y 2 + 3z 2 − 2xy − 2yz
como una suma de cuadrados. Realizar también el ejercicio por el método de Lagrange y
comparar los resultados.
2. Supóngase que q : V → R es una forma cuadrática asociada al producto interno ( , )
de V . Probar que para cualesquiera vectores u, v ∈ V se tiene que
1
(u, v) =(q (u + v) − q (u) − q (v))
2
3. Sea q : V → R es una forma cuadrática y supóngase que
De igual manera q(u+v, u+v) = q(u)+q(v)+2(v, S(u)), igualando se tiene que (v, T (u)) =
(v, S(u)), para cualesquiera vectores u, v ∈ V . Por lo tanto, T (u) = S(u), es decir, T = S.
4. Sea q (x, y) = ax2 +bxy+cy 2 la forma cuadrática asociada a una forma bilineal simétrica
f definida sobre R2 . Demostrar que f es no degenerada si y sólo si b2 − 4ac 6= 0.
1
210 CAPÍTULO 10. FORMAS CUADRÁTICAS
Capı́tulo 11
211
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.1. Formas cuadráticas y geometrı́a analı́tica
Mostramos en esta lección una aplicación de las formas cuadráticas a geometrı́a analı́tica.
En el capı́tulo anterior vimos que toda forma sesquilineal hermintiana puede ser reducida
a una suma de cuadrados mediante un cambio de base, o lo que es lo mismo, mediante
un cambio de coordenadas. En efecto, sea V es un espacio vectorial real o complejo de
dimensión finita n y q una forma cuadrática sobre V definida por una forma sesquilineal
hermitiana f . Sea X = {x1 , . . . , xn } una base cualquiera de V y sea A = mX (f ), entonces
sabemos que
q (u) = ZAZ ∗
donde Z = [α1 , . . . , αn ] es el vector de coordenadas de u respecto de la base X, es decir,
u = α1 .x1 + · · · + αn .xn . Vimos que si X 0 = {x01 , . . . , x0n } es la base de V conformada por
vectores propios ortonormalizados de A, y C es la matriz de cambio de X a X 0 , es decir,
las columnas de C son las coordenadas de los vectores de X 0 es términos de la base X,
entonces q en la base X 0 es diagonal:
λ1 0
.. 0 ∗ 0 2 0 2
q (u) = Z 0 . (Z ) = λ1 |α1 | + · · · + λn |αn |
0 λn
1
a. Cónicas. Usaremos los resultados anteriores para interpretar geométricamente los
puntos (x, y) del plano R2 que satisfacen una ecuación de orden 2 de la forma
Veremos a continuación que el conjunto solución de (1) es alguna de las siguientes curvas:
(a) Una elipse
(b) Una hipérbola
(c) Una parábola
(d) Vacı́o
(e) Un punto
(f) Una recta
(g) Dos rectas
Consideremos en (1) la parte cuadrática q(x, y) = ax2 + bxy + cy 2 , esta es una forma
cuadrática con matriz simétrica real
a 2b
A= b
2
c
2
4ac − b2 se conoce como el discriminante de la forma cuadrática q y determina el tipo
de cónica que representa la ecuación (1).
Ejemplo 1. Determinar la cónica definida por la ecuación
19x2 + 4xy + 16y 2 − 212x + 104y = 356 (3)
Mostrar los cambios de coordenadas realizados.
Solución. Consideremos la cuadrática asociada a esta curva:
19x2 + 4xy + 16y 2
Su discriminante es 4ac − b2 = 4 × 19 × 16 − 16 = 1200 > 0, por lo tanto tenemos una
elipse, un punto o vacı́o. Su matriz simétrica es
19 2
A=
2 16
Calculemos la matriz diagonalizante conformada por los vectores propios de A normal-
izados: E(15)
=< (−1, 2) > y E(20) =< (2, 1) >, notemos que efectivamente λ1 λ2 =
ac − 41 b2 ; normalizamos ahora los vectores propios:
√
k(−1, 2)k = 5
√
k(2, 1)k = 5
Por lo tanto,
1 −1 2
C=√
5 2 1
Las nuevas coordenadas (x0 , y 0 ) están relacionadas con las coordenadas iniciales (x, y) en
la siguiente forma 0 −1
x 1 −1 2 x
0 = √
y 5 2 1 y
Teniendo en cuenta que queremos expresar (3) en forma cartesiana a través de las nuevas
coordenadas, entonces 0
x 1 −1 2 x
= √
y 5 2 1 y0
es decir,
x = √15 (−x0 + 2y 0 )
y = √15 (2x0 + y 0 )
Reemplazando en (3) se tiene
2
1 0 0 1 0 0 1 0 0
19 √ (−x + 2y ) + 4 √ (−x + 2y ) √ (2x + y ) +
5 5 5
2
1 0 0 1 0 0 1 0 0
16 √ (2x + y ) − 212 √ (−x + 2y ) + 104 √ (2x + y ) = 356
5 5 5
3
√ √
15(x0 )2 + 20(y 0 )2 + 84x0 5 − 64y 0 5 = 356
Podemos ahora completar cuadrados
√ ! √ !
84 5 64 5 0
15 (x0 )2 + x0 + 20 (y 0 )2 − y = 356
15 20
2 2
0 14 0 8
15 x + √ + 20 y − √ = 1200
5 5
Podemos asegurar que tenemos una elipse. Al realizar un nuevo cambio de coordenadas
mediante una traslación,
14
x00 = x0 + √
5
8
y 00 = y 0 − √ ,
5
la ecuación (3) en este nuevo sistema de coordenadas se transforma en
2 2
15 (x00 ) + 20 (y 00 ) = 1200.
Notemos que el centro de la elipse en el sistema original de coordenadas es
1 0 0 1 14 8
x = √ (−x + 2y ) = √ − − √ + 2√ =6
5 5 5 5
1 0 0 1 14 8
y = √ (2x + y ) = √ 2 − √ +√ = −4.
5 5 5 5
La gráfica es
4
Ejemplo 2. Determinar la cónica definida por la ecuación
x2 + 4xy − 2y 2 − 12 = 0 (4)
q(u) = x2 + 4xy − 2y 2
Su discriminante es 4ac − b2 = −24 < 0, por lo tanto tenemos una hipérbola o dos rectas.
Su matriz simétrica es
1 2
A=
2 −2
Los valores y vectores propios son E(2) =< (2, 1) >, E (−3) =< (−1, 2) >, con norma
√
k(2, 1)k = 5
√
k(−1, 2)k = 5
5
gráfica es
6
es decir
1
x= (−4x0 + 3y 0 )
5
1
y = (3x0 + 4y 0 )
5
Reemplazando en (5) se tiene que
2
1 0 0 1 0 0 1 0 0
9 (−4x + 3y ) + 24 (−4x + 3y ) (3x + 4y ) +
5 5 5
2
1 0 0 1 0 0 1 0 0
16 (3x + 4y ) − 52 (−4x + 3y ) + 14 (3x + 4y ) = 6
5 5 5
es decir,
25(y 0 )2 − 20y 0 + 50x0 = 6
Completando cuadrados tenemos
6
5(y 0 )2 − 4y 0 + 10x0 =
5
4 0 6
5 (y ) − y + 10x0
0 2
=
5 5
4 0 6
(y ) − y + 2x0
0 2
=
5 25
0 2 4 0 4 6 4
(y ) − y + + 2x0 = +
5 25 25 25
2
0 2 2
y − + 2x0 =
5 5
2
1 0 2 1
y − + x0 =
2 5 5
2
0 1 1 0 2
x − =− y −
5 2 5
Tenemos pues una parábola. Mediante la traslación
1
x00 = x0 −
5
2
y 00 = y 0 −
5
resulta entonces
1 2
x00 = − (y 00 )
2
7
Notemos que el vértice de la parábola original está en el punto
1 1 2 2
x= −4 +3 =
5 5 5 25
1 1 2 11
y= 3 +4 =
5 5 5 25
La gráfica de (5) es
es decir,
x = x0 cos θ − y 0 senθ
y = x0 senθ + y 0 cos θ
8
De otra parte,
b
tan (2θ) = (6)
a−c
En efecto, reemplazando las identidades anteriores en (1) se tiene que el coeficiente para
el término x0 y 0 debe ser nulo, pero en el reemplazo este coeficiente es
9
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.2. Inversa generalizada
Definimos en esta lección la inversa generalizada de una matriz rectangular real cualquiera,
probamos algunas propiedades, mostramos una manera de calcularla y finalmente mostramos
una aplicación.
Para definir la inversa generalizada necesitamos algunos preliminares.
Proposición 1. (i) Sea B ∈ Mmk (R) una matriz real, entonces
rank B T B = rank (B) .
Demostración. Por medio de operaciones elementales sobre las filas de A podemos en-
contrar una matriz invertible T −1 tal que T −1 A es escalonada con k filas no nulas; de
igual forma, por medio de operaciones elementales sobre las columnas de T −1 A podemos
encontrar una matriz Q−1 tal que T −1 AQ−1 es de la forma
Ek,k Ok,n−k
T −1 AQ−1 =
Om−k,k Om−k,n−k
1
luego
Tk,k Tk,m−k Ek,k Ok,n−k
A= Q
Tm−k,k Tm−k,m−k Om−k,k Om−k,n−k
Tk,k Ok,n−k
= Q
Tm−k,k Om−k,n−k
Tk,k Ok,n−k Qk,k Qk,n−k
=
Tm−k,k Om−k,n−k Qn−k,k Qn−k,n−k
Tk,k Qk,k Tk,k Qk,n−k
=
Tm−k,k Qk,k Tm−k,k Qk,n−k
Sea
Salvo permutación de filas y columnas podemos asumir que A11 es invertible de orden
k × k. En efecto, como T es invertible entonces
Tk,k Tk,m−k Ek,k Ok,n−k
Tm−k,k Tm−k,m−k Om−k,k Om−k,n−k
Tk,k Ok,n−k
=
Tm−k,k Om−k,n−k
es de rango k, luego podemos intercambiar las filas de esta matriz y suponer que Tk,k es
invertible. De igual manera, salvo permutación de columnas, Qk,k es invertible, con lo
cual A11 es invertible.
Hemos demostrado que si P y R son productos de matrices de permutación, entonces
P AR = B 0 C 0
donde
A11
B = 0
, C0 = Ek,k A−1
11 A12
A21
Entonces,
A = BC
2
donde B = P −1 B 0 y C = C 0 R−1 cumplen las condiciones de la proposición.
Definición 1. Sea A ∈ Mmn (R) una matriz real tal que rank (A) = k ≥ 1, y sean B, C
como en la proposición anterior. Definimos
−1 T −1 T
A+ = C T CC T B B B
A+ es una matriz real de tamaño n × m y tiene las siguientes propiedades básicas, las
cuales se verifican directamente de la definición.
Proposición 3. (i) A+ AA+ = A+
(ii) AA+ A = A
(iii) AA+ es simétrica
(iv) A+ A es simétrica.
Las propiedades anteriores caracterizan la matriz A+ tal como veremos a continuación.
Proposición 4. Si A0 es una matriz real de orden n × m tal que
(i)’ A0 AA0 = A0
(ii)’ AA0 A = A
(iii)’ AA0 es simétrica
(iv)’ A0 A es simétrica
entonces A0 = A+ .
Demostración. Se tiene
AA0 = AA+ A A0 por (ii)
T
= AA+ AA0 por (iii)’
T T
= (AA0 ) AA+
= AA0 AA+ por (iii)’ y (iii)
+
= AA por (ii)’.
De igual manera, usando (ii), (ii)’,(iv),y (iv)’ se tiene que
A0 A = A0 AA+ A
T
= A0 AA+ A
T T
= A+ A (A0 A)
= A+ AA0 A
= A+ A.
De las dos identidades probadas y usando (i) y (i)’ resulta
A+ = A+ AA+
= A0 AA+
= A0 AA0
= A0 .
3
Definición 2. La matriz A+ caracterizada por las 4 propiedades de la proposición anterior
se denomina la inversa generalizada de A.
Otras propiedades de la inversa generalizada son las siguientes.
Proposición 5. (i) rank (A+ ) = rank (A)
(ii) (λA)+ = λ1 A+ , para λ 6= 0
T +
(iii) (A+ ) = AT
+
(iv) (A+ ) = A
(v) A es simétrica si y sólo si A+ es simétrica
(vi) Si A es invertible, entonces A+ = A−1 .
(vii) 0+ = 0.
Demostración. Todas las propiedades se prueban directamente, veamos por ejemplo
la prueba de (i): rank (A+ ) = rank (A+ AA+ ) ≤ rank (A+ A) ≤ rank (A), también
rank (A) = rank (AA+ A) ≤ rank (A+ A) ≤ rank (A+ ).
−1 T −1 T
(vi) Si A es invertible una descomposición de A es A = AE, luego A+ = E T EE T A A A =
−1
A−1 AT AT = A−1 .
La descomposición de la Proposición 2 da un método para calcular la inversa generalizada
de una matriz rectangular A.
Ejemplo 1. Calcular la inversa generalizada de
−1 0 1 2
−1 1 0 −1
0 −1 1 3
A=
0 1 −1 −3
1 −1 0 1
1 0 −1 −2
Solución. En este caso A es de rango 2 y además
−1 0
A11 =
−1 1
es también de rango 2, por lo tanto
A = BC
con
−1 0
−1 1
0 −1
B=
0 1
1 −1
1 0
1 0 −1 −2
C=
0 1 −1 −3
4
Luego
−1 T −1 T
A+ = C T CC T B B B
11 7
17
− 17
−7 6
− 13 − 16 − 16 16 1 1
= 4 17 17
1
6 3
− 17 17
− 16 1
6
− 13 13 − 16 16
1 4
− 17 − 17
5 3 1 1 3 5
− 34 − 17 34
− 34 17 34
4 13 5
− 102 5 13
− 102 4
− 51
= 7
51 102
5 1
102
1 5 7
102 102 51
− 51 − 102 − 102
1 1 3 3 1 1
17
− 34 34
− 34 34
− 17
−15 −18 3 −3 18 15
1 8 13 −5 5 −13 −8
=
102 7 5 2 −2 −5 −7
6 −3 9 −9 3 −6
−1 0 1 2 −1 0 1 2
−1 1 0 −1 −15 −18 3 −3 18 15 −1 1 0 −1
0 −1 1 3 1 8 13 −5 5 −13 −8 0 −1 1 3
=
0 1 −1 −3 102 7 5 2 −2 −5 −7 0 1 −1 −3
1 −1 0 1 6 −3 9 −9 3 −6 1 −1 0 1
1 0 −1 −2 1 0 −1 −2
−1 0 1 2
−1 1 0 −1
0 −1 1 3
0 1 −1 −3
1 −1 0 1
1 0 −1 −2
5
tiene entonces que
−1 −1
T T T
+
S = (CR) CR (CR) (P B) (P B) (P B)T
−1 −1 T T
= RT C T CRRT C T BT P T P B B P
−1 T −1 T
= RC T CC T B B B P
+
= RA P
luego RS + P = RRA+ P P = A+ .
Ejemplo 3. Calcular la inversa generalizada de
1 1 2 −3 3
3 4 −1 2 15
A= 4
5 1 1 18
−2 −3 3 −5 −12
Solución. Notemos que rank (A) = 3, pero el bloque superior izquierdo de orden 3 tiene
rango 2:
1 1 2
3 4 −1
4 5 1
Debemos entonces aplicar el ejemplo anterior y permutar filas y/o columnas para ubicar
el bloque A11 invertible. Calculamos la forma escalonada reducida de la matriz A sin
realizar intercambios de filas ni columnas:
1 0 9 0 −3
0 1 −7 0 6
0 0 0 1 0
0 0 0 0 0
Esto permite identificar las filas y columnas apropiadas: debemos entonces considerar las
tres primeras filas y las columnas 1, 2 y 4:
1 1 −3 2 3
3 4 2 −1 15
AR = S = 4
5 1 1 18
−2 −3 −5 3 −12
6
luego
S = MN
donde
1 1 −3
S11 3 4 2
M= = 4
S21 5 1
−2 −3 −5
1 0 0 9 −3
N= E3 −1
S11 S12 = 0 1 0 −7 6
0 0 1 0 0
7
−545 −757 939 212
1 1 2 −3 3 1 1 2 −3 3
3 −175 −257 399 82
4 −1 2 15
1
3 4 −1 2 15
=
−3680 −5014 5658 1334
4 5 1 1 18 7590
4 5 1 1 18
−3795 −3795 3795 0
−2 −3 3 −5 −12 −2 −3 3 −5 −12
585 729 −423 −144
1 1 2 −3 3
3 4 −1 2 15
4 5 1 1 18
−2 −3 3 −5 −12
Ejemplo 4. Si B ∈ Mmk (R) y rank (B) = k, entonces
−1
B+ = BT B BT
8
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.3. Ecuaciones diferenciales
En esta lección mostramos algunas aplicaciones del álgebra lineal a las ecuaciones difer-
enciales ordinarias con coeficientes constantes y a los sistemas de ecuaciones diferenciales
lineales de primer orden.
a. Ecuaciones diferenciales ordinarias con coeficientes constantes.
Sea V = C ∞ (a, b) el espacio de las funciones de (a, b) en R cuyas derivadas de cualquier
orden son continuas. Consideremos el operador lineal de derivación
D : V → V.
donde αi ∈ R, 1 ≤ ri ≤ n , 1 ≤ i ≤ k, 1 ≤ k ≤ n y sea
W = W1 ⊕ · · · ⊕ Wk ,
1
donde fi (x) ∈ Wi , 1 ≤ i ≤ k. Mejor an, reuniendo bases de W1 , . . . , Wk obtenemos una
base de W.
El problema entonces se reduce a encontrar el espacio solución de ecuaciones diferenciales
de la forma
(D − αI)r y = 0 (2).
Mediante inducción sobre r se puede probar fcilmente que
(D − αI)r y = 0 ⇔ Dr (e−αx y) = 0.
dy
= αy ⇒
dx
dy
= αdx ⇒
y
Z Z
dy
= αdx ⇒
y
ln (y) = αx + c ⇒
eln(y) = eαx+c ⇒
y = beαx , b ∈ R ⇒
d (e−αx y) d (b)
= =0
dx dx
Es decir, D(e−αx y) = 0.
Recı́procamente, si D(e−αx y) = 0, entonces
e−αx Dy − yαe−αx = 0 ⇒
Dy − yα = 0 ⇒
(D − αI) y = 0
Supongamos que (2) es cierta para r y sea (D−αI)r+1 y = 0, entonces (D−αI)r ((D − αI) y) =
0; sea z = (D − αI) y, entonces (D −αI)r z = 0, y por inducción se tiene que Dr (e−αx z) =
0. Por lo tanto, Dr (e−αx ((D − αI) y)) = 0, es decir, Dr (e−αx Dy − αe−αx y) = 0. Puesto
que Dr es un operador lineal entonces se tiene que Dr (e−αx Dy) − αDr (e−αx y) = 0. Pero
notemos que
Dr+1 e−αx y = Dr D e−αx y = Dr e−αx Dy − αye−αx = Dr e−αx Dy −αDr ye−αx ,
2
significa que Dr (e−αx ((D − αI) y)) = 0, o sea que Dr (e−αx z) = 0 con z = (D − αI) y,
por inducción entonces se tiene que (D − αI)r z = 0, es decir, (D − αI)r (D − αI) y = 0,
por lo tanto, (D − αI)r+1 y = 0.
También, mediante inducción sobre r se demuestra que
Dr y = 0 ⇔ y = b0 + b1 x + · · · + br−1 xr−1 .
es una base de W .
Ejemplo 1. (a) Calcular la solución general de la ecuación diferencial
y 000 − 2y 00 − 3y 0 = 0
x3 − 2x2 − 3x
y = c1 + c2 e−x + c3 e3x .
y 0000 + 4y 000 + 6y 00 + 4y 0 + y = 0
x4 + 4x3 + 6x2 + 4x + 1
3
cuya factorización completa es
(x + 1)4
Por lo tanto, la solución general de la ecuación diferencial dada es
4
el cual tiene solución
w1 c1 ed1 x
.. ..
. = .
dn x
wn cn e
Teniendo en cuenta que Y = CW , la afirmación está probada.
Ejemplo 2. Resolver el siguiente sistema de ecuaciones diferenciales:
dy1
= y2
dt
dy2
= y3
dt
dy3
= −6y1 − 11y2 − 6y3
dt
donde adicionalmente se deben cumplir las condiciones iniciales
y1 (0) = 1, y2 (0) = 0, y3 (0) = 0
Solución. La versión matricial de este sistema es
dy1
0 1 0 y1
dY dt
= dydt2 = 0 0 1 y2 = AY
dt dy3
dt
−6 −11 −6 y3
5
Por las condiciones iniciales adicionales se debe tener que
1 = c1 + c2 + c3
0 = −c1 − 2c2 − 3c3
0 = c1 + 4c2 + 9c3
y1 = ceax .
dy2
La segunda ecuación es dx
= y1 + ay2 , pero consideremos
d (e−ax y2 ) dy2
= −ay2 e−ax + e−ax
dx dx
−ax −ax
= −ay2 e +e (y1 + ay2 )
−ax −ax
= −ay2 e +e (ceax + ay2 )
= −ay2 e−ax + c + ay2 e−ax
= c.
6
Esto implica que e−ax y2 es de la forma e−ax y2 = c1 x + c2 , de donde
y2 = (c1 x + c2 ) eax .
dy3
Veamos un paso mas: dx
= y2 + ay3 y consideremos la derivada de e−ax y3 :
dy3
−ay3 e−ax + e−ax = −ay3 e−ax + e−ax (y2 + ay3 )
dx
= e−ax y2 = e−ax (c1 x + c2 ) eax
= c1 x + c2 ,
c1 2
por tanto e−ax y3 = 2
x + c2 x + c3 , es decir,
c
1 2
y3 = x + c2 x + c3 eax .
2
Continuando de esta forma obtenemos la fórmula (5).
Ejemplo 3. Resolver el siguiente sistema de ecuaciones diferenciales:
dy1
= 2y3
dt
dy2
= y1 + 2y4
dt
dy3
= 4y4
dt
dy4
= y3
dt
donde adicionalmente se deben cumplir las condiciones iniciales
y1 (0) = 1, y2 (0) = 0, y3 (0) = 2, y4 (0) = 1
Solución. La forma matricial del sistema es
dy1
dt 0 0 2 0 y1
dY dy2
= dt
dy3 =
1 0 0 2 y2 = AY
dt 0 0 0 4 y3
dt
dy4 0 0 1 0 y4
dt
7
Cada bloque tiene una sola celda elemental de Jordan, y para el valor 0 la celda es de
tamaño igual a 2. La matriz J de Jordan es entonces
0 0 0 0
1 0 0 0
J = 0 0 2 0
0 0 0 −2
Existe entonces una matriz invertible C tal que C −1 AC = J, por lo tanto, A = CJC −1 con
d(C −1 Y )
lo cual dY
dt
= AY = CJC −1
Y , luego C −1 dY
dt
= J (C −1
Y ), es decir, dt
= J (C −1 Y ).
Haciendo el cambio
Z = C −1 Y
se tiene que
dZ
= JZ
dt
y para este sistema de ecuaciones diferenciales la solución se puede calcular usando (5)
en cada celda de Jordan. Una vez se tengan las soluciones Z entonces podemos finalizar
el ejercicio mediante la identidad
Y = CZ.
Por lo tanto, debemos calcular la matriz C: recordemos que
R4 = W 1 ⊕ W 2 ⊕ W 3
donde
W1 = ker A2
W2 = ker (A − 2E) =< (2, 2, 2, 1) >
W3 = ker (A + 2E) =< (2, −2, −2, 1) >
8
necesitamos un vector w1 ∈ W1 tal que [w1 ] = W1 , se puede entonces tomar w1 = e1 y de
esta forma
W1 = [e1 ] =< e1 , Ae1 >=< (1, 0, 0, 0) , (0, 1, 0, 0) >
Se tiene entonces que
1 0 2 2
0 1 2 −2
C=
0
0 2 −2
0 0 1 1
Podemos ya calcular la solución:
dZ
= JZ ⇒
dt dz1
dt 0 0 0 0 z1
dZ dz2 1 0
0 0 z2
=
dt =
0
dt dz3
dt
0 2 0 z3
dz4
dt
0 0 0 −2 z4
c1 c2
Para cada celda aplicamos (5): zk = (k−1)!
tk−1 + (k−2)!
tk−2 + · · · + ck−1 t + ck eat
c1 1−1
z1 = t e0t = c1
(1 − 1)!
c1 2−1 c2 2−2
z2 = t + t e0t = c1 t + c2
(2 − 1)! (2 − 2)!
c1
z3 = t1−1 e2t = c3 e2t
(1 − 1)!
c1
z4 = t1−1
e−2t = c4 e−2t
(1 − 1)!
9
Finalmente, debemos considerar las condiciones iniciales
1 = c1 + 2c3 + 2c4
0 = c2 + 2c3 − 2c4
2 = 2c3 − 2c4
1 = c3 + c4
y1 = −1 + 2e2t
y2 = −2 − t + 2e2t
y3 = 2e2t
y4 = e2t .
10
Álgebra Lineal
Capítulo 11. Tópicos Especiales y Aplicaciones
11.4. Producto tensorial de espacios vectoriales y matrices
v1 v2 , v1 v2 2 W
Esta relación particiona al conjunto V en clases de equivalencia denotadas por v, es decir,
v = fu 2 V j u vg = v + W = fv + w j w 2 W g.
El conjunto de estas clases de equivalencia se denota por V =W , es decir,
V =W = fv j v 2 V g:
Notemos que
v1 = v2 , v1 v2 2 W
v = 0 , v 2 W.
v + v 0 = v + v 0 , v; v 0 2 V
a:v = a:v, a 2 K:
J : V ! V =W
v 7! v
1
dim (V =W ) = dim(V ) dim(W ):
En forma más precisa, si X 0 = fx1 ; : : : ; xm g es una base de W y X = fx1 ; : : : ; xm ; xm+1 ; : : : ; xn g
es una base de V , entonces X 00 = fxm+1 ; : : : ; xn g es una base de V =W .
(c) Sea T : V ! V una transformación lineal y sea W un subespacio invariante de V .
Sean X 00 ; X 0 ; X como en el literal anterior. Entonces, la matriz de T en la base X es de
la forma
mX 0 (T 0 )
mX (T ) =
mX 00 T
donde T 0 es la restricción de T a W , y T : V =W ! V =W es la transformación inducida
de…nida por
T (v) = T (v)
b. Propiedad universal de las bases y K (X)
El Teorema 2 de la Lección 2 del Capítulo 2 establece la propiedad universal de una base
X de un espacio vectorial V en el sentido que cada función t de X en un espacio W
se extiende en forma única a una transformación lineal T : V ! W , de tal forma que
T (x) = t(x), para cada x 2 X. De otra parte, recordemos que si K es un cuerpo y X
es un conjunto no vacío cualquiera, entonces K (X) denota el espacio vectorial con base
canónica X = fex gx2X , donde ex = (kz )z2X y kz = 0 si z 6= x y kx = 1.
Podemos ya emprender la construcción del producto tensorial de dos espacios vectoriales.
c. Producto tensorial de dos espacios vectoriales.
Sean U; V dos espacios vectoriales sobre un mismo cuerpo K, sea X el producto cartesiano
de los conjuntos U y V , es decir, X = U V . Notemos que en el conjunto X hemos
olvidado las estructuras de K-espacio que tienen U y V , a estos últimos los estamos
tomando simplemente como conjuntos no vacíos. Consideremos entonces el K-espacio
vectorial K (X) con base canónica Z = fex gx2X , donde ex es un arreglo de K (X) de…nido
por ex = (kz )z2X y kz = 0 si z 6= x y kx = 1. Notemos que los elementos de X son
parejas, es decir, un elemento x 2 X es de la forma x = (u; v). En otras palabras, el
conjunto de índices X es un producto cartesiano de dos conjuntos, y ex = e(u;v) denota
el arreglo que tiene solamente una entrada no nula, la ubicada en la "posición (u; v)", en
donde colocamos el escalar 1 2 K. Notemos entonces que un elemento de K (X) es una
combinación lineal …nita en la forma
Observemos que el elemento anterior es un arreglo …nito que tiene ubicados en la posición
(u1 ; v1 ) al escalar r1 , en la posición (u2 ; v2 ) al escalar r2 ,..., en la posición (ut ; vt ) al escalar
rt y en todas las demás posiciones al escalar cero.
2
Esta notación puede ser simpli…carla de la siguiente manera: representemos el elemento
e(u;v) de la base canónica Z simplemente por (u; v) de tal forma que veamos a U V como
la base canónica de K (X) y a las parejas (u; v) como los elementos de esta base canónica.
Así pues, podemos pensar en K (U V ) y considerar que la base canónica es U V . Con
esta notación podemos decir que un elemento de K (U V ) es una combinación lineal …nita
de la forma
r1 (u1 ; v1 ) + + rt (ut ; vt )
donde r1 ; : : : ; rt 2 K.
Sea S el subespacio de K (U V)
generado por todos los elementos de la siguiente forma
(u + u0 ; v) (u; v) (u0 ; v)
(u; v + v 0 ) (u; v) (u; v 0 ) (1)
r (u; v) (ru; v)
r (u; v) (u; rv)
U V = K (U V)
=S
Denotemos por u v a la clase de equivalencia (u; v) del cociente U V = K (U V ) =S.
Entonces en U V se tienen las siguientes propiedades fundamentales.
Proposición 3. Para cualesquiera elementos u; u0 2 U; v; v 0 2 V y r 2 K se tiene que
(i) (u + u0 ) v = u v + u0 v
(ii) u (v + v 0 ) = u v + u v 0
(iii) r (u v) = ru v
(iv) r (u v) = u rv
Corolario 1. La función canónica
t:U V !U V
(u; v) 7! u v
z = r1 u 1 v1 + + rt ut vt
3
pero como r1 u1 ; : : : ; rt ut 2 U , entonces podemos siempre asumir que z es de la forma
u1 v1 + + ut vt :
El producto tensorial tiene la siguiente propiedad universal.
Teorema 1. Sea W un K-espacio y sea f : U V ! U V una funcion bilineal.
Entonces, existe una única transformación lineal F : U V ! W tal que F t = f :
U V t
! U V
f& #F
W
La tranformación lineal F viene dada por
F (u v) = f (u; v) .
Demostración. La función f de…nida sobre la base canónica U V de K (U V ) induce una
única transformación lineal F 0 : K (U V ) ! W de…nida por F 0 (u; v) = f (u; v). De…nimos
entonces la función F (z) = F 0 (z), donde z 2 K (U V ) . En particular, si z = (u; v) es un
básico, entonces F (u v) = F 0 (u; v) = f (u; v). Debemos ver que F está bien de…nida.
Sean z1 ; z2 2 K (U V ) tales que z1 = z2 , entonces z1 z2 2 S y por lo tanto z1 z2 es una K-
combinación lineal de elementos como en (1). Como F 0 es K-lineal, basta considerar cada
una de las cuatro relaciones de (1) por separado. Si z1 z2 = (u + u0 ; v) (u; v) (u0 ; v),
entonces
De igual manera se consideran los otros tres casos de (1). Esto muestra que F 0 (z1 z2 ) =
0, es decir, F 0 (z1 ) = F 0 (z2 ), y F está bien de…nida.
De otra parte, como F 0 es K-lineal, entonces F es una transformación lineal. Además,
F t (u; v) = F (u v) = f (u; v), esto muestra que F t = f .
Para terminar la prueba, sea G otra transformación lineal G : U V ! W tal que
G t = f , entonces como G es una transformación lineal basta considerar el caso u v.
Así pues, G t (u; v) = f (u; v), es decir, G (u v) = f (u; v) = F (u v).
Presentamos a continuación otras propiedades interesantes del producto tensorial.
Teorema 2. Sean U y V dos espacios vectoriales de dimensión …nita n y m con bases
X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectivamente. Entonces, X Y = fxi xj j
1 i n; 1 j mg es una base de U V , y en consecuencia, dimK (U V ) = nm.
4
Demostración. Consideremos el K-espacio vectorial canónico K nm de dimensión nm;
notemos que K nm está conformado por arreglos …nitos de nm entradas de K pegando
en forma sucesiva m arreglos de tamaño n. La base canónica de K nm se puede entonces
representar por Z = fe1;1 ; : : : ; e1;m ; e2;1 ; : : : ; e2;m ; : : : ; en;1 ; : : : ; en;m g, donde el vector ei;j
tiene ubicado al 1 en la entrada (i 1) m + j, y las demás entradas son nulas.
De…nimos entonces la transformación lineal
T : K nm ! K (U V )
ei;j 7! xi yj , 1 i n; 1 j m.
f : U V ! K nm
f (u; v) = a1 b1 e11 + + a1 bm e1m
+ a2 b1 e21 + + a2 bm e2m
..
.
+ an b1 en1 + + an bm enm
T F : U V ! U0 V 0
(u; v) 7! T (u) F (V )
T F : U V ! U0 V 0
u v!
7 T (u) F (V )
5
Teorema 3. Con la notación anterior se tiene que
2 3
a11 B a1n B
6 .. .. 7
mX Y;X 0 Y 0 (T F ) = 4 . . 5
ap1 B apn B
donde A = [aij ] = mX;X 0 (T ) y B = [bij ] = mY;Y 0 (F ). La matriz de T F se conoce como
el producto tensorial de las matrices A y B y se denota por A B, es decir,
2 3
a11 B a1n B
6 .. 7
A B = 4 ... . 5
ap1 B apn B
Notemos que A B es de orden pq nm.
Demostración. Basta aplicar T F a los vectores de la base X Y y expresar los resultados
a través de la base X 0 Y 0 .
Ejemplo 1. Sean T : R3 ! R2 y F : R2 ! R4 las transformaciones lineales de…nidas por
2 3 0
A = m (T ) =
3 0 4
2 3
1 0
6 1 1 7
B = m (F ) = 6
4
7
0 1 5
1 1
2B 3B 0B
m (T F) = A B=
3B 0B 4B
2 3
2 0 3 0 0 0
6 2 2 3 3 0 0 7
6 7
6 0 2 0 3 0 0 7
6 7
6 2 2 3 3 0 0 7
m (T F) = 6
6
7
7
6 3 0 0 0 4 0 7
6 3 3 0 0 4 4 7
6 7
4 0 3 0 0 0 4 5
3 3 0 0 4 4
6
e. Otras propiedades del prodcuto tensorial
En adelante consideraremos que los espacios vectoriales son de dimensión …nita.
(i) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales sobreyectivas. Entonces,
T F es sobreyectiva. En efecto, si u0 v 0 2 U 0 V 0 , entonces existe u 2 U y v 2 V tales
que T (u) = u0 ; F (v) = v 0 . Por lo tanto, (T F ) (u v) = T (u) F (v) = u0 v 0 .
(ii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales, entonces ker (T F ) =
ker (T ) V + U ker (F ). Veamos la demostración: denotemos por W = ker (T ) V +
U ker (F ), este es un subespacio de U V . Es claro que W ker (T F ), probemos
entonces la inclusión recíproca. Para esto consideremos el espacio cociente (U V ) =W ,
y la transfomración lineal canónica
J :U V ! (U V ) =W
z 7! z
Im (T ) Im (F ) t0
! Im (T ) Im (F )
f& #H
(U V ) =W
donde f (T (u) ; F (v)) = J (u v). Debemos ver que f está bien de…nida. Sea T (u1 ) =
T (u) y F (v1 ) = F (v), por lo tanto, u1 u = u2 2 ker (T ) y v1 v = v2 2 ker (F ), luego
u1 v1 = (u + u2 ) (v + v2 )
= u v + u v 2 + u2 v + u2 v 2
= u v + (u v2 + u2 v + u2 v2 )
u1 v1 u v2W
luego, J (u v) = J (u1 v1 ).
Notemos que f es bilineal, por lo tanto induce la transformación lineal H dada por
7
(iii) Sean Sean T1 : U1 ! U2 ; T2 : U2 ! U3 y F1 : V1 ! V2 ; F2 : V2 ! V3 transformaciones
lineales, entonces
A2 A1 B2 B1 = (A2 B2 ) (A1 B1 )
(iv) Si IU : U ! U es la idéntica de U e IV : V ! V , entonces
IU IV = IU V:
En forma matricial,
En Em = Enm :
(v) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales biyectivas, entonces
1 1 1
(T F) =T F :
Matricialmente,
1 1
(A B) =A B 1:
(vi) Sean T y F1 ; F2 transformaciones lineales compatibles para las operaciones indicadas,
entonces
T (F1 + F2 ) = T F1 + T F2 :
En forma matricial,
A (B1 + B2 ) = A B1 + A B2 :
En forma similar se tienen las distributivas por el lado derecho.
(vii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales y sea 2 K, entonces
( :T ) F =T ( :F ) = : (T F):
(viii) Sean A 2 Mn (K) y B 2 Mm (K), entonces
tr (A B) = tr (A) tr (B) ;
det (A B) = det (A)m det (B)n :
8
A B es similar a C D:
(x) Sean A 2 Mn (K), B 2 Mm (K), un valor propio de A con vector columna propio
u y un valor propio de B con vector columna propio v. Entonces, u v es un vector
propio de A B con valor propio .
(xi) Sean A 2 Mn (K), B 2 Mm (K) matrices diagonalizables, entonces A B es diago-
nalizable.
(xii) Sean U y V espacios con bases X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectiva-
mente. Entonces
U V = (U V)
Veamos la prueba de este isomor…smo.
Sean 2 U y 2 V , de…nimos entonces la función
f ; :U V !K
f ; (u; v) = (u) (v)
Notemos que f ; es bilineal, por lo tanto induce una única transformación lineal
F ; :U V !K
F ; (u v) = (u) (v)
fe : U V ! (U V)
( ; ) 7! F ;
Fe : U V ! (U V)
Fe ( )=F ; )
Fe ( ) (u v) = F ; (u v) = (u) (v)
9
Fe xi yj (xr ys ) = xi (xr ) yj (ys )
= 1 si i = r y j = s
= 0, en otro caso
2 3
a11 Em a1n Em
6 .. .. .. 7
4 . . . 5 = A Em
an1 Em ann Em
2 3
BT 0
6 .. .. .. 7 = E
4 . . . 5 n BT
0 BT
10
De esta forma
mB (T ) = A Em + En BT
Puesto que C es algebraicamente cerrado existen matrices invertibles F y G de tamaños
n n y m m, respectivamente, tales que F 1 AF = S1 y G 1 B T G = S2 son matrices
triangulares superiores. Notemos que en la diagonal de S1 y S2 están localizados los
valores propios de A y de B T , respectivamente (notemos que los valores propios de
B T son los mismos de B). Ahora notemos que
1 1
S1 Em = F AF Em = F Em (A Em ) (F Em )
En S2 = E n G 1 B T G = En G 1
En B T (En G)
donde además
1 1
F Em = (F Em )
1 1
En G = (En G)
De esta forma se tiene que
1
S1 Em = (F Em ) (A Em ) (F Em )
1 T
En S2 = (En G) En B (En G)
1
Tenemos entonces que mB (T ) = A Em +En B T , de donde (F Em ) mB (T ) (F Em ) =
(F Em ) 1 (A Em ) (F Em )
+ (F Em ) 1 En B T (F Em ) =
(S1 Em ) + (F 1 Em ) En B T (F Em ) =
(S1 Em ) + En B T .
Ahora, (En G) 1 (F Em ) 1 mB (T ) (F Em ) (En G) =
(En G) 1 (S1 Em ) (En G) + (En G) 1 En B T (En G) =
(S1 Em ) + (En S2 ). En total,
1 1
(En G) (F Em ) mB (T ) (F Em ) (En G) = (S1 Em ) + (En S2 )
es decir,
1
(F G) mB (T ) (F G) = (S1 Em ) + (En S2 ) :
Notemos que la matriz (S1 Em ) + (En S2 ) es triangular superior y en su diagonal
están las sumas de la forma + , las cuales por hipótesis son no nulas, es decir, esta
matriz es invertible, o sea que, mB (T ) es también invertible, y la prueba ha terminado.
11
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.5. Matrices y formas positivas
XAX ∗ > 0
1
Demostración. (a) ⇒ (b): sean X, Y, Z ∈ Cn , entonces
< X, Y + Z >= XA (Y + Z)∗
= XA (Y ∗ + Z ∗ )
= XAY ∗ + XAZ ∗
=< X, Y > + < X, Z >;
< λ.X, Y >= (λ.X) AY ∗ = λ. < X, Y >;
< X, X >= XAX ∗ > 0 para cada X no nulo de Cn .
Probemos que < Y, X >= < X, Y >. En efecto, sean X, Y ∈ Cn , entonces
< X + Y, X + Y >=< X + Y, X > + < X + Y, Y >
= (X + Y ) AX ∗ + (X + Y ) AY ∗
= XAX ∗ + Y AX ∗ + XAY ∗ + Y AY ∗
pero por hipótesis < Z, Z >∈ R para cada Z ∈ Cn , por lo tanto < X + Y, X + Y >
, XAX ∗ , Y AY ∗ ∈ R, luego Y AX ∗ + XAY ∗ =< Y, X > + < X, Y >∈ R. De igual
manera,
< X + iY, X + iY >=< X + iY, X > + < X + iY, iY >
= (X + iY ) AX ∗ + (X + iY ) A (iY )∗
= XAX ∗ + iY AX ∗ − iXAY ∗ + Y AY ∗ ∈ R
luego iY AX ∗ − iXAY ∗ = i < Y, X > −i < X, Y >∈ R. Por lo tanto,
< Y, X > + < X, Y >= < Y, X > + < X, Y > = < Y, X > + < X, Y >
i < Y, X > −i < X, Y >= i < Y, X > −i < X, Y > = −i< Y, X > + i< X, Y >.
Podemos multiplicar la segunda igualdad por i
− < Y, X > + < X, Y >= < Y, X > − < X, Y >
y sumarla a la primera
2 < X, Y >= 2< Y, X >
es decir
< X, Y >= < Y, X >.
Esto completa la prueba de que < X, Y > define un producto interno en Cn .
(b)⇒(c): Veamos primero que A es hermitiana, es decir, A = A∗ . Probemos que aij = aji
para cada 1 ≤ i, j ≤ n. Consideremos los vectores canónicos ei y ej de Cn , entonces
< ei , ej >= ei Ae∗j = aij
< ej , ei >= ej Ae∗i = aji ⇒
aij =< ei , ej >= < ej , ei > = aji .
2
Recordemos que el producto interno canónico en Cn viene dado por (X, Y ) = XY ∗ , luego
(X, XA) = X (XA)∗ = XA∗ X ∗ = XAX ∗ =< X, X > > 0, para X no nulo de Cn .
(c)⇒(d): solo hay que probar lo relativo a los menores principales de la matriz A. Para
comenzar probemos que det (A) > 0. Puesto que A es hermitiana, entonces A es diago-
nalizable, y los valores propios de A son reales. Sea Y un vector propio correspondiente al
valor propio λ, entonces AY = λ.Y , entonces (AY )∗ = (λ.Y )∗ , luego Y ∗ A∗ = λY ∗ = λY ∗ ,
de donde, (Y ∗ , Y ∗ A∗ ) = (Y ∗ , λY ∗ ) = λ (Y ∗ , Y ∗ ) = λ (Y ∗ , Y ∗ ) > 0, y como también
(Y ∗ , Y ∗ ) > 0, entonces λ > 0. Hemos probado que los valores propios son positivos.
En consecuencia, det (A) > 0. Ahora notemos que siendo A hermitiana, entonces cada
submatriz
a11 · · · a1k
.. , 1 ≤ k ≤ n
Ak = ... .
ak1 · · · akk
es también hermitiana. Además (Xk , Xk Ak ) > 0 para cada vector no nulo Xk de Ck . En
efecto, sea Xk ∈ Ck un vector no nulo, completando con ceros construimos un vector no
nulo X de Cn , X = [Xk | 0], puesto que (X, XA) > 0, entonces
a11 · · · a1k · · · a1n
.. .. ..
. . .
x1 · · · xk 0 · · · 0 ak1 akk · · · akn =
. .. ..
.. . .
an1 ank · · · ann
x1 a11 + · · · + xk ak1 · · · x1 a1k + · · · + xk akk ∗ · · · ∗ = X0
bik = ai1 p1k + · · · + aik−1 pk−1k + aik pkk + aik+1 pk+1k + · · · + ain pnk ⇒
bik = ai1 p1k + · · · + aik−1 pk−1k + aik para cada k > 1.
Como se quiere que B sea triangular inferior entonces también se debe tener que bik = 0
para k > i, entonces se debe cumplir que
3
es decir se tienen las siguientes relaciones
es decir el sistema
a11 · · · a1k−1 p1k −a1k
.. .. .. ..
. . . = .
ak−11 · · · ak−1k−1 pk−1k −ak−1k
debe tener solución para cada k > 1. Pero esto está garantizado ya que det (Ak−1 ) > 0.
Luego la matriz P existe y AP es triangular inferior.
Paso 2. P ∗ es triangular inferior y P ∗ B = P ∗ AP es también triangular inferior. Sea D =:
P ∗ AP , entonces D∗ = P ∗ A∗ P = P ∗ AP ya que A es hermitiana. Siendo D hermitiana y
triangular inferior, entonces D = P ∗ B es necesariamente diagonal,
d1 0
..
D= . .
0 dn
Paso 3. Consideremos las columnas B (1) , . . . , B (n) de B y las columnas A(1) , . . . , A(n) de
A; entonces
4
De esto se obtiene que la fila r de la submatriz Dk es igual a la fila r de la submatriz
Bk + una combinación lineal de las restantes fila de esta última matriz. Para efectos del
cálculo del determinante se tiene entonces que
Y ∗ DY = Y ∗ P ∗ AP Y > 0
es decir,
XAX ∗ > 0.
Otra caracterización de las matrices complejas positivas corresponde a la descomposición
de Cholesky.
Proposición 2. Sea A ∈ Mn (C). Entonces, A es positiva si y sólo si existe una matriz
invertible P ∈ Gln (C) tal que A = P ∗ P .
Demostración. ⇒) Si A es positiva entonces la relación
define un producto interno en Cn . Con este producto interno se puede construir una base
ortonormal en Cn , los vectores de esta base se pueden disponer en las columnas de una
matriz Q. De otra parte, notemos que A es la matriz de este producto interno en la base
canónica de Cn , por lo tanto las dos matrices están relacionadas por
QT AQ = E.
−1 −1 −1
Como Q es invertible, entonces A = QT Q . Definimos entonces P = Q , de
−1
tal forma que QT = P ∗ . Es decir, A = P ∗ P .
⇐) Supongamos que existe P invertible tal que A = P ∗ P , entonces para cada vector no
nulo X de Cn se tiene que P X ∗ es no nulo, luego
5
XAX ∗ = XP ∗ P X ∗ = (P X ∗ )∗ (P X ∗ ) > 0.
Las pruebas de las proposiciones anteriores muestran ciertas propiedades interesantes de
las matrices complejas positivas.
Proposición 3. Sea A ∈ Mn (C) una matriz positiva. Entonces,
(1) det (A) > 0
(2) A es invertible
(2) Los valores propios de A son reales positivos
(3) A es hermitinana y por lo tanto diagonalizable por medio de una matriz unitaria.
(4) A−1 es también positiva
(5) AT es también positiva
(6) Para cada 1 ≤ k ≤ n, Ak es también positiva.
b. Matrices reales positivas.
Las matrices reales positivas se definen en forma similar al caso complejo pero con la
siguiente modificación: en la Proposición 1 no es posible demostrar (a)⇒(b) ya que no
disponemos de un escalar i tal que su cuadrado sea nulo. Por lo tanto, debemos modificar
la definición de matriz real positiva de la siguiente manera.
Definición 2. Sea A ∈ Mn (R), se dice que A es positiva si A = AT y
XAX T > 0
6
(3) A es simétrica y por lo tanto diagonalizable por medio de una matriz ortogonal.
(4) A−1 es también positiva
(5) AT es también positiva
(6) Para cada 1 ≤ k ≤ n, Ak es también positiva.
Ejemplo 1. La matriz
2 1 0
A= 1 4 2
0 2 8
7
El problema radica en que D no es simétrica.
Ejemplo 2. Calculemos la descomposición de Cholesky de la matriz A del ejemplo ante-
rior: con el SWP obtenemos
√ √ 1
√
√2 0
√ √ 0 2 √
2 √
2 0
√ √
1 2 1 2 7 0 0 1 2 7 2 2 7
2 2√ √ √ √ 2 7 √ √
2
0 7
2 7 47 3 7 0 0 4
7
3 7
Comprobemos esta respuesta con el método descrito en la demostración de la Proposición
2. Podemos tomar la base canónica de R3 y con el producto interno inducido por A
construimos una base ortonormal de R3 a través del método de Gram-Schmidt:
v1 = e1 = (1, 0, 0)
< e 2 , v1 >
v2 = e2 − v1
< v 1 , v1 >
< e 3 , v1 > < e 3 , v2 >
v3 = e3 − v1 − v2
< v 1 , v1 > < v 2 , v2 >
Entonces,
v1 = e1
2 1 0 1
0 1 0 1 4 2 0
0 2 8 0 1
v2 = (0, 1, 0) − (1, 0, 0) = − , 1, 0
2 1 0 1 2
1 0 0 1 4 2 0
0 2 8 0
2 1 0 1
0 0 1 1 4 2 0
0 2 8 0
v3 = (0, 0, 1) − (1, 0, 0)
2 1 0 1
1 0 0 1 4 2 0
0 2 8 0
1
2 1 0 −2
0 0 1 1 4 2 1
0 2 8 0 1
− 1 − , 1, 0
1 2 1 0 −2 2
−2 1 0 1 4 2 1
0 2 8 0
2 4
= ,− ,1
7 7
8
Normalizando se tiene
v1 (1, 0, 0) (1, 0, 0) 1
q1 = =√ = √ = √ , 0, 0
kv1 k < v 1 , v1 > 2 2
v2 1
− 2 , 1, 0 1
− 2 , 1, 0 1 √ √ 1√ √
q2 = =√ = q = − 2 7, 2 7, 0
kv2 k < v 2 , v2 > 7 14 7
2
v3 2
7
4
, −7, 1 2
7
, − 47 , 1 1√ √ 1√ √ 1√ √
q3 = =√ = q = 3 7, − 3 7, 3 7
kv3 k < v3 , v3 > 48 42 21 12
7
Por lo tanto
−1 1 √ √ √ √ −1
√1 0 0 √ 1
− 14 1
2 7 42 3 7
√2 √ √ √ 2 √ √ √ √
1
A = − 14 2 7 7 2 7 1
0√ 0 1
2 7 − 21√ 3√ 7
1
1
√ √ 1
√ √ 1
√ 7
1
42
3 7 − 21 3 7 12 3 7 0 0 12
3 7
√ √ 1
√
√2 1 √0 √ 0 2 √ 2 √
2 √0 √
1
= 2 2 2 √2√7 √0 √ 0 2 2 7 7 √2√7 .
1 2
2 4 4
0 7
2 7 7 3 7 0 0 7
3 7
c. Formas sesquilineales positivas
Proposición 6. Sea f una forma sesquilineal definida sobre un espacio complejo V de
dimensión finita n. Si X es una base de V tal que A = mX (f ) es positiva, entonces para
cualquier otra base Y de V se tiene que B = mY (f ) es también positiva.
Demostración. Sabemos que si C es la matriz de cambio de X a Y entonces
B = C T AC.
Sea X un vector no nulo de Cn , entonces
XBX ∗ = XC T ACX ∗
T
= XC T AC X
T T
= XC T A C T X
T
= XC T A XC T
= Y AY ∗ > 0
ya que Y = XC T es no nulo.
Definición 3. Sea f una forma sesquilineal definida sobre un espacio complejo V de
dimensión finita n. Se dice que f es positiva si existe una base X en V tal que mX (f ) es
positiva.
9
Notemos que la matriz A de una forma sesquilineal compleja positiva f es siempre her-
mitiana, por lo tanto, para A valen las propiedades presentadas en las Proposiciones 1,2
y 3.
d. Formas bilineales positivas
Proposición 7. Sea f una forma bilineal simétrica definida sobre un espacio real V de
dimensión finita n. Si X es una base de V tal que A = mX (f ) es positiva, entonces para
cualquier otra base Y de V se tiene que B = mY (f ) es también positiva.
Si A es la matriz de una forma bilineal simétrica positiva f , entonces para A valen las
propiedades presentadas en las Proposiciones 4 y 5.
e. Formas cuadráticas positivas
Definición 4. (a) Sea q una forma cuadrática definida a partir de una forma sequilineal
hermitiana f sobre un espacio V , se dice que q es positiva si existe una base X en V tal
que la matriz de f en la base X es positiva.
(b) Sea q una forma cuadrática definida a partir de una forma bilineal simétrica f sobre
un espacio V , se dice que q es positiva si existe una base X en V tal que la matriz de f
en la base X es positiva.
Corolario 1. La diagonalización de una forma cuadrática positiva mediante el método
de valores propios expuesto en el Teorema 2 de la Lección 2 del Capı́tulo 10 tiene sólo
coeficientes positivos: los valores propios de la matriz de la forma cuadrática.
10
Álgebra Lineal
Capítulo 11. Tópicos Especiales y Aplicaciones
11.6. Ejercicios
(b) 2 3 2 32 3
y1 4 1 1 1 y1
d 6 7 6
6 y2 7 = 6 1 2 1 1 7
76
6 y2 7
7
dt y3 5 4
4 6 1 1 1 5 4 y3 5
y4 6 1 4 2 y4
1
(b) 2 3
1 1 1 1
4
A= 1 1 1 1 5
1 1 1 1
6. Sea A una matriz cuadrada. Demostrar que (A )+ = (A+ ) .
7. Sea A una matriz normal. Demostrar que A+ es también normal.
8. Sea A una matriz hermitiana. Demostrar que A+ es también hermitiana.
9. Sean A; C 2 Mn (K) y B; D 2 Mm (K), tales que A y C son similares y B y D son
similares. Demostrar que
A B es similar a C D:
10. Sean A 2 Mn (K), B 2 Mm (K) matrices diagonalizables. Demostrar que A B es
diagonalizable.
2
Página en blanco