Álgebra Lineal - O. Lezama PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 266

Álgebra Lineal

Por:
Oswaldo Lezama

 
a 0 ··· 0 0
 1 a ··· 0 0 
 .. .. .. .. 
 .. 
Ja,y = . . . . . 
 .. .. .. . . .. 
 . . . . . 
0 0 ··· 1 a
ii
Índice general

Índice General IV

1. Espacios Vectoriales 1
1.1. Estructuras Algebraicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Espacios Vectoriales y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2. Transformaciones Lineales 17
2.1. Definición y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2. Núcleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3. Operaciones con Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4. Tansformaciones Lineales Biyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Producto y Suma Directa de Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 25
2.6. Suma Directa Interna de Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3. Matrices 33
3.1. Espacios Vectoriales de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Transformaciones Lineales y Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3. Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5. Equivalencia y Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.6. Matrices Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4. Determinantes 51
4.1. Funciones Multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2. La Función Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.4. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

5. Polinomio Caracterı́stico 67
5.1. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2. Polinomio Caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3. Matrices Diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

iii
iv ÍNDICE GENERAL

5.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

6. Formas Canónicas 81
6.1. Polinomio Mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2. Forma Canónica Triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3. Diagonalización en Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4. Teorema de Descomposición Irreducible . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.5. El Teorema de Descomposición Cı́clica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.6. Forma Canónica Racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.7. Forma Canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

7. Espacios Duales 125


7.1. El Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
7.2. El Subespacio Anulador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
7.3. El Doble Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.4. Traspuesta de una Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

8. Producto Interno 135


8.1. Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
8.2. Sistemas de Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
8.3. Complemento Ortogonal y Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
8.4. Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.5. Transformaciones y Matrices Adjuntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.6. Transformaciones Hermitianas y Simétricas . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.7. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.8. Transformaciones Unitarias y Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.9. Transformaciones Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

9. Formas Bilineales 181


9.1. Formas Bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
9.2. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
9.3. Formas Bilineales Simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.4. Formas Bilineales Antisimétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
9.5. Formas Sesquilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.6. Formas Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
9.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

10.Formas Cuadráticas 197


10.1. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
10.2. Suma de Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
10.3. Formas Cuadráticas y Formas Hermı́ticas . . . . . . . . . . . . . . . . . . . . . . . . . . 204
10.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

11.Tópicos Especiales y Aplicaciones 211


11.1. Formas Cuadráticas y Geometrı́a Analı́tica . . . . . . . . . . . . . . . . . . . . . . . . . 211
11.2. Inversa Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
11.3. Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
11.4. Producto Tensorial de Espacios Vectoriales y Matrices . . . . . . . . . . . . . . . . . . . 239
11.5. Matrices y Formas Positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
11.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Capı́tulo 1

Espacios Vectoriales

Introducción
En las lecciones de este capı́tulo se presenta la noción de espacio vectorial sobre cuerpos arbitrarios. Se
comienza con las definiciones de las estructuras algebraicas básicas que inducen la definición de cuerpo
y espacio vectorial. El capı́tulo después está dedicado a trabajar los conceptos de base y dimensión
que resultan fundamentales en todo el desarrollo del curso.

1.1. Estructuras Algebraicas


Definición 1.1. Sea G un conjunto no vacı́o. Una operación binaria interna en G es una función
∗ con dominio G × G y codominio G:

G × G −→ G
(a, b) 7−→ a∗b
Si la operación ∗ es asociativa en el sentido que

(a ∗ b) ∗ c = a ∗ (b ∗ c)

para cualesquiera elementos a, b, c ∈ G, entonces se dice que (G, ∗) es un semigrupo.

Ejemplo 1.1. El conjunto N = {1, 2, 3, ...} de números naturales con la operación usual de adición es
un semigrupo.

Definición 1.2. Si en el semigrupo (G, ∗) existe un elemento e tal que

e∗a=a=a∗e

para cada elemento a ∈ G, entonces se dice que (G, ∗) es un monoide con elemento neutro e.
Nótese que en un monoide el elemento neutro es único.

Ejemplo 1.2. El conjunto Z de números enteros con la operación usual de multiplicación es un


monoide con elemento neutro 1.

Definición 1.3. Sea (G, ∗, e) un monoide. Si cada elemento a ∈ G tiene un inverso, es decir, existe
un elemento a0 ∈ G tal que

a ∗ a0 = e = a0 ∗ a

1
2 CAPÍTULO 1. ESPACIOS VECTORIALES

entonces se dice que (G, ∗, e) es un grupo. Nótese que en un grupo cada elemento tiene un único
inverso. Si el contexto lo permite, un grupo (G, ∗, e) será denotado simplemente por G.
Ejemplo 1.3. El conjunto Z de números enteros con la operación usual de adición conforma un grupo.
Un grupo G se dice conmutativo (=abeliano) si su operación es conmutativa, es decir,

a∗b=b∗a

para cualesquiera elementos a, b ∈ G. Obsérvese que el grupo aditivo de números enteros es conmuta-
tivo. Se acostumbra a denotar la operación de un grupo conmutativo mediante el sı́mbolo +.

Se ha visto que el conjunto Z de números enteros posee dos operaciones + y × tal que respecto
de la primera es un grupo abeliano, mientras que bajo la segunda es un monoide. Conjuntos con tales
condiciones conforman los llamados anillos. Más exactamente,
Definición 1.4. Un anillo es un conjunto A dotado de dos operaciones + y × tales que:
(a) A respecto de + es un grupo conmutativo
(b) A respecto de × es un monoide
(c) × se distribuye sobre +, es decir,

a × (b + c) = a × b + a × c (a + b) × c = a × c + b × c

para cualesquiera elementos a, b, c ∈ A. El anillo A es conmutativo si su segunda operación es


conmutativa.
En adelante 0 denotará el elemento neutro de la primera operación en A, −a será el inverso de a
respecto de dicha operación y lo llamaremos el opuesto de a; 1 denotará el elemento neutro de A
respecto de la segunda operación y lo llamaremos el uno de A.

Además, es costumbre omitir el sı́mbolo × entre dos elementos, ası́ pues, el producto a × b se es-
cribirá simplemente como ab.
Ejemplo 1.4. El conjunto Z de números enteros con las operaciones habituales de adición y multi-
plicación es un anillo conmutativo.
Ejemplo 1.5. El conjunto R[x] de polinomios reales en la indeterminada x con las operaciones habi-
tuales de adición y multiplicación de polinomios es un anillo conmutativo.
Ejemplo 1.6. El conjunto M2 [R] de matrices reales 2 × 2 con las operaciones usuales de adición y
multiplicación de matrices conforma un anillo.
En un anillo A cada elemento a tiene un opuesto −a, sin embargo, no todo elemento tiene un inverso
respecto de la segunda operación. Por ejemplo, en Z el 2 no tiene inverso multiplicativo, es decir, no
existe entero b tal que 2b = 1. En R[x] los únicos polinomios invertibles son las constantes no nulas;
en M2 [R] las matrices de determinante no nulo son invertibles.

Si a ∈ A es invertible, entonces existe un único a−1 ∈ A tal que aa−1 = 1 = a−1 a; la colección
de elementos invertibles de A se denota por A∗ .
Ejemplo 1.7. (a) Z∗ = {±1}.
(b) R[x]∗ = {p(x) | p(x) es una constante no nula}.
(c) M2 [R]∗ = {B | det(B) 6= 0}.
1.2. ESPACIOS VECTORIALES Y EJEMPLOS 3

Proposición 1.1. Si (A, +, ×, 1) es un anillo, entonces (A∗ , ×, 1) es un grupo.


Un anillo conmutativo A es uncuerpo si cada elemento no nulo de A tiene inverso multiplicativo. En
otras palabras, A es un cuerpo si A es conmutativo y A∗ = A − {0}.
Ejemplo 1.8. El conjunto Q de números racionales con las operaciones usuales de adición y multiplica-
ción es un cuerpo. De igual manera, los conjuntos R y C de números reales y complejos, respectivamente,
con las operaciones usuales de adición y multiplicación son ejemplos de cuerpos.
Esta sección se cierra con el concepto de isomorfismo, el cual permite clasificar los diferentes tipos de
estructuras (grupos, anillos, cuerpos, etc...) de acuerdo a que sean ”iguales”desde el punto de vista
algebraico. La importancia de este concepto se entenderá más adelante; por ahora presentamos la
definición.
Definición 1.5. Dos grupos (G, ∗) y (H, ·) se dicen isomorfos si existe una función biyectiva

f :G →H

tal que

f (a ∗ b) = f (a) · f (b)

para cualesquiera elementos a, b ∈ G. Dos anillos (A, +, ×, 1) y (B, +, ×, 1) se dicen isomorfos si existe
una función biyectiva

f :A →B

tal que

f (a + b) = f (a) + f (b),
f (ab) = f (a)f (b),

para cualesquiera elementos a, b ∈ A. Obsérvese que necesariamente f (1) = 1 y f (a−1 ) = f (a)−1 para
cada elemento invertible de a de A. Además, la relación ser isomorfo es de equivalencia.

1.2. Espacios Vectoriales y Ejemplos


Un tipo de estructura más compleja que las definidas en la lección anterior la constituyen los llamados
espacios vectoriales. Los espacios vectoriales son los objetos que estudia el Álgebra Lineal.
Definición 1.6. espacio vectorial es una tripla (V, K, ·) conformada por:
(1) Un grupo abeliano (V, +, 0), los elementos del cual denominamos vectores.
(2) Un cuerpo (K, +, ×, 0, 1), los elementos del cual denominamos escalares.
(3) Una operación externa
K ×V → V
(a, v) 7 → a.v
entre escalares y vectores que cumple las siguientes condiciones:
i) a.(v + u) = a.v + a.u
ii) (a + b).v = a.v + b.v
iii) (ab).v = a.(b.v)
iv) 1.v = v
4 CAPÍTULO 1. ESPACIOS VECTORIALES

para cualesquiera escalares a, b ∈ K y cualesquiera vectores v, u ∈ V .


Es costumbre denotar el espacio vectorial (V, K, ·) simplemente por V ; también se dice que V es un
K-espacio vectorial.
Ejemplo 1.9. El plano cartesiano R2 de puntos de la forma (x, y) con x, y ∈ R, es un espacio vectorial
real respecto de las siguientes operaciones:

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )


a.(x, y) = (ax, ay)

Ejemplo 1.10. Sea n un número natural ≥ 1. El espacio Rn de n-plas ordenadas de números reales
en la forma (x1 , . . . , xn ) es un espacio vectorial real respecto de las siguientes operaciones:

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )


a.(x1 , . . . , xn ) = (ax1 , . . . , axn )

Este ejemplo se generaliza al caso de un cuerpo cualquiera K, obteniéndose el K-espacio canónico K n .


Ejemplo 1.11. El conjunto R[x] de polinomios reales en la indeterminada x con las operaciones ha-
bituales de adición y multiplicación de real por polinomio, es un espacio vectorial real.

Si cambiamos R por un cuerpo cualquiera K obtenemos el K-espacio vectorial K[x] de polinomios


con coeficientes en K.
Ejemplo 1.12. El conjunto M2 [R] de matrices reales 2 × 2 con las operaciones usuales de adición y
multiplicación de matriz por escalar, conforma un espacio vectorial sobre los reales.
Ejemplo 1.13. Sea X un conjunto no vacı́o. El conjunto RX de todas las funciones de X en R es un
espacio vectorial real bajo las siguientes operaciones:

(f + g)(x) = f (x) + g(x)
∀x ∈ X, ∀a ∈ R
(a.f )(x) = af (x)

Si X = R entonces se obtiene el espacio de todas las funciones de variable real a valor real. Si X es
un intervalo abierto, por ejemplo (a, b) o R, y C(X) es el conjunto de funciones continuas de X en R,
entonces C(X) es un espacio vectorial real. Si X = N es el conjunto de números naturales, entonces
resulta el espacio de las sucesiones reales.
Solución: La idea es revisar todas las propiedades (axiomas) que definen un espacio vectorial. En
primer lugar, nótese que en el ejemplo en cuestión, el cuerpo de escalares son los números reales,
es decir, no necesitamos demostrar que R sea efectivamente un cuerpo. Esto lo damos por conoci-
do. Mas bien, debemos establecer que el conjunto de vectores RX es un un grupo abeliano y que la
acción de los escalares reales por estos vectores satisfacen las propiedades de la definición de la Lección
2.

La primera observación que debemos hacer es que la suma de dos elementos de RX es nuevamen-
te una función de RX : esto es claro a partir de la definición de suma: f + g actuando en x ∈ X es
f (x) + g(x) ∈ R, en otras palabras, la operación de suma en RX es interna.

En segundo lugar, esta operación es asociativa en el sentido que f +(g + h) = (f + g)+h, donde f, g, h ∈
RX : en efecto, esto se debe a que la suma de reales es una operación asociativa: (f + (g + h)) (x) =
f (x)+(g + h) (x) = f (x)+(g(x) + h(x)) = (f (x) + g(x))+h(x), en esta última igualdad hemos aplica-
do la propiedad asociativa de la suma de números reales. Se concluye entonces que (f + (g + h)) (x) =
((f + g) + h) (x), es decir, f + (g + h) = (f + g) + h.
1.3. SUBESPACIOS 5

La suma definida tiene elemento neutro, es decir, vector nulo: en efecto, la función 0 : X → R definida
por 0(x) = 0 para cada x ∈ R es tal que 0 + f = f = f + 0 para cada f ∈ R.

Cada elemento f ∈ R tiene su inverso respecto de esta suma, es decir, su función opuesta: esta
función opuesta se denota por −f y es definida por (−f ) (x) = −f (x), para cada x ∈ X. Nótese que
f + (−f ) = 0 = −f + f .

La suma definida es claramente conmutativa.

Hemos pues probado que RX es ciertamente un grupo abeliano.

Ahora debemos verificar el cumplimiento de las propiedades relativas al producto de escalar por vector:
la operación a.f está bien definida, es decir, es una operación externa y cumple las siguientes propie-
dades:

(a. (f + g)) (x) = a. (f + g) (x) = a.f (x) + a.g(x) = (a.f + a.g) (x), es decir, a. (f + g) = a.f + a.g,
donde a es un escalar real.

((a + b) .f ) (x) = (a + b) .f (x) = a.f (x) + b.f (x) = (a.f + b.f ) (x), es decir, (a + b) .f = a.f + b.f .

((ab) .f ) (x) = (ab) .f (x) = a(b.f (x)) = (a(b.f )) (x), es decir, (ab) .f = a(b.f ).

Finalmente, (1.f ) (x) = 1f (x) = f (x), es decir, 1.f = f .

Esto completa la demostración de todas las propiedades requeridas para tener una estructura de
espacio vectorial real.

1.3. Subespacios
Dado un espacio vectorial V sobre un cuerpo K y un subconjunto no vacı́o S de V , resulta interesante
preguntarse si S bajo la misma adición de vectores y la misma acción de escalares sobre vectores,
conforma un espacio vectorial sobre K. En caso afirmativo, se dice que S es un subespacio del espacio
V . Esta relación se denota por S ≤ V . Según esta definición, si se desea establecer que S ≤ V se deberı́a
verificar el cumplimiento de los cuatro axiomas para la adición de vectores y los cuatro axiomas para
la acción de escalares sobre vectores. Sin embargo, sólo es necesario verificar el cumplimiento de dos
condiciones, como lo muestra la siguiente proposición.
Proposición 1.2. Sea V un espacio vectorial sobre el cuerpo K y sea S un subconjunto no vacı́o de
V . Entones, S ≤ V si y sólo si se cumplen las siguientes condiciones:
(1) Si u, v ∈ S, entonces u + v ∈ S.
(2) Si v ∈ S y a ∈ K, entones a.v ∈ S.
Ejemplo 1.14. En el plano cartesiano R2 el subconjunto S = {(x, y)|y = mx}, donde m ∈ R es una
constante, representa una recta que pasa por el origen y conforma un subespacio de R2 .
Ejemplo 1.15. En el espacio R[x] de polinomios reales, el subconjunto Rn [x] de polinomios de grado
≤ n conforma un subespacio.
Ejemplo 1.16. En el espacio RR de funciones de R en R, la colección C(R) de funciones continuas de
R en R conforma un subespacio. En C(a, b) se tienen dos subespacios notables: C n (a, b) conformado
por todas las funciones de (a, b) en R cuyas primeras n derivadas son continuas, y C ∞ (a, b) consti-
tuido por las funciones de (a, b) en R para las cuales las derivadas de cualquier orden son continuas.
6 CAPÍTULO 1. ESPACIOS VECTORIALES

Similarmente, se tienen los subespacios C n (R) y C ∞ (R) de C(R).

También, en el espacio RN de sucesiones reales la colección de sucesiones convergentes es un subespacio.


Una sucesión {an } se dice que es polinómica si existe un entero positivo m tal que an = 0 para cada
n ≥ m. Es claro que el conjunto de sucesiones polinómicas es un subespacio del espacio de sucesiones
convergentes.

Ejemplo 1.17. En cada espacio V se tienen dos subespacios triviales: 0 = {0} y V .

Ejemplo 1.18. La intersección de dos subespacios es un subespacio. En realidad, la intersección de


cualquier familia no vacı́a de subespacios de un espacio vectorial es un subespacio.

Sea V un espacio vectorial y S un subconjunto no vacı́o de V ; nótese que el subespacio más pequeño de
V que contiene a S es la intersección de todos los subespacios de V que contienen a S. Este subespacio
se denota por hSi y se conoce como el subespacio generado por S.

A continuación se verá que hSi puede describirse en términos de combinaciones lineales de elementos
de S. Sean v1 , v2 , . . . , vn elementos del espacio V , una combinación lineal de estos elementos es un
vector v ∈ V de la forma v = a1 .v1 + · · · + an .vn , donde a1 , . . . , an son escalares del cuerpo K. Se
puede entonces afirmar lo siguiente.

Proposición 1.3. Sea V un espacio vectorial sobre el cuerpo K y sea S un subconjunto no vacı́o de
V . Entonces, hSi coincide con el conjunto de todas las posibles combinaciones lineales realizadas con
elementos de S. Más exactamente,
( n )
X
hSi = ai .vi |ai ∈ K, vi ∈ S, n ≥ 1 .
i=1

Esta presentación permite identificar a hSi como la envolvente lineal de S. Si S = {v1 , . . . , vn } es


finito, entonces
( n )
X
hSi = ai .vi | ai ∈ K .
i=1

1.4. Bases
En cada espacio vectorial existen ciertos subconjuntos conocidos como bases; la importancia de estos
subconjuntos radica en que cada elemento del espacio puede ser representado de manera única a través
de sus elementos. El propósito de la presente lección es explicar en detalle la noción de base, la cual
es fundamental en álgebra lineal.

Definición 1.7. Sea V un espacio vectorial sobre un cuerpo K y S un subconjunto no vacı́o de V ,


se dice que S es un sistema de generadores para V si la envolvente lineal de S coincide con V , es
decir, hSi = V . El espacio V se dice finitamente generado si existe en V un subconjunto finito S
de generadores.

Por otra parte, sea X = {x1 , . . . , xn } un subconjunto finito de V , se dice que X es un conjunto de vec-
tores linealmente independientes (L.I.) si la única combinación lineal nula con los elementos de
X es a través de escalares nulos. Más exactamente, los vectores de X son linealmente independientes
si para cualesquiera escalares a1 , . . . , an ∈ K se cumple que
Pn
i=1 ai . xi = 0 ⇐⇒ ai = 0, 1 ≤ i ≤ n.
1.4. BASES 7

Por definición, se asume que el conjunto vacı́o es LI. Un subconjunto cualquiera X de V es LI si cada
subconjunto finito de X es LI. X es linealmente dependiente (LD) si no es LI.
La siguiente proposición reune algunas propiedades básicas sobre dependencia e independencia lineal.
Proposición 1.4. Sea V un K-espacio y ∅ =
6 S ⊂ V . Entonces
(a) S es LD si y solo si existe x ∈ S tal que x ∈ hS 0 i, donde S 0 = S − {x}.
(b) Si 0 ∈ S entonces S es LD.
(c) Si S es LI entonces cada subconjunto de S es LI.
(d) Si S es finito y LI con n ≥ 0 elementos, entonces cada conjunto de n + 1 elementos de hSi es
LD.
Demostración: Las afirmaciones (a)-(c) son evidentes. La prueba de la parte (d) se hace por inducción
sobre n. Los casos n = 0, 1 son evidentes. Supóngase que la afirmación ha sido demostrada para n
vectores pertenecientes a la envolvente lineal de n − 1 vectores LI. Sea S = {v1 , . . . , vn } un conjunto
LI de vectores, y sean u1 , . . . , un+1 vectores de hSi. Supóngase que estos vectores son LI, y al expresar
cada uno de ellos como combinación lineal de los n vectores de S se tiene que:

u1 = a11 v1 + · · · + a1n vn
u2 = a21 v1 + · · · + a2n vn
.. .. ..
. . .
un+1 = an+11 v1 + · · · + an+1n vn

Puesto que los vectores u1 , . . . , un+1 son LI, entoces cada uno de ellos es no nulo, en particular u1 es no
nulo, esto hace que sin perder generalidad podamos suponer que a1n es no nulo. Nótese que entonces
el siguiente sistema de vectores es LI:

x1 = u1
xj = uj − ajn a−1
1n u1 , j ≥ 2

Según la parte (c) los vectores x2 , . . . , xn+1 son LI, pero al reemplazar u1 , uj en la expresión que define
a xj se encuentra que estos vectores pertenecen a la envolvente lineal de v1 , . . . , vn−1 y por inducción
resultarı́an LD. 

Ejericicio 1.1. Demuestre que en el espacio RR el conjunto X = {enx | n ∈ N} es LI.


Solución: Se debe tomar un subconjunto finito arbitrario de X y demostrar que es LI. Sea Y un
subconjunto finito de X. Si Y es vacı́o, entonces por definición Y es LI. Sea Y no vacı́o, Y =
{en1 x , en2 x , . . . , enk x }, y sean a1 , a2 , . . . , ak reales tales que a1 en1 x + a2 en2 x + · · · + ak enk x = 0. Es-
cogemos el mayor de los exponentes naturales, sin pérdida de generalidad podemos suponer que di-
cho exponente es n1 ; multiplicamos a ambos lados de la ecuación anterior por e−n1 x , y obtenemos
a1 + a2 e(n2 −n1 )x + · · · + ak e(nk −n1 )x = 0. En esta función al hacer x → ∞ encontramos que a1 = 0.
Podemos ahora repetir el mismo razonamiento con los otros coeficientes y encontrar que todos resultan
nulos. Esto demuestra la independencia lineal del conjunto Y . 
Ejericicio 1.2. Demuestre que dos vectores de R2 son LD si y sólo si pertenecen a la misma recta
que pasa por el origen.
Ya se puede presentar la noción de base.
Definición 1.8. X ⊂ V es una base para V si se cumplen dos condiciones:
8 CAPÍTULO 1. ESPACIOS VECTORIALES

(a) hXi = V

(b) X es LI.

Ejemplo 1.19. En Rn los vectores

ei = (0, . . . , 1, . . . , 0), 1≤i≤n

constituyen la llamada base canónica (1 se encuentra en la i-ésima entrada de la n-pla). Cambiando


R por cualquier cuerpo K se obtiene la base canónica de K n .

Ejemplo 1.20. En el espacio R [x] el conjunto de polinomios {1, x, x2 , x3 , . . .} constituye su base


canónica. En el subespacio Rn [x] de polinomios de grado ≤ n la base canónica es {1, x, x2 , x3 , . . . , xn }.

Ejemplo 1.21. En el espacio M2 [R] de matrices reales 2 × 2 se tiene la siguiente base canónica:
       
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

Ejemplo 1.22. En el espacio RN de sucesiones reales la colección de sucesiones

ei = (0, . . . , 1, . . . , 0, . . .), i≥1

conforman la base canónica para el subespacio de sucesiones polinómicas.

Ejemplo 1.23. El conjunto ∅ es, por definición, la única base del espacio nulo 0 = {0}.

Una de las principales caracterizaciones del concepto de base se establece en la siguiente proposición.

Proposición 1.5. Sea V un K-espacio y X un subconjunto no vacı́o de V . X es una base de V si y


sólo si cada elemento v ∈ V tiene una representación única (salvo sumandos nulos) como combinación
lineal de elementos de X en la forma:

v = a1 . x1 + · · · + an . xn , ai ∈ K, xi ∈ X, 1 ≤ i ≤ n.

1.5. Dimensión
En esta lección se discutirán los siguientes aspectos relativos a las bases: existencia, unicidad y car-
dinalidad (= cantidad de elementos). El punto de partida será el teorema sobre existencia de bases
en cualquier espacio vectorial. La prueba de este teorema se apoya en el Lema de Zorn (= axioma de
elección), el cual representa uno de los supuestos básicos de la teorı́a clasica de conjuntos. El lector no
interesado en la prueba puede simplemente asumir el Teorema 1 como un axioma.

Teorema 1.1. Todo espacio vectorial posee al menos una base.

Demostración: La prueba de este teorema se apoya en uno de los supuestos de la teorı́a clásica de
conjuntos: el lema de Zorn. Para los lectores no familiarizados con este axioma se explicarán brevemente
algunos de los términos de su enunciado. Un conjunto no vacı́o M es parcialmente ordenado si en M
está definida una relación de orden ≤. Un subconjunto no vacı́o N de M es totalmente ordenado si
cualesquiera dos elementos a, b de N son comparables, es decir, se tiene al menos una de las siguientes
posibilidades: a ≤ b, b ≤ a. Un elemento x ∈ M es una cota superior para el subconjunto N de M si
a ≤ x para cada elemento a ∈ N . Finalmente, se dice que el elemento x ∈ M es maximal si no existe
z en M tal que z 6= x y x ≤ z.

Lema 1.1 (de Zorn). Sea (M, ≤) un conjunto parcialmente ordenado tal que cada subconjunto total-
mente ordenado de M tiene cota superior en M . Entonces, M posee al menos un elemento maximal.
1.5. DIMENSIÓN 9

Ya se puede iniciar la prueba del teorema. Sea V un K-espacio vectorial y sea M la colección de
subconjuntos de V que son LI. M 6= ∅ ya que ∅ ∈ M . La relación ⊆ de inclusión entre conjuntos define
un orden parcial en M . Sea N un subconjunto de M totalmente ordenado. Sea
[
X= L
L∈N

Claramente, X es una cota superior para N ; nótese que X ∈ M , es decir, X es LI. Sea Z = {x1 , . . . , xn }
un subconjunto finito de X; existen L1 , . . . , Ln ∈ N tales que x1 ∈ L1 , . . . , xn ∈ Ln . Como N es to-
talmente ordenado se puede suponer que Li ⊆ L1 para cada 1 ≤ i ≤ n; por tanto, x1 , . . . , xn ∈ L1 , es
decir, Z ⊆ L1 ; como L1 es LI entonces Z es LI. Esto completa la prueba de que X es LI.

Por el lema de Zorn, M tiene elemento maximal X0 , el cual, por construcción, es LI; nótese que
hX0 i = V : obviamente hX0 i ⊆ V ; sea v ∈ V , si v ∈ X0 , entonces v ∈ hX0 i; supóngase que v ∈ / X0 . Si
v = 0 entonces v ∈ hX0 i; sea v 6= 0. Por la maximalidad de X0 , X0 ∪{v} es LD, entonces existen elemen-
tos x1 , . . . , xn ∈ X0 y escalares no todos nulos a, a1 , . . . , an ∈ K tales que a · v+a1 · x1 +· · ·+an · xn = 0.
Debido a la independencia lineal de los elementos x1 , . . . , xn se debe tener que a 6= 0, de donde, des-
pejando v, se tiene que v ∈ hX0 i. En total, V ⊆ hX0 i y se ha probado que hX0 i = V . 

Con respecto a la unicidad de las bases se puede decir que, en general, un espacio vectorial tiene infi-
nitas bases. En efecto, si el espacio V es no nulo (si V es nulo su única base es ∅ ) y si X es una base
cualquiera de V y x es un elemento de X, entonces cambiando x por a.x en X, con cada a ∈ K − {0},
se obtienen bases distintas en V . Cuando K es infinito esta colección de bases es infinita. En realidad,
el único espacio con base única es el espacio nulo.

Mucho más interesante que la pregunta sobre la unicidad de las bases es el problema sobre el ta-
maño de éstas. Las siguientes proposiciones constituyen la prueba del Teorema 2 que se enunciará más
adelante.

Proposición 1.6. Si un espacio vectorial V posee una base finita, entonces todas sus bases son finitas.

La proposición anterior permite clasificar los espacios vectoriales en dos categorı́as: los de bases finitas
y los de bases infinitas.

Proposición 1.7. Sea V un espacio vectorial con bases finitas X = {x1 , . . . , xn } y Z = {z1 , . . . , zm }.
Entonces n = m.

Demostración: Supóngase que m > n; según la Proposición 4, z1 , . . . , zn , zn+1 son LD, lo cual es falso
ya que Z es una base. Por tanto, m ≤ n. Simétricamente, n ≤ m. 

Proposición 1.8. Sea V un espacio vectorial con bases infinitas X, Y . Entonces card (X) = card (Y ).

Demostración: La idea es probar que card(X) ≤ card(Y ) y utilizar la simetrı́a del problema para
concluir que card(X) = card(Y ).

Cada elemento s ∈ Y es representable mediante una combinación lineal finita de elementos de X.


Además, dado x ∈ X existe s ∈ Y tal que x se encuentra en la representación de s. En efecto, sea

x = a1 · s1 + · · · + am · sm (1.1)
la representación de x en términos de elementos de Y . Cada elemento si , 1 ≤ i ≤ m, es representable
como combinación lineal de elementos de X; si se supone que x no aparece en la representación de
ningún elemento de Y , entonces x no aparece en la representación de ninguno de los elementos si . Sea
10 CAPÍTULO 1. ESPACIOS VECTORIALES

S
m
Xi el conjunto (finito!) de elementos de X que intervienen en la representación de si y sea X0 = Xi .
i=1

Obviamente X0 es finito y x ∈ / X0 . De (1.1) se obtiene que U = X0 ∪ {x} es LD, pero esto con-
tradice el hecho de que X es una base.

Ası́ pues, dado x ∈ X existe al menos un s ∈ Y tal que x está en la representación de s. Usando
el axioma de elección se define la función
Φ
X −→ Y
x 7→ Φ(x) = s
donde s es un elemento de Y tal que x está en la representación de s. Sea s ∈ Φ(X), entonces Φ−1 (s)
es un conjunto (finito!) y consta de elementos de X que intervienen en la representación de s. Se
establece, de esta manera, una función entre Φ(X) y el conjunto P F (X) de partes finitas de X:
α
Φ(X) −→ P F (X)
s 7→ Φ−1 (s)
α es inyectiva ya que Φ es una función; por tanto card(Φ(X)) = card(Im(α)).

Enseguida se probará que Im(α) es una partición de X. Si s1 6= s2 son dos elementos de Φ(X)
entonces Φ−1 (s1 ) ∩ Φ−1 (s2 ) = ∅ debido a que Φ es una función. Claramente
[ [
Im(α) = Φ−1 (s) ⊆ X
s∈Φ(X)
S S
Sea x ∈ X, entonces Φ(x) = s ∈ Φ(X) con lo cual x ∈ Φ−1 (s) ⊆ Im(α), es decir, X ⊆ Im(α).

Puesto que X es infinito Im(α) también es infinito. Ası́, se tiene que Im(α) es una partición infi-
nita de partes finitas de X, con lo cual card(X) = card(Im(α)) = card(Φ(X)) ≤ card(Y ). Esto
completa la prueba de la proposición.

Teorema 1.2. Para cada espacio vectorial V se cumple que todas las bases tienen la misma cardina-
lidad.

El teorema anterior permite definir la noción de dimension en un espacio vectorial V como el tamaño
de cualquiera de sus bases; se denotará este invariante de V por dimK (V ), o simplemente por dim(V ),
si es claro sobre qué cuerpo se está trabajando. Si V es de bases infinitas se dirá que V es de dimensión
infinita. Si X es un subconjunto de V , se define el rango de X, rankK (X), como la dimensión de la
envolvente lineal de X, es decir, rankK (X) = dimK hXi.

Ejemplo 1.24. dim(Rn ) = n


R [x] es de dimensión infinita
dim(Rn [x]) = n + 1
dim(M2 [R]) = 4
dim(0) = 0

Ejericicio 1.3. Demuestre que si un espacio vectorial V posee un subconjunto infinito LI, entonces
V es de dimensión infinita.

A continuación se presentarán algunas propiedades interesantes de los espacios de dimensión finita.

Proposición 1.9. Sea V un K-espacio vectorial de dimensión n ≥ 1. Entonces,

(a) Cada conjunto de n elementos LI de V conforman una base.


1.6. EJERCICIOS 11

(b) Cada conjunto de n generadores de V conforman una base de V .


(c) Sea m < n y sean x1 , . . . , xm vectores LI de V . Entonces es posible encontrar vectores xm+1 , . . . , xn
en V tales que {x1 , . . . , xm , xm+1 , . . . , xn } es una base de V .
(d) Sea S un subespacio de V . Entonces, cada base de S puede extenderse hasta una base de V . En
particular, dim(S) ≤ dim(V ).
(e) Sean x1 , . . . , xm elementos cualesquiera de V y S su envolvente lineal. Entonces, dim(S) coincide
con el máximo número de vectores LI encontrados en la colección x1 , . . . , xm de vectores dados.
Demostración: (a) Sean x1 , . . . , xn vectores LI y sea v un elemento de V . Si x ∈ {x1 , . . . , xn }, entonces
x ∈ hx1 , . . . , xn i. Si x ∈
/ {x1 , . . . , xn }, entonces se tienen n + 1 elementos en V que resultan LD (ver
la Proposición 4 parte (d) con S una base cualquiera de V ). Sean a, a1 , . . . , an escalares no todos
nulos tales que ax + a1 x1 + · · · + an xn = 0. Entonces a es no nulo debido a la independencia lineal
de los vectores x1 , . . . , xn . Despejando x se tiene que x ∈ hx1 , . . . , xn i. Con esto se ha probado que
V = hx1 , . . . , xn i.

(b) Sean x1 , . . . , xn vectores de V tales que V = hx1 , . . . , xn i. Supóngase que estos vectores son
LD, como se vió en la parte (a), uno de ellos se puede expresar como combinación lineal de los otros,
x1 ∈ hx2 , . . . , xn i, con lo cual V = hx2 , . . . , xn i. Esto hace que cualquier base de V resulte LD (véase
la Proposición 4 parte (d)).

(c) Según el Teorema 2, los m vectores no pueden ser una base para V . Por tanto,hx1 , . . . , xm i ⊂ V .
Sea xm+1 ∈ / hx1 , . . . , xm i. El sistema {x1 , . . . , xm+1 } es LI. Si m + 1 = n, entonces de acuerdo a la
parte (a), este conjunto es una base de V . Si m + 1 < n entonces hx1 , . . . , xm+1 i ⊂ V y se puede
repetir el razonamiento hasta completar la base.

(d) Si S = 0 entonces dim(S) = 0 ≤ n. Sea S 6= 0 y x1 , . . . , xk una base de S. Si k > n enton-


ces, según la Proposición 4, estos vectores son LD, lo cual es falso. Por tanto, k ≤ n.

(e) Si todos los vectores dados son nulos, entonces la afirmación se cumple trivialmente. Supónga-
se entonces que al menos uno de los vectores es no nulo. Sea L la colección de subconjuntos LI de
{x1 , . . . , xm }. L 6= φ ya que un vector unitario no nulo constituye un conjunto LI. Se puede escoger en
L un conjunto de mayor cardinalidad, por ejemplo, {x1 , . . . , xr }; de esta forma cualquier subconjunto
de r+1 elementos es LD. Sea x ∈ S = hx1 , . . . , xm i. Existen escalares a1 , . . . , ar , ar+1 , · · · , am tales que
x = a1 x1 + · · · + ar xr + ar+1 xr+1 + · · · + am xm . Para cada 1 ≤ i ≤ m − r el conjunto {x1 , · · · xr , xr+i } es
entonces LD. Existen escalares no todos nulos b1 , · · · , br , br+1 tales que b1 x1 +· · ·+br xr +br+1 xr+1 = 0.
No es posible que br+1 = 0 ya que los vectores x1 , . . . , xr son LI. De esta forma, xr+i ∈ hx1 , . . . , xr i,
para cada 1 ≤ i ≤ m − r. Esto implica que S = hx1 , . . . , xr i y {x1 , . . . , xr } es una base de S.

1.6. Ejercicios
1. En el conjunto R+ de números reales positivos se definen las siguientes operaciones:

x ⊕ y = xy (el producto corresponde a la multiplicación corriente de números reales positivos)


a.x = xa (a es un número real arbitrario y x ∈ R+ )

Investigar si R+ es un espacio vectorial sobre el cuerpo de números reales.


2. Sea F el conjunto de todas las sucesiones de números reales (a1 , a2 , a3 , . . .) que satisfacen la
condición
12 CAPÍTULO 1. ESPACIOS VECTORIALES

ak = ak−1 + ak−2 , para k = 3, 4, 5, . . .

Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales
(véase la Lección 2 del presente capı́tulo).

3. Sean a, b, c números reales diferentes fijos. Investigar si los siguientes polinomios son linealmente
independientes:

(x − a) (x − b) , (x − a) (x − c) , (x − b) (x − c) .

4. Sea Rn [x] el espacio de polinomios reales de grado ≤ n. Demostrar que cualquier subconjunto X
de Rn [x] que contenga por cada k = 0, 1, 2, 3, . . . , n un único polinomio de grado k, constituye
una base de Rn [x].

5. Sea Rn [x] el espacio de polinomios reales de grado ≤ n y sea W el subconjunto de polinomios


p(x) que satisfacen la condición p(0) = 0 = p(1). Demostrar que W es un subespacio de Rn [x]
de dimensión n − 1. Mostrar al menos una base de W.

6. Sea X un sistema no vacı́o finito de vectores de un espacio vectorial V . Demostrar que la de-
pendencia o independencia lineal de X no se altera si sobre los elementos de X se aplican los
siguientes cambios: intercambiar el orden de dos vectores, multiplicar un vector de X por un
escalar no nulo, agregar a un vector de X otro vector de X que ha sido multiplicado por un es-
calar. (Estos cambios se conocen con el nombre de operaciones elementales sobre el conjunto
X. Para la demostración considérese cada operación por separado).

7. Dos conjuntos de vectores X, Y de un espacio vectorial V se dicen equivalentes si sus envolventes


lineales coinciden (véase la Lección 3 del presente capı́tulo). Estudiar la veracidad de la siguiente
afirmación: X es equivalente a Y si y sólo si rank(X) = rank(Y ).

8. Utilizando las ideas de los dos problemas anteriores, calcular el rango de los siguientes sistemas
de vectores:
a) {(1, 2, 3) , (4, 5, 6) , (7, 8, 9) , (10, 11, 12)}

b) {(1, 10, 0, 0) , (0, 1, 10, 0) , (0, 0, 1, 10) , 10−3 , 0, 0, 1 }.

9. Recordando que los polinomios son vectores, calcular el rango de los siguientes sistemas de
polinomios:

a) 3x2 + 2x + 1, 4x2 + 3x + 2, 3x2 + 2x + 3, x2 + x + 1, 4x2 + 3x + 4
 3 
x + 2x2 + 3x + 4, 2x3 + 3x2 + 4x + 5,
b) .
3x3 + 4x2 + 5x + 6, 4x3 + 5x2 + 6x + 7

10. Completar el siguiente sistema de polinomios hasta una base de R5 [x] : x5 + x4 , x5 − 3x3 , x5 +
2x2 , x5 − x.

11. Demostrar que la conmutatividad de la suma de vectores se desprende de las restantes propiedades
que definen un espacio vectorial.

12. Sean x, y, z vectores linealmente independientes en un espacio vectorial. Cuáles de los siguientes
sistemas de vectores son también linealmente independientes ?
a) x, x + y, x + y + z
b) x + y, y + z, z + x
c) x − y, y − z, z − x
1.6. EJERCICIOS 13

13. Sea R el conjunto de números


√ reales considerado como espacio vectorial
√ sobre los números racio-
nales. Pertenece el real 4 3 a la envolvente lineal de los reales 1 y 3 ?
14. Sea U el subespacio de R3 [x] generado por los polinomios E = {x3 , x3 − x2 , x3 + x2 , x3 − 1}.
Encontrar un subconjunto F de E linealmente independiente tal que < F >= U .
15. Encontrar una base para el subespacio
 U de R4 [x] generado por los polinomios f (x) que satisfacen
la condición f (x) = x4 f x1 .
16. En el espacio C[0, 1] de funciones reales continuas determinar si los siguientes vectores son LI:

f (x) = 1 − x,
g (x) = x (1 − x) ,
h (x) = 1 − x2 .

17. Sea K un cuerpo finito con q elementos. Cuántas bases ordenadas distintas tiene K n , n ≥ 1.
Álgebra Lineal
Capı́tulo 1. Espacios Vectoriales
Ejercicios.

2. Sea F el conjunto de todas las sucesiones de números reales (a1 , a2 , a3 , . . .) que satisfacen la condición

ak = ak−1 + ak−2 , para k = 3, 4, 5, . . .

Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales (véase
la Lección 2 del presente capı́tulo).

Solución: Para ver que F es un subespacio de RN basta con verificar que la suma y la multipli-
cación por escalar son cerradas. En efecto, sean {an } y {bn } sucesiones de F y a ∈ R, entonces se
tiene que ak = ak−1 + ak−2 y bk = bk−1 + bk−2 , luego ak + bk = (ak−1 + bk−1 ) + (ak−2 + bk−2 ) y
por lo tanto {ak + bk } ∈ F. De igual manera a.ak = aak−1 +aak−2 y {a.ak } ∈ F. Ası́, F es un subespacio.

3. Sean a, b, c números reales diferentes fijos. Investigar si los polinomios (x − a)(x − b), (x − a)(x − c),
(x − b)(x − c) son linealmente independientes.

Solución: Consideremos la combinación lineal α1 (x−a)(x−b)+α2 (x−a)(x−c)+α3 (x−b)(x−c) = 0.


Esta relación dice que el polinomio de la izquierda es nulo, luego en cada valor de x este polinomio es
cero. Entonces, tomando x = c y teniendo en cuenta que los valores a, b, c son diferentes, se tiene que
α1 = 0. De igaul forma se prueba que α2 = 0 = α3 .

14. Sea U el subespacio de R3 [x] generado por los polinomios E = {x3 , x3 − x2 , x3 + x2 , x3 − 1}.
Encontrar un subconjunto F de E linealmente independiente tal que hF i = U .

Solución: Nótese que x3 + x2 = 2x3 − x3 − x2 , luego el elemento x3 + x2 sobra como genera-
dor en hEi = U . Los tres elementos x3 , x3 − x2 y x3 − 1 son linealmente
 independientes: en efecto, sean
a, b, c escalares reales tales que ax3 + b x3 − x2 + c x3 − 1 = 0, entonces a + b + a = 0, −b = 0 y
−c = 0, o sea que todos los escalares son nulos.

15. Encontrar una base para el subespacio


 U de R4 [x] generado por los polinomios f (x) que sa-
tisfacen la condición f (x) = x4 f x1 .

Solución: Sea f (x) = a + bx + cx2 + dx3 + ex4 tal que x4 a + b x1 + c x12 + d x13 + e x14 = a + bx +
cx2 + dx3 + ex4 . Entonces, ax4 + bx3 + cx2 + dx + e = a + bx + cx2 + dx3 + ex4 , es decir, a = e, b = d,
2 3 4
es decir, los polinomios
 que2 cumplen la condición son de la2 forma 3a + bx 4+ cx + bx + ax =
4 3
a 1 + x + b x + x + cx . Esto dice que los polinomios x , x + x , 1 + x generan U . Además,
estos polinomios son LI, luego forman una base de U .

16. En el espacio C[0, 1] de funciones reales continuas determinar si los siguientes vectores son LI:

f (x) = 1 − x,
g (x) = x (1 − x) ,
h (x) = 1 − x2 .

Solución: Sean a, b, c ∈ R tales que a (1 − x) + b (x (1 − x)) + c 1 − x2 = 0. Esta función nula se debe
entonces anular en cualquier punto del intervalo [0, 1], por tanto, haciendo x = 0 resulta a + c = 0.
Tomando ahora x = 21 encontramos que 12 a + 41 b + 34 c = 0. Y finalmente, tomando x = 13 se tiene que
2 2 8
3 a + 9 b + 9 c = 0. Se tiene entonces el siguiente sistema:
1.6. EJERCICIOS 15

a+c=0
1
2a + 14 b + 43 c = 0
2
3a + 29 b + 98 c = 0
cuya solución es [a = −c, b = −c]. Esto nos muestra que las funciones dadas son LD, por ejemplo,
tomando c = 1.

17. Sea K un cuerpo finito con q elementos. ¿ Cuántas bases ordenadas distintas tiene K n , n ≥ 1.

Solución: Cualquier base de K n consta de n elementos LI. Por tanto, el problema se reduce a cons-
truir todos los posibles conjuntos distintos de n elementos LI en el espacio K n . Sea v1 = (a1 , ..., an )
el primer vector de la lista, entonces v1 puede ser cualquier vector no nulo, es decir, el número de
posibilidades para v1 es q n − 1. El segundo vector de la lista no puede ser múltiplo de v1 , es decir, v2
no puede ser de la forma v2 = a.v1 , donde a ∈ K. Por tanto, el número de posibilidades para v2 es
q n − q. Ası́ pues, el número posible de dos vectores LI en K n es (q n − 1) (q n − q). Para el tercer vector
se debe tener que no puede ser combinación lineal de los dos anteriores, es decir, v3 no puede ser de
la forma v3 = a.v1 + b.v2 . Por tanto, el número de posiblidades para v3 es q n − q 2 . Continuando el
Q n
n−1 
razonamiento de esta manera se encuentra que el número total de n vectores LI es q − qi .
i=0
16 CAPÍTULO 1. ESPACIOS VECTORIALES
Capı́tulo 2

Transformaciones Lineales

Introducción
El segundo capı́tulo tiene un doble propósito. Por un lado introduce las funciones que conectan los
espacios vectoriales: las transformaciones lineales, y por otro, presenta la suma directa interna de
subespacios. La representación de un espacio vectorial en suma directa de subespacios es clave para el
tratamiento de las formas canónicas del capı́tulo 6 y los aspectos geométricos de los espacios euclidianos
del capı́tulo 8.

2.1. Definición y Ejemplos


Definición 2.1. Sean V y W dos espacios vectoriales sobre un mismo cuerpo K; una transformación
lineal de V en W es una función

T : V −→ W
que satisface dos condiciones:

(a) T (u + v) = T (u) + T (v)

(b) T (a.v) = a.T (v)

para cualesquiera vectores u, v ∈ V y cualquier escalar a ∈ K. Se dice también que T es un operador


lineal de V en W , o que T es una función K-lineal de V en W .

Ejemplo 2.1. La función T : R3 −→ R2 definida por

T (x, y, z) = (2x, 2y)

es una transformación lineal. En efecto,

Si u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ), entonces


T (u + v) = T (x1 + x2 , y1 + y2 , z1 + z2 ) = (2(x1 + x2 ), 2(y1 + y2 )) =
(2x1 , 2y1 ) + (2x2 , 2y2 ) = T (u) + T (v).
T (a.u) = T (ax1 , ay1 , az1 ) = (2ax1 , 2ay1 ) = a.(2x1 , 2y1 ) = a.T (u).

Ejemplo 2.2. La derivación D puede entenderse como un operador lineal del espacio V de funciones
df
derivables en R en el espacio C(R): D(f ) = dx

17
18 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Ejemplo 2.3. La integración puede considerarse como un operador lineal S del espacio C(R) en
C 1 (R):
Z
S(f ) = f (x)dx + C con C = 0

Ejemplo 2.4. Dados dos espacios vectoriales V y W , la función nula

O : V −→ W
x 7→ O(x) = 0

es una transformación lineal, denominada la transformación nula. De igual manera, la función


idéntica

IV : V −→ V
x 7→ IV (x) = x

es también una transformación lineal, y se le conoce como la idéntica de V .

Ejemplo 2.5. Sea a ∈ R un real fijo y R[x] el espacio de polinomios reales, entonces la función

T : R[x] −→ R
p(x) 7→ p(a)

es una transformación lineal.

2.2. Núcleo e Imagen


Definición 2.2. Sea T : V → W una transformación lineal de V en W ; se define el núcleo de T
como

N (T ) = {v ∈ V |T (v) = 0}.

Nótese que N (T ) es un subespacio de V . Por otro lado, se define la imagen de T como

Im(T ) = {w ∈ W |w = T (v) para algún v ∈ V };

Im(T ) es un subespacio de W . Si A es un subespacio de V y B es un subespacio de W , entonces los


conjuntos

T (A) = {T (a)|a ∈ A}
T −1 (B) = {v ∈ V |T (v) ∈ B}

son subespacios de W y V respectivamente. Obsérvese que N (T ) = T −1 (0), e Im(T ) = T (V ). La


dimensión del espacio imagen Im(T ) se conoce como el rango de la transformación T , y se denota
por rank(T ).

Ejemplo 2.6. Considérese la función T definida por

Rn [x] −→ R2n [x]


p(x) = a0 + a1 x + · · · + an xn 7→ a0 + a1 x2 + · · · + an x2n

T es una transformación lineal con núcleo 0 y rank (T ) = n + 1.


2.2. NÚCLEO E IMAGEN 19

Ejemplo 2.7. En el espacio V de las sucesiones reales convergentes la función T definida por

T ({xn }) = {a − xn }, donde a = lı́m {xn }


n→∞

es una transformación lineal cuyo núcleo es el espacio de las sucesiones constantes y cuya imagen es el
espacio de las sucesiones de lı́mite 0.

Además, la sucesión constante 1 es una base de N (T ) y, por otro lado, las sucesiones

s1 = {1, 0, 0, . . .}
s2 = {0, 1, 0, . . .}
s3 = {0, 0, 1, . . .}
..
.
son linealmente independientes, con lo cual Im(T ) y V son espacios de dimensión infinita.
Solución: Sea V el espacio de sucesiones reales convergentes y T : V → V , T ({an }) = {a − an }.Nótese
que efectivamente T es una transformación lineal:

T ({an } + {bn }) = T ({an + bn }) = {a + b − (an + bn )} = {a − an } + {b − bn } = T ({an }) + T ({bn });


T (c.{an }) = T ({can }) = {ca − can } = c.{a − an } = c.T ({an }).

Vamos ahora a demostrar que su núcleo son las sucesiones contantes: sea {an } una sucesión con-
vergente de lı́mite a de tal forma que T ({an }) = {0} = {a − an }, es decir, para cada n se tiene que
a − an = 0, es decir, an = a, es decir, la sucesión dada es constante.

Finalmente, veamos que la imagen de T es el subespacio de las sucesiones de lı́mite cero: sea {bn }
una sucesión que pertenece a la imagen de T , entonces {bn } = T ({an }) = {a − an },por tanto,
bn = a − an ,luego lı́mn→∞ bn = lı́mn→∞ (a − an ) = a − a = 0. Esto prueba que la sucesión dada
es de lı́mite cero.

A continuación se presenta y se pueba uno de los teoremas básicos del álgebra lineal.
Teorema 2.1. Sea V un espacio de dimensión finita n ≥ 1 y sea T : V → W una tranformación
lineal. Entonces

dim(V ) = dim(N (T )) + dim(Im(T ))


Demostración: Sea X una base de N (T ) y Y un conjunto de vectores de V tal que Y ∩ X = ∅ y
X ∪ Y es una base de V Proposición 9, Capı́tulo 1). Si Y es vacı́o entonces N (T ) = V y el teorema se
cumple trivialmente. Si Y 6= ∅, entonces es fácil probar que T (Y ) es una base de Im(T ) con la misma
cardinalidad de Y . Esto completa la prueba del teorema.

Ejericicio 2.1. Demuestre que si en el enunciado del teorema anterior V es un espacio de dimensión
infinita, entonces N (T ) ó Im(T ) es de dimensión infinita, y viceversa.
Ejericicio 2.2. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sean V1 y V2 subespacios de
V tales que dim(V1 ) + dim(V2 ) = dim(V ). Demuestre que existe una transformación lineal T : V → V
tal que N (T ) = V1 e Im(T ) = V2 .
Solución: Si dim(V1 ) = 0, entonces dim(V2 ) = n y V2 = V, en tal caso la transformación T : V → V
es la idéntica. Si dim(V1 ) = n, entonces V2 = 0 y en este caso T = 0. Supóngase entonces que
0 < dim(V1 ) < n. Sea X = {x1 , . . . , xk } una base de V1 y Z = {z1 , . . . , zn−k } una base de V2 . Com-
pletamos entonces la base X hasta una base Y = {x1 , . . . , xk , y1 , . . . , yn−k } de V . La transformación
20 CAPÍTULO 2. TRANSFORMACIONES LINEALES

T entonces se define por T (xi ) = 0, 1 ≤ i ≤ k y T (yj ) = zj , 1 ≤ j ≤ n − k. Es claro que N (T ) = V1 e


Im(T ) = V2 .

El siguiente teorema muestra que una transformación lineal queda completamente determinada por su
acción sobre los vectores de una base. En otras palabras, para definir una transformación lineal basta
conocer las imágenes de los vectores de una base.

Teorema 2.2. Sean V y W dos K-espacios, X una base de V y t : X → W una función. Entonces
existe una única transformación lineal T : V → W que extiende a t, es decir, T (x) = t(x), para cada
x ∈ X.

Demostración: Sea v un vector de V , entonces v tiene una representación única en la forma v =


a1 · x1 + · · · + an · xn , donde ai ∈ K y xi ∈ X, 1 ≤ i ≤ n (Proposición 5, Capı́tulo 1). Se define T por

T (v) = a1 . t (x1 ) + · · · + an . t (xn )

Nótese que T es una transformación lineal: sea u = b1 · z1 + · · · + bm · zm otro vector de V , bi ∈ K


y zi ∈ X, 1 ≤ i ≤ n; si {x1 , . . . , xn } ∩ {z1 , . . . , zm } = ∅, entonces la representación de u + v
en la base X es u + v = b1 · z1 + · · · + bm · zm + a1 · x1 + · · · + an · xn , de donde T (u + v) =
b1 cdott(z1 ) + · · · + bm · t(zm ) + a1 · t(x1 ) + · · · + an · t(xn ) = T (u) + T (v).

Supóngase que {x1 , . . . , xn } y {z1 , . . . , zm } tienen r elementos en común; sin perdida de generali-
dad se puede suponer que r ≤ n ≤ m, y entonces se puede expresar a u en la forma u = b1 · x1 + · · · +
br · xr + br+1 · zr+1 + · · · + bm · zm , de donde se obtiene que la representación de u + v en la base X es

u + v = (b1 + a1 ).x1 + · · · + (br + ar ).xr + br+1 . zr+1 + · · · + bm . zm + ar+1 . xr+1 + · · · + an . xn .

Se tiene entonces que

T (u + v) = (b1 + a1 ).t(x1 ) + · · · + (br + ar ).t(xr )+


br+1 . t( zr+1 ) + · · · + bm . t( zm ) + ar+1 . t( xr+1 ) + · · · + an . t(xn ) = T (u) + T (v).

De otra parte, si a ∈ K, entonces a.v = aa1 . x1 + · · · + aan . xn , con lo cual T (a.v) = aa1 . t(x1 ) + · · · +
aan .t( xn ) = a.T (v).

Finalmente, es obvio que T es una extensión de t, y cualquier transformación lineal que coincida
con t en la base X es igual a la transformación T que se definió arriba. Esto completa la prueba del
teorema.

2.3. Operaciones con Transformaciones Lineales


En esta lección se muestra que el conjunto de todas las transformaciones lineales entre dos K-espacios
V y W es un K-espacio. Se verá además que cuando V = W dicho conjunto es una K-álgebra.

Definición 2.3. Sea LK (V, W ) el conjunto de todas las transformaciones lineales del espacio V en el
espacio W . LK (V, W ) adquiere estructura de espacio vectorial respecto de las siguientes operaciones:

i) Para T1 , T2 ∈ LK (V, W ) y v ∈ V se define la suma por

(T1 + T2 )(v) = T1 (v) + T2 (v).


2.3. OPERACIONES CON TRANSFORMACIONES LINEALES 21

ii) La acción de escalares sobre transformaciones viene dada por

(a · T )(v) = a · T (v)

donde a ∈ K y T ∈ LK (V, W ). Nótese que el cero de LK (V, W ) es la transformación nula y la


opuesta de T ∈ LK (V, W ) es la transformación −T definida por

(−T )(v) = −T (v).

LK (V, W ) se conoce también como el espacio de operadores lineales de V en W .

Además de las dos operaciones definidas anteriormente, se puede considerar la composición de trans-
formaciones lineales como una tercera operación.

Definición 2.4. Sean T : V → W y S : Z → U dos transformaciones lineales de tal manera que


se cumpla la condición habitual de compatibilidad: Im(T ) ⊆ Z. Entonces la función compuesta ST
definida para cada v ∈ V por

(ST )(v) = S(T (v))

es una transformación lineal.

Las tres operaciones introducidas gozan de las siguientes propiedades algebraicas.

Sean T, T1 , T2 , T3 transformaciones lineales compatibles para las operaciones indicadas. Entonces

(T1 T2 )T3 = T1 (T2 T3 )


T (T1 + T2 ) = T T1 + T T2
(T1 + T2 )T = T1 T + T2 T
a · (T1 T2 ) = (a · T1 )T2 = T1 (a · T2 ), a ∈ K
IT = T = T I

donde I es la transformación idéntica respectiva.

De acuerdo a la discusión anterior, el espacio LK (V ) = LK (V, V ) , de transformaciones lineales de V


en si mismo, viene dotado de tres operaciones: suma de vectores, producto de escalares por vectores y
producto entre vectores. Resulta entonces que LK (V ) es un álgebra sobre el cuerpo K, en el sentido
de la siguiente definición.

Definición 2.5. Sea A un espacio vectorial sobre un cuerpo K, se dice que A es un álgebra sobre
K, o también que A es una K-álgebra, si en A está definido un producto entre vectores que cumple
las siguientes condiciones:

(x1 x2 )x3 = x1 (x2 x3 )


x(x1 + x2 ) = xx1 + xx2
(x1 + x2 )x = x1 x + x2 x
a · (x1 x2 ) = (a · x1 )x2 = x1 (a · x2 ), a ∈ K
1x = x = x1

donde x, x1 , x2 , x3 ∈ A, a ∈ K y 1 es el elemento neutro del producto de vectores.


22 CAPÍTULO 2. TRANSFORMACIONES LINEALES

2.4. Tansformaciones Lineales Biyectivas


En el Capı́tulo 1 se presentó el concepto de isomorfismo para grupos y anillos; en esta lección se
mostrará la importancia de esta noción para el caso de los espacios vectoriales.
Definición 2.6. Una transformación lineal T : V → W es inyectiva si para cualesquiera elementos
u, v ∈ V se cumple que:

T (u) = T (v) ⇐⇒ u = v.
T se dice sobreyectiva si Im(T ) = W .
Proposición 2.1. Si T : V → W es una transformación lineal, entonces las siguientes condiciones
son equivalentes:
1. T es inyectiva.
2. N (T ) = 0.
3. Si v1 , . . . , vn son vectores LI de V ,entonces T (v1 ), . . . , T (vn ) son vectores LI de Im(T ).
4. Si X es una base de V , entonces T (X) es una base de Im(T ).
En particular, si V y W son espacios de dimensión finita n ≥ 1, entonces T es inyectiva si y sólo si
T es sobreyectiva.
Demostración: 1) =⇒ 2): Si v ∈ N (T ), entonces T (v) = 0 = T (0), con lo cual v = 0.

2) =⇒ 3): Sean a1 , . . . , an ∈ K tales que a1 · T (v1 ) + · · · + an · T (vn ) = 0, entonces a1 · v1 + · · · + an · vn ∈


N (T ), es decir, a1 · v1 + · · · + an · vn = 0, de donde, a1 , . . . , an = 0.

3) =⇒ 4): Es obvio que T (X) es LI; si w ∈ Im(T ), entonces existen escalares a1 , . . . , an y vecto-
res v1 , . . . , vn ∈ X tales que

w = T (a1 .v1 + · · · + an .vn ) = a1 .T (v1 ) + · · · + an .T (vn ) ∈ hT (X)i,

lo cual prueba que T (X) genera a Im(T ), y por lo tanto es una base de Im(T ).

4) =⇒ 1): Sean u, v ∈ V tales que T (u) = T (v); sin pérdida de generalidad podemos suponer que
la expansión de u y v a través de la base X se realiza con los mismos vectores, es decir, existen
v1 , . . . , vn ∈ X y a1 , . . . , an , b1 , . . . , bn ∈ K tales que

T (u) = T (a1 .v1 + · · · + an .vn ) = T (b1 .v1 + · · · + bn .vn ) = T (v)


a1 .T (v1 ) + · · · + an .T (vn ) = b1 .T (v1 ) + · · · + bn .T (vn ),

pero como T (X) es LI, entonces ai = bi , para cada 1 ≤ i ≤ n. Esto garantiza que u = v.

Por las equivalencias probadas anteriormente se tiene que T es inyectiva si y sólo si dim(T (V )) = n si
y sólo si T (V ) = W si y sólo si T es sobreyectiva. 

Se dice que T es biyectiva si T es inyectiva y sobreyectiva. Dos K-espacios V y W se dicen isomorfos


si existe una transformación lineal biyectiva T de V en W . Esta relación entre V y W se denota por
V ∼= W.

Siendo T biyectiva, existe la función inversa de T definida por

T −1 : W → V
2.4. TANSFORMACIONES LINEALES BIYECTIVAS 23

T −1 (w) = v ⇐⇒ T (v) = w
−1
donde w ∈ W y v ∈ V . Es obvio que T es también una tranformación lineal y cumple las siguientes
condiciones:

T T −1 = IW , T −1 T = IV
Nótese que T −1 es la única transformación de W en V que cumple estas identidades, y se le conoce
como la transformación inversa de T . Se ha visto que una transformación lineal biyectiva tiene
inversa, esta es única y viene caracterizada por las identidades anteriores.

Nótese que la relación “ser isomorfo” es una relación de equivalencia en la colección de todos los
K-espacios. Es también claro que la composición de dos isomorfismos es nuevamente un isomorfismo.
Un isomorfismo T de un espacio V en si mismo se denomina un automorfismo de V . La colección de
todos los automorfismos de un espacio V se denota por AutK (V ). Se tiene entonces inmediatamente
el siguiente resultado.

Proposición 2.2. Si V es un K-espacio, entonces AutK (V ) es un grupo respecto de la composición


de transformaciones con elemento neutro IV .

Una consecuencia inmediata de la Proposición 2.1 es el siguiente corolario.

Corolario 2.1. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 1.


Entonces las siguientes condiciones son equivalentes:

1. T es inyectiva

2. N (T ) = 0

3. T es sobreyectiva

4. rank(T ) = n

5. T es un automorfismo.

El siguiente teorema pone de manifiesto la importancia del concepto de isomorfismo para el caso de
los espacios vectoriales.

Teorema 2.3. Salvo isomorfismos, el único K-espacio de dimensión n ≥ 1 es K n . Más exactamente,


si V es un K-espacio de dimensión n ≥ 1, entonces V ∼
= K n.

Demostración: Sea X = {x1 , . . . , xn } una base de V y C = {e1 , . . . , en } la base canónica de K n . Las


funciones

t:X −→ C s:C −→ X
,
xi 7−→ ei ei 7−→ xi
con 1 ≤ i ≤ n, inducen de manera única transformaciones lineales T : V → K n y S : K n → V que
coinciden con t en X y s en C, respectivamente (véase el Teorema 2 del presente capı́tulo). Las trans-
formaciones ST y T S son tales que ST (xi ) = xi y T S(ei ) = ei , para cada 1 ≤ i ≤ n. Nuevamente, por
el Teorema 2, ST = IV y T S = IK n . Esto indica que T es un isomorfismo y la prueba ha terminado.

Corolario 2.2. Dos espacios vectoriales de dimensión finita sobre un mismo cuerpo K son isomorfos
si y sólo si sus dimensiones coinciden.
24 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Demostración: =⇒) Sean V y W dos K-espacios isomorfos de dimensión finita con isomorfismo
T : V → W ; si X = {x1 , . . . , xn } es una base de V entonces obviamente T (X) es una base de
W con n elementos. De acuerdo a la Proposición 7 del Capı́tulo 1, dim(W ) = n = dim(V ).

⇐=) Si dim(W ) = n = dim(V ), entonces por el Teorema 3 V ∼


= Kn ∼
= W , y por transitividad,
V ∼
= W .

Las versiones en dimensión infinita del Teorema 2.3 y del Corolario 2.1 serán estudiadas en la próxima
lección. Cerramos esta lección con tres ejercicios.

Ejericicio 2.3. Sean T : V → W , S : W → U transformaciones lineales, donde V, W y U son espacios


de dimensión finita n ≥ 1. Demuestre que:

(a) rank (ST ) ≤ rank (S) y rank (ST ) ≤ rank (T ).

(b) rank (ST ) ≥ rank (S) + rank (T ) − n.

(c) Si S es biyectiva, entonces rank (ST ) = rank (T ). Si T es biyectiva, entonces rank (ST ) =
rank (S).

(d) Si V = W = U y S es biyectiva, entonces rank (ST ) = rank (T ) = rank (T S). Si T es biyectiva,


entonces rank (ST ) = rank (S) = rank (T S).

Solución: (a) Para la primera parte basta tener en cuenta que Im(ST ) ⊆ Im(S). Para la segun-
da, nótese que N (T ) ⊆ N (ST ); resulta entonces que dim N (T ) ≤ dim N (ST ), y por el Teorema 1,
dim N (T ) + rank(ST ) ≤ dim N (ST ) + rank(ST ) = n, y entonces n − rank(T ) + rank(ST ) ≤ n, es
decir, rank(ST ) ≤ rank(T ).

(b) Si se prueba que dim N (ST ) ≤ dim N (S) + dim N (T ), entonces rank(ST ) = n − dim N (ST ) ≥
n − dim N (S) − dim N (T ) = n − n + rank(S) − n + rank(T ) = rank(S) + rank(T ) − n.

Para probar lo requerido recuérdese que dim N (T ) ≤ dim N (ST ). Sea q = dim N (T ) y sea {v1 , . . . , vq }
una base de N (T ). Sea q+p = dim N (ST ), p ≥ 0. Podemos completar la base anterior hasta una base de
N (ST ) : {v1 , . . . , vq , vq+1 , . . . , vq+p }. Nótese que los vectores T (vq+1 ), . . . , T (vq+p ) son LI y pertenecen
al núcleo de S, por lo tanto, p ≤ dim N (S) y se tiene que dim N (ST ) = p + q ≤ dim N (S) + dim N (T ).

(c) y (d) son consecuencia inmediata de (a) y (b).

Ejericicio 2.4. Sea R[x] el espacio de los polinomios reales y sea T definida por

T : R[x] −→ R[x]
p(x) = a0 + a1 x + · · · + an xn 7→ a0 + a1 x2 + · · · + an x2n

Probar que T es una transformación lineal inyectiva pero no es sobreyectiva (Este ejemplo ilustra que
el Corolario 1 no es válido en dimensión infinita).

Ejericicio 2.5. Sean α1 , · · · , αm números reales diferentes y sea T definida por

T : Rn [x] −→ Rm
p(x) 7→ (p(α1 ), · · · , p(αm ))

Demuestre que T es una transformación lineal. Calcule dim N (T ) y rank(T ). ¿En que caso T es
inyectiva, en que caso T es sobreyectiva?
2.5. PRODUCTO Y SUMA DIRECTA DE ESPACIOS VECTORIALES 25

Solución: Sean p(x), q(x) ∈ Rn [x], entonces:

T [p(x) + q(x)] = T [(p + q)(x)]


= ((p + q)(α1 ), (p + q)(α2 ), ..., (p + q)(αm ))
= (p(α1 ) + q(α1 ), p(α2 ) + q(α2 ), ..., p(αm ) + q(αm ))
= (p(α1 ), p(α2 ), ..., p(αm )) + (q(α1 ), q(α2 ), ..., q(αm ))
= T [p(x)] + T [q(x)]

y sea θ ∈ R, entonces:

T [θp(x)] = T [(θp)(x)]
= ((θp)(α1 ), (θp)(α2 ), ..., (θp)(αm ))
= (θp(α1 ), θp(α2 ), ..., θp(αm ))
= θ(p(α1 ), p(α2 ), ..., p(αm ))
= θT [p(x)]

Luego T es una transformación lineal.

Para la segunda parte del ejercicio, consideremos dos situaciones por separado.

a) n ≥ m: el N (T ) está conformado por los polinomios que tienen como raı́ces a α1 , α2 , ldots, αm .
Si p(x) ∈ N (T ), entonces p(x) = (x − α1 )(x − α2 ) · · · (x − αm )q(x) donde q(x) ∈ Rn−m [x]. Nótese que
en este caso una base del núcleo es {(x − α1 )(x − α2 )...(x − αm ), (x − α1 )(x − α2 )...(x − αm )x, . . . , (x −
α1 )(x − α2 )...(x − αm )xn−m } y la dim N (T ) = n − m + 1 ≥ 1.

Por el Teorema de la dimensión se tiene que:

dim Im(T ) = dim Rn [x] − dim N (T )


= n + 1 − (n − m + 1) = m

es decir, rank(T ) = m. Lo anterior indica que T no es inyectiva pero si sobreyectiva.

b) n < m: en este caso el único polinomio del núcleo es el cero y T es inyectiva. En consecuen-
cia, rank(T ) = n + 1. Si m = n + 1 entonces T es sobre y por tanto biyectiva. Si m > n + 1, entonces
T no es sobreyectiva.

2.5. Producto y Suma Directa de Espacios Vectoriales


La operación producto cartesiano de la teorı́a elemental de conjuntos, aplicada a los espacios vectoriales,
permite construir un espacio vectorial a partir de una familia dada de espacios. Esta lección esta
dedicada a dicha construcción. Como consecuencia de ella, se probará la versión del Teorema 3 para
espacios de cualquier dimensión.
Definición 2.7. Sean V1 , . . . , Vr espacios vectoriales sobre el cuerpo K, y sea V1 × · · · × Vr el conjunto
producto cartesiano, es decir,

Vr = {(v1 , . . . , vr )|vi ∈ Vi , 1 ≤ i ≤ r}
26 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Qr
El conjunto V1 × · · · × Vr , denotado también por i=i Vi , tiene una estructura natural de espacio
vectorial bajo las siguientes operaciones:

(v1 , . . . , vr ) + (w1 , . . . , wr ) = (v1 + w1 , . . . , vr + wr )


a · (v1 , . . . , vr ) = (a · v1 , . . . , a · vr )
Qr Qr
donde (v1 , . . . , vr ), (w1 , . . . , wr ) ∈ i=i Vi y a ∈ K. i=i Vi se conoce como el espacio producto de
los espacios V1 , . . . , Vr . Nótese que K n es el producto cartesiano de n espacios vectoriales iguales a K.

Asociadas al espacio producto se tienen transformaciones lineales conocidas como las proyecciones
e inyecciones canónicas. Por cada 1 ≤ i ≤ r se tiene una proyección canónica definida por
Qr
πi : i=1 Vi −→ Vi
(v1 , . . . , vr ) 7−→ vi
Es obvio que πi es una transformación lineal sobreyectiva. Las inyecciones canónicas se definen
por:
Qr
µi : Vi −→ i=1 Vi
vi 7−→ (0, . . . , vi , . . . , 0)
Las inyecciones son transformaciones lineales inyectivas. Las proyecciones e inyecciones satisfacen las
siguientes propiedades interesantes:
Im(πi ) = Vi , Im(µi ) ∼
= Vi , 1≤i≤r


IVi si j = i
πj µi =
0 6 i
si j =
r
X
µi πi = IV1 ×···×Vr
i=1

La construcción descrita en las lı́neas anteriores puede ser generalizada al caso de una familia infinita
de espacios vectoriales.
Definición 2.8. Sea {Vi }i∈I una familia de espacios vectoriales sobre un cuerpo K, el producto
S car-
tesiano de dicha familia se define como el conjunto de todas las funciones de I en la reunión i∈I Vi ,
tales que f (i) ∈ Vi , para cada i ∈ I, es decir,
( )
Y [
Vi = f : I → Vi f (i) ∈ Vi para cada i ∈ I .
i∈I i∈I
Q
entonces cada elemento f ∈
Si se escribe f (i) = fi , Q i∈I Vi se puede representar en la forma
f = (fi )i∈I . El producto i∈I Vi adquiere estructura de espacio vectorial respecto de las siguientes
operaciones:

f + g = (fi )i∈I + (gi )i∈I = (fi + gi )i∈I


a · f = a · (fi )i∈I = (a · fi )i∈I , a ∈ K.
Las proyecciones y las inyecciones canónicas se definen de manera similar a como se hizo en el caso
finito:
Q
πj : i∈I Vi −→ Vj
(fi ) 7−→ fj
Q
µj : Vj −→ i∈I Vi
v 7−→ f = (fi )
2.5. PRODUCTO Y SUMA DIRECTA DE ESPACIOS VECTORIALES 27

donde

v si i = j
fi =
0 6 j
si i =
Q
En el espacio producto i∈I Vi se destaca como subespacio L el conjunto de elementos f = (fi ) con
fi = 0 para casi todo i ∈ I; este subespacio se denota Q
por i∈I Vi y puede definirse más exactamente
de la siguiente forma: sea f = (fi ) un elemento de i∈I Vi , el soporte Sf de f se define como el
subconjunto de elementos i ∈ I tales que fi 6= 0 (para el elemento 0 el soporte es vacı́o). Ası́ pues,
( )
M Y
Vi = f = (fi ) ∈
Vi Sf es finito .
i∈I i∈I
L Q
Nótese que efectivamente i∈I Vi es un subespacioLde i∈I VQi , y se conoce como la suma directa
externa de la familia {Vi }i∈I . Cuando I es finito, i∈I Vi = i∈I Vi .

Un caso particular de las construcciones anteriores se obtiene cuando todos los espaciosQVi de la fami-
lia dada coinciden y son iguales a K 1 = K, en tal caso se usa la siguiente notación: i∈I Vi = K I ,
L (I)
i∈I Vi = K . Si I es finito de tamaño n, entonces claramente K I = K (I) = K n .

Ya se está en capacidad de probar el Teorema 3 para espacios de cualquier dimensión.

Teorema 2.4. Sea V un K-espacio con base X. Entonces V ∼


= K (X) .
Demostración: En primer lugar se debe observar que K (X) tiene la siguiente base canónica:

C = {ex }x∈X , ex = (fz )z∈X ,


donde

1 si z = x
fz =
0 si z 6= x.
Las funciones

t : X −→ C s:C −→ X
,
x 7−→ ex ex 7−→ x
inducen de manera única transformaciones lineales T : V → K (X) y S : K (X) → V que coinciden con
t en X y s en C, respectivamente (véase el Teorema 2 del presente capı́tulo). Las transformaciones
ST y T S son tales que ST (x) = x y T S(ex ) = ex , para cada x ∈ X. Nuevamente, por el Teorema 2,
ST = IV y T S = IK (X) . Esto indica que T es un isomorfismo y la prueba ha terminado.

Corolario 2.3. Dos espacios vectoriales sobre un mismo cuerpo K son isomorfos si y sólo si sus
dimensiones coinciden.

Demostración: Sean V y W dos K-espacios isomorfos con isomorfismo T : V → W , y sea X una base
de V , entonces T (X) es una base de W que tiene la misma cardinalidad de X. En consecuencia V y
W tienen la misma dimension.

Recı́procamente, supóngase que dim(V ) = dim(W ). Sean X, Y bases de V y W respectivamente.


Existe una función biyectiva α : X → Y que induce una transformación lineal T : V → W ; de igual
manera α−1 : Y → X induce una transformación lineal S : W → V de tal forma que T S = IW y
ST = IV , de donde, T es un isomorfismo y, V ∼
= W .
28 CAPÍTULO 2. TRANSFORMACIONES LINEALES

2.6. Suma Directa Interna de Subespacios


En esta lección se estudia la suma de subespacios de un espacio vectorial y se analiza el caso particular
cuando dicha suma sea directa, es decir, cuando la representación de los vectores del subespacio suma
sea única en términos de sus sumandos.

En la Lección 3 del Capı́tulo 1 se estudió la intersección de subespacios de un espacio vectorial V


y se definió a partir de ella la envolvente lineal hSi de un subconjunto de vectores S de V . Sean ahora
V1 , . . . , Vn subespacios de V , se define la suma de los subespacios V1 , . . . , Vn por
* n +
[
V1 + · · · + Vn = Vi
i=1

y coincide, por lo tanto, con el menor subespacio de V que contiene a cada uno de los subespacios
V1 , . . . , Vn . Es obvio que el subespacio suma se puede caracterizar también de la siguiente manera:
( n )
X
V1 + · · · + Vn = vi vi ∈ Vi , 1 ≤ i ≤ n .
i=1

La suma de una colección arbitraria de subespacios del espacio V se define de forma análoga, pero no
se hará uso de ella en este curso. Se menciona a continuación una lista amplia de propiedades de las
operaciones de suma e intersección de subespacios, cuyas demostraciones no son difı́ciles:

V1 ∩ (V2 ∩ V3 ) = (V1 ∩ V2 ) ∩ V3 , V1 + (V2 + V3 ) = (V1 + V2 ) + V3


V1 ∩ V2 = V2 ∩ V1 , V1 + V2 = V2 + V1
V1 ∩ V = V1 , V1 + 0 = V1
V1 ∩ (V2 + V3 ) = (V1 ∩ V2 ) + (V1 ∩ V3 ), si V1 ⊇ V2 ó V1 ⊇ V3 .

Además de lo anterior, se tienen las siguientes relaciones entre las dimensiones de los subespacios suma
e intersección.
Proposición 2.3. Sea V un espacio vectorial y V1 , . . . , Vn subespacios de V de dimensión finita.
Entonces
i) dim(V1 ∩ · · · ∩ Vn ) ≤ dim(Vi ), para cada 1 ≤ i ≤ n
ii) dim(V1 + · · · + Vn ) ≥ dim(Vi ), para cada 1 ≤ i ≤ n
iii) dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 )
iv) dim(V1 + · · · + Vn ) ≤ dim(V1 ) + · · · + dim(Vn ).
Además, si V es de dimensión finita n y U es un subespacio de V , entonces existe un subespacio U 0
tal que

U + U 0 = V, U 0 ∩ U = 0, dim(U 0 ) + dim(U ) = n.
U 0 se denomina el complemento de U en V .
Ejemplo 2.8. Sean X1 , X2 sunconjuntos de un espacio V , y sean V1 = hX1 i, V2 = hX2 i. Puesto que
V1 + V2 = hV1 ∪ V2 i = hhX1 i ∪ hX2 ii = hX1 ∪ X2 i, entonces una base de hX1 ∪ X2 i es una base
para V1 + V2 . Se quiere ahora mostrar como se consigue una base para V1 ∩ V2 . Si V1 = 0 ó V2 = 0,
entonces V1 ∩ V2 = 0 y ∅ es una base para la intersección. Sea entonces X = {x1 , . . . , xk } una base
de V1 y Y = {y1 , . . . , ym } una base de V2 ; si V1 ∩ V2 = 0, entonces ∅ es una base para la intersección.
2.6. SUMA DIRECTA INTERNA DE SUBESPACIOS 29

Si V1 ∩ V2 = V1 , entonces X es una base para la intersección, V1 ∩ V2 = V2 , entonces Y es una base


para la intersección. Descartando entonces los casos triviales anteriores y por lo anotado en la primera
parte del ejemplo, sea X 0 = {x1 , . . . , xk , y1 , . . . , ys } una base de V1 + V2 , 1 ≤ s ≤ m − 1. Los vectores
ys+1 , . . . , ym se pueden expandir a través de la base X 0 :

yi = ai1 · x1 + · · · + aik · xk + bi1 · y1 + · · · + bis · ys , s + 1 ≤ i ≤ m.


Se puede probar facilmente que entonces el conjunto Z = {z1 , . . . , zm−s } de vectores

zi−s = ai1 · x1 + · · · + aik · xk , s+1≤i≤m


conforma una base para V1 ∩ V2 .

La suma V1 + · · · + Vn de una colección V1 , . . . , Vn de subespacios de un espacio V puede coincidir con


dicho espacio, de tal forma que cada elemento v ∈ V se pueda representar en la forma v = v1 + · · · + vn
con vi ∈ Vi , 1 ≤ i ≤ n. Sin embargo, es posible que dicha representación para el vector v no sea única.
Por ejemplo, si n = 2 y los subespacios V1 , V2 tienen un vector no nulo u en común, entonces el vector
nulo se puede escribir en dos formas diferentes: 0 = 0 + 0 = u + (−u). Esta situación no se presenta
cuando la suma de los subespacios es directa. A continuación se estudia la suma directa de subespacios.
Definición 2.9. Sea V1 , . . . , Vn una colección finita de subespacios de un espacio V , se dice que la
suma V1 + · · · + Vn es directa si cada elemento v ∈ V1 + · · · + Vn tiene una representación única en
la forma v = v1 + · · · + vn , donde vi ∈ Vi , 1 ≤ i ≤ n. Nótese que la unicidad de la representación de
cada elemento v ∈ V1 + · · · + Vn es equivalente a la unicidad de la representación del vector nulo de
V1 + · · · + Vn a través de sumandos nulos. La suma directa de subespacios se simboliza por V1 ⊕ · · · ⊕ Vn .
Se dice que un espacio V es suma directa de los subespacios V1 , . . . , Vn si V = V1 ⊕ · · · ⊕ Vn .
Proposición 2.4. Sea V1 , . . . , Vn una colección finita de subespacios de un espacio V . Entonces las
siguientes condiciones son equivalentes:
a) V = V1 ⊕ · · · ⊕ Vn
b) V = V1 + · · · + Vn y para cada 1 ≤ i ≤ n − 1 se cumple que

Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vn ) = 0.

Se probará ahora que si V = V1 ⊕ · · · ⊕ Vn , entonces reuniendo bases de V1 , . . . , Vn se obtiene una base


de V .
Proposición 2.5. Sea V1 , . . . , Vn una colección finita de subespacios de un espacio V con bases
X1 , . . . , Xn , respectivamente. Entonces las siguientes condiciones son equivalentes:
a) V = V1 ⊕ · · · ⊕ Vn
Sn
b) i=1 Xi es una base de V y Xi ∩ Xj = ∅ para cada i 6= j.
P
Demostración: a) ⇒ b) : Puesto que Vi ∩ ( Vj ) = 0, entonces Vi ∩ Vj = 0 para cada i 6= j, y en
j6=i
consecuencia, Xi ∩ Xj = S ∅ para cada i 6= j. Puesto que V = V1 + · · · + Vn y Xi es una base para
n
Vi , entonces es Sclaro que i=1 Xi es un sistema de generadores para V. Sea {z1 , · · · , zm } un subcon-
n
junto finito de i=1 Xi y a1 , · · · , am ∈ K tales que a1 .z1 + · · · + am .zm = 0, entonces adicionando
sumandos nulos mediante coeficientes nulos se puede escribir esta ecuación, sin pérdida de generali-
dad, en grupos de sumandos de tal forma que los primeros sumandos sean de V1 , los siguientes sean
de V2 , etc, y los últimos sean de Vn . Pero de acuerdo con la hipótesis a), el vector nulo solo es repre-
sentable mediante sumandos nulos, por lo tanto, cada grupo de sumandos es nulo y, puesto que en
cada grupo aparecen combinaciones lineales de vecotres LI, entonces todos los coeficientes ai son nulos.
30 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Sn
b) ⇒ a) : Puesto que i=1 Xi es una base de V , entonces
* n + * n +
[ [
V = Xi = Vi = V1 + · · · + Vn .
i=1 i=1
Sea ahora 0 = v1 + · · · + vn , con vi ∈ Vi , entonces se puede representar cada vi como combinación
Sn lineal
de los vectores de Xi de tal forma que se obtiene una combinación lineal de vectores de i=1 Xi ; tenien-
do en cuenta que Xi ∩Xj = ∅ para cada i 6= j, entonces Snen esta última representación no hay sumandos
repetidos, lo cual, combinado con la hipótesis de que i=1 Xi es una base para V se obtiene que todos
los sumandos en tal representación son nulos, es decir, cada vi es nulo. Esto completa la prueba de a). 

Ejemplo 2.9. Sea V un espacio de dimensión 3 con una base X = {x1 , x2 , x3 }, y sean V1 =
hx1 , x2 i, V2 = hx1 , x3 i subespacios de V . Nótese que V = V1 + V2 pero la suma no es directa ya
que {x1 , x2 } ∩ {x1 , x3 } =
6 ∅.
Corolario 2.4. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sean V1 , . . . , Vm subespacios de
V tales que V = V1 +· · ·+Vm . Entonces, V = V1 ⊕· · ·⊕Vm si y sólo si dim(V ) = dim(V1 )+· · ·+dim(Vm ).
Demostración: ⇒) : Esta parte es consecuencia directa de la Proposición 5 que se probó atrás.

⇐) : dim(V ) = dim(V1 + · · · + Vm ) = dim(V1 ) + · · · + dim(Vi ) + · · · + dim(Vm ) = dim(Vi ) + dim(V1 +


· · · + Vi−1 + Vi+1 + · · · + Vm ) − dim(Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vm )), por lo tanto,

dim(V1 ) + · · · + dim(Vi−1 ) + dim(Vi+1 ) + · · · + dim(Vm ) =


dim(V1 + · · · + Vi−1 + Vi+1 + · · · + Vm ) − dim(Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vm ))
≤ dim(V1 ) + · · · + dim(Vi−1 ) + dim(Vi+1 ) + · · · + dim(Vm ) − dim(Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vm )),

de lo cual se tiene que dim(Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vm )) ≤ 0, es decir, Vi ∩ (V1 + · · · +


Vi−1 +Vi+1 +· · ·+Vm ) = 0, para cada 1 ≤ i ≤ m−1. La Proposición 4 garantiza que V = V1 ⊕· · ·⊕Vm .

2.7. Ejercicios
Esta sección contiene una lista de ejercicios de aplicación a los temas tratados en el presente capı́tulo.
Se sugiere a los estudiantes resolver estos problemas, los cuales ayudarán a reforzar el aprendizaje.

Sea esta la oportunidad para ratificar la disponibilidad de los profesores para resolver cualquier duda
sobre la matemática del presente curso. Sus preguntas y comentarios pueden ser enviados via e-mail o
también usando la página de visitantes en donde podrán usar un formato especialmente diseñado para
tal efecto.
1. Investigar la veracidad de la siguiente afirmación: sea T : V −→ W una transformación lineal
y sean {x1 , . . . , xn }, {y1 , . . . , ym } sistemas equivalentes de vectores (ver el Capı́tulo 1). Entonces
{T (x1 ), . . . , T (xn )}, {T (y1 ), . . . , T (ym )} son sistemas equivalentes de vectores.
2. En relación con el Teorema 2, investigar la veracidad de la siguiente afirmación: sean V, W dos
K-espacios y sean {x1 , . . . , xn }, {y1 , . . . , yn } sistemas de vectores en V y W , respectivamente.
Existe una transformación lineal de V en W tal que T (xi ) = yi , para cada i = 1, 2, . . . , n.
3. En el espacio real Rn [x] de polinomios de grado ≤ n (ver el Ejemplo 15 del Capı́tulo 1) definir dos
transformaciones lineales diferentes que coincidan con el operador de derivación en el subespacio
Rn−1 [x].
2.7. EJERCICIOS 31

4. Sea h un real no nulo y sea Th la función definida sobre el espacio Rn [x] de la siguiente manera:

p(x + h) − p(x)
Th (p(x)) =
h
Demostrar que Th es una transformación lineal. Calcular su núcleo y su imagen. Calcular la
dimensión de estos subespacios.

5. Sean V, W dos K-espacios, x un vector no nulo de V y {y1 , . . . , ym } una base de W . Si Ti son


transformaciones lineales de V en W tales que Ti (x) = yi , entonces {T1 , . . . , Tn } es linealmente
independiente.

6. Sea V un espacio vectorial y T, S dos transformaciones lineales de V . Si T S = 0, entonces siempre


se tiene que ST = 0 ?

7. Sea V un K-espacio vectorial y T una transformación lineal de V de rango 1. Demostrar que


existe un escalar a ∈ K tal que T 2 = a.T .

8. Sea V un K-espacio vectorial y T una transformación lineal de V de rango 1. Demostrar que al


menos una de las transformaciones I + T ó I − T es invertible.

9. Sea T, S transformaciones lineales de un espacio V con T invertible. Demostrar que (T +


S)T −1 (T − S) = (T − S)T −1 (T + S).

10. Sea V un K-espacio vectorial, T una transformación lineal de V y p(x) un polinomio que se anula
en T , es decir, la transformación lineal polinómica p(T ) es nula. Si el término independiente p0
de p(x) es no nulo, entonces T es invertible.

11. Mostrar un ejemplo de transformación lineal que sea inyectiva pero no sobreyectiva. También,
mostrar un ejemplo de transformación lineal no nula que sea sobreyectiva pero no inyectiva.

12. Sea V un K-espacio vectorial y sea U un subespacio de V . Dado v ∈ V denotemos por v el


subconjunto de V definido por v = v + U = {v + u | u ∈ U }. Denotemos por V /U la colección de
todos estos subconjuntos, es decir, V /U = {v = v + U | v ∈ V }. Demostrar que:

(i) v = v 0 ⇐⇒ v − v 0 ∈ U
(ii) V /U es un K-espacio vectorial respecto de las siguientes operaciones:

v1 + v2 = v1 + v2
a·v =a·v

(iii) Si V es de dimensión finita, entonces dim (V /U ) = dim(V ) − dim(U ).

13. Demostrar el teorema de homomorfismo para espacios vectoriales: sea T : V → W una transfor-
mación lineal. Entonces se tiene el siguiente isomorfismo de espacios vectoriales:

V /N (T ) ∼
= Im(T ).

14. Sea V un espacio vectorial de dimensión finita y V1 , V2 subespacios de V . Demostrar que dim (V1 + V2 ) =
dim (V1 ) + dim (V2 ) − dim (V1 ∩ V2 ).

15. Encontrar subespacios V1 , V2 , V3 de R3 tales que V1 + V2 + V3 = R3 pero la suma no es directa.

16. Dar un ejemplo de transformación que sea inyectiva pero no sobreyectiva y también de una
transformación que sea sobreyectiva pero no inyectiva.
32 CAPÍTULO 2. TRANSFORMACIONES LINEALES

17. Sea V un K-espacio vectorial. Una involución de V es una transformación lineal T : V → V tal
que T 2 = IV . Si 2 6= 0 en K y T es una involución, entonces demostrar que V = V1 ⊕ V2 donde
V1 = {x ∈ V | T (x) = x} y V2 = {x ∈ V | T (x) = −x}.

18. Sea V un espacio vectorial de dimensión finita. Demostrar que existe un endomorfismo T : V → V
tal que N (T ) = Im(T ) ⇔ dim(V ) es par.
19. Sea T : V → V una transformación lineal tal que T k = 0 para algún  entero positivo k. Si
T k−1 (v) 6= 0 para un cierto vector no nulo v ∈ V , entonces el conjunto v, T (v) , T 2 (v) , ..., T k−1 (v)
es LI.

20. Sea

f1 f2 f2n−1 f2n
V1 −→ V2 −→ V3 ··· −−−−→ V2n −−→ V1

una secuencia de transformaciones lineales entre espacios vectoriales de dimensión finita tal que la
imagen de cada transformación coincide con el núcleo de la siguiente, es decir, Im(fi ) = N (fi+1 ),
1 ≤ i ≤ 2n − 1 y Im(f2n ) = N (f1 ). Demostrar que dim (V1 ) − dim (V2 ) + dim (V3 ) − dim (V4 ) +
· · · + dim (V2n−1 ) − dim (V2n ) = 0.
21. Sea T : V −→ V una transformación lineal tal que T 2 = T . Demostrar que V = ker(T ) ⊕ Im(T ).
Capı́tulo 3

Matrices

Introducción
Las matrices pueden ser consideradas como un lenguaje algorı́tmico apropiado para estudiar trans-
formaciones lineales entre espacios de dimensión finita. El capı́tulo 3 está dedicado a introducir este
lenguaje. El problema de equivalencia y similaridad de matrices es también planteado.

3.1. Espacios Vectoriales de Matrices


El objetivo central del presente capı́tulo es establecer el isomorfismo entre el álgebra de transformacio-
nes lineales de un K-espacio de dimensión finita n y el álgebra de matrices cuadradas de orden n sobre
K. Este isomorfismo permite un mejor manejo algebraico de las transformaciones lineales en términos
de matrices. Otro aspecto importante tratado en este capı́tulo es el de la clasificación de matrices en
términos de equivalencia y similaridad. En la última lección se estudian las matrices invertibles.

Definición 3.1. Sea K un cuerpo y m, n enteros ≥ 1, una matriz A sobre K de orden (=tamaño)
m × n es una tabla de m filas y n columnas cuyas entradas pertenecen a K :
 
a11 · · · a1n
 a21 · · · a2n 
 
A= . .. .. 
 .. . . 
am1 · · · amn
Los elementos a11 , . . . , amn ∈ K, y se conocen como las entradas de la matriz A; el elemento de A
ubicado en la intersección de la i-ésima fila y la j-ésima columna se denota por aij . La matriz A se
denota brevemente por A = [aij ]. La i-ésima fila de A se denota por A(i) = [ai1 , . . . , ain ] y puede
considerarse como un vector de K n , la j-ésima columna de A se representa por
 
a1j
 
A(j) =  ... 
amj
m
y puede considerarse como un vector de K . Dos matrices A = [aij ] y B = [bij ], del mismo tamaño,
son iguales si y sólo si aij = bij , para cada 1 ≤ i ≤ m, 1 ≤ j ≤ n. Una matriz A se dice que es
cuadrada si el número de filas coincide con el número de columnas, es decir, m = n. Una matriz fila
es una matriz de una sola fila, una matriz columna es una matriz con una sola columna. El conjunto
de matrices sobre K de tamaño m × n se denota por Mmn (K), para el conjunto de matrices cuadradas
de tamaño n × n se utiliza la notación Mn (K).

33
34 CAPÍTULO 3. MATRICES

Se puede ya enunciar el primer hecho sobresaliente relacionado con los arreglos matriciales definidos
arriba.
Proposición 3.1. Sea K un cuerpo y Mmn (K) el conjunto de matrices de tamaño m × n sobre
K. Entonces, Mmn (K) es un espacio vectorial sobre K de dimensión mn, respecto de las siguientes
operaciones:

A + B = [aij ] + [bij ] = [aij + bij ]


a · A = a · [aij ] = [aaij ], a ∈ K.
La prueba de esta proposición es muy sencilla, solo se debe destacar que el vector nulo es la matriz
nula
 
0 ··· 0
 0 ··· 0 
 
0= . .. .. 
 .. . . 
0 ··· 0
la opuesta de la matriz A = [aij ] es la matriz −A = [−aij ], y la base canónica es

{Ers }, 1 ≤ r ≤ m, 1 ≤ s ≤ n,
 
..
 0 . 0 
 .. 
 0 . 0 
Ers = ,
 ··· 1 ··· 
 
..
0 . 0
donde Ers es una matriz con una sola entrada no nula, la entrada correspondiente a la intersección de
la r-ésima fila y la s-ésima columna, donde aparece el escalar 1.

Esta proposición es válida para todos los enteros positivos m y n, en particular, se cumple para m = n,
es decir, para las matrices cuadradas. De esta forma se generaliza el Ejemplo 12 del Capı́tulo 1. De otra
parte, de acuerdo al Teorema 3 del capı́tulo anterior, Mmn (K) ∼ = K mn , M1n (K) ∼ = K n , Mm1 (K) ∼
=
K m.

Además de la suma de matrices y el producto de escalar por matriz definidos arriba, es posible realizar
productos entre matrices que cumplan una condición de compatibilidad: el número de columnas
del primer factor debe coincidir con el número de filas del segundo factor. De este producto se ocupa
el resto de la presente lección.
Definición 3.2. Sean A = [aij ], B = [bij ] matrices de tamaños m × n y n × p, respectivamente. Se
define el producto de A y B, en ese orden, como la matriz

C = AB = [cij ] ∈ Mmp (K),


n
X
cij = aik bkj , 1 ≤ i ≤ m, 1 ≤ j ≤ p.
k=1
Nótese que el elemento cij de la matriz producto corresponde a realizar la multiplicación entre la
i-ésima fila de A y la j-ésima columna de B:
 
b1j
 
A(i) B (j) = [ai1 , . . . , ain ]  ...  = ai1 b1j + · · · + ain bnj .
bnj
3.2. TRANSFORMACIONES LINEALES Y MATRICES 35

Todas las propiedades enunciadas en la siguiente proposición se demuestran directamente a partir de


las definiciones anteriores.
Proposición 3.2. Sean A, B, C matrices sobre el cuerpo K tal que cumplen las condiciones de com-
patibilidad requeridas para cada una de las operaciones indicadas. Entonces:
1) (AB)C = A(BC).
2) A(B + C) = AB + AC.
3) (B + C)A = BA + CA.
4) (aA)B = a(AB) = A(aB), para cada a ∈ K.
5) Para cada n ≥ 1 se define la matriz idéntica de orden n como la matriz cuadrada E de tamaño
n × n,  
1 0 ··· 0
 0 1 ··· 0 
 
E= . .. .. .. 
 .. . . . 
0 0 ··· 1
es decir, E = [eij ], donde eij = 1 si i = j, y eij = 0 si i 6= j. Entonces, para cada matriz A de
orden m × n se tiene que
AE = A, EA = A,
donde en la primera ecuación E denota la idéntica de orden n y en la segunda E es la idéntica
de orden m.
Definición 3.3. Una matriz cuadrada A de orden n ≥ 1 es invertible si existe otra matriz B del
mismo orden tal que

AB = E = BA.
De la discusión anterior se obtiene de manera inmediata la siguiente afirmación.
Proposición 3.3. Sea K un cuerpo y Mn (K) el conjunto de matrices de tamaño n × n sobre K.
Entonces, Mn (K) es un álgebra sobre K.
Ejericicio 3.1. Sea {Ers } la base canónica de Mn (K). Demuestre que

Ers si i = j
Eri Ejs =
0 si i 6= j.

Se concluye la lección definiendo la transpuesta de una matriz A = [aij ] de tamaño m × n: se denota


por AT y es la matriz de tamaño n × m obtenida de A “convirtiendo” las columnas de A en filas, es
decir, (AT )(j) = A(j) , para cada 1 ≤ j ≤ n. Es fácil demostrar que si A y B son matrices compatibles
para el producto, entonces (AB)T = B T AT , además, si A es una matriz invertible, entonces AT es
también invertible y (AT )−1 = (A−1 )T .

3.2. Transformaciones Lineales y Matrices


Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m ≥ 1, respectivamente.
El objetivo central de esta lección es demostrar que el espacio LK (V, W ) es isomorfo a Mmn (K). La
prueba se realiza estableciendo una función que asigna a cada transformación lineal T de LK (V, W )
una matriz m(T ) de Mmn (K); se demuestra que esta función es una transformación lineal biyectiva.
Cuando V = W , se demuestra que el álgebra LK (V ) es isomorfa a Mn (K).
36 CAPÍTULO 3. MATRICES

Teorema 3.1. Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m ≥ 1,
respectivamente. Entonces, LK (V, W ) ∼
= Mmn (K).

Demostración: Paso 1: Matriz de una transformación lineal. La idea es definir una función

mX,Y : LK (V, W ) → Mmn (K)


que asocia a cada transformación lineal T : V → W una matriz mX,Y (T ) = A = [aij ]; la matriz
A de la transformación T se define de la siguiente manera: Sea X = {v1 , . . . , vn } una base de V y
Y = {w1 , . . . , wm } una base de W , el vector T (vj ) admite una expansión en términos de la base Y en
la siguiente forma:

T (vj ) = a1j · w1 + · · · + amj · wm , aij ∈ K, 1 ≤ i ≤ m, 1 ≤ j ≤ n.


Los coeficientes aij de las expansiones anteriores, dispuestos por columnas, determinan la matriz A:
 
a11 · · · a1j · · · a1n
 a21 · · · a2j · · · a2n 
 
A= . .. .. .. .. 
 .. . . . . 
am1 · · · amj · · · amn
Se dice entonces que A = mX,Y (T ) es la matriz de T en las bases X, Y . Es fácil probar que mX,Y
es una transformación lineal inyectiva.

Paso 2: Transformación lineal definida por una matriz. Resta probar que mX,Y es sobreyecti-
va. Para esto se asocia a cada matriz A = [aij ] ∈ Mmn (K) una transformación lineal T ∈ LK (V, W )
de tal forma que mX,Y (T ) = A. La transformación T se define de la siguiente manera: consideremos
la función

t:X −→ W
vj 7−→ a1j · w1 + · · · + amj · wm
donde 1 ≤ j ≤ n. Según el Teorema 2 del Capı́tulo 2, la función t se extiende de manera única a una
transformación lineal T , definida de la siguiente manera: si v = x1 · v1 + · · · + xn · vn , entonces

T (v) = x1 · t(v1 ) + · · · + xn · t(vn ) = c1 · w1 + · · · + cm · wm


donde

ci = ai1 · x1 + · · · + ain · xn , 1 ≤ i ≤ m.
Es obvio que mX,Y (T ) = A. Esto completa la prueba del teorema.

Una observación final antes de terminar: si se identifica a (x1 , . . . , xn ) como el vector de coor-
denadas de v en la base X y a (c1 , . . . , cm ) como el vector de coordenadas de T (v) en la base Y ,
entonces la transformación T se puede expresar matricialmente de la siguiente manera:
    
c1 a11 · · · a1n x1
 ..   .. .. ..   ..  .
 . = . . .  . 
cm am1 ··· amn xn


Corolario 3.1. Sean V y W dos espacios vectoriales sobre un cuerpo K con dimensiones n, m ≥ 1,
respectivamente. Entonces, dim(LK (V, W )) = mn.
3.3. RANGO DE UNA MATRIZ 37

De la demostración del Teorema 3.1 se deduce que la matriz asociada a la transformación lineal nula
es la matriz nula; además, si V = W , entonces la matriz asociada a la transformación lineal idéntica
de V es la matriz idéntica. Otra consecuencia inmediata de la prueba del Teorema 3.1 es la siguiente
proposición.

Proposición 3.4. Sean V, W y U espacios vectoriales sobre el cuerpo K, de dimensiones n, m y


p, respectivamente. Sean T : V → W y S : W → U transformaciones lineales, X = {v1 , . . . , vn },
Y = {w1 , . . . , wm }, Z = {u1 , . . . , up } bases de V, W y U , respectivamente. SiA = mX,Y (T ) es
la matriz de T en las bases X, Y y B = mY,Z (S) es la matriz de S en las bases Y, Z, entonces
BA = mY,Z (S)mX,Y (T ) = mX,Z (ST ) es la matriz de ST en las bases X, Z. En otras palabras, la
matriz de una compuesta de transformaciones lineales es el producto de las matrices que representan
dichas transformaciones.

Si V = W = U , entonces se acostumbra a tomar X = Y = Z, y en tal caso se denota por por


mX : LK (V ) → Mn (K) el isomorfismo del Teorema 3.1. Nótese que T, S ∈ LK (V ) y mX (ST ) =
mX (S)mX (T ).

Ya está probado el siguiente teorema.

Teorema 3.2. Si V es un K-espacio vectorial de dimensión finita n ≥ 1, entonces LK (V ) y Mn (K)


son álgebras isomorfas, en el siguiente sentido: existe una transformación lineal biyectiva mX :
LK (V ) → Mn (K) que satisface las siguientes condiciones:

1) mX (ST ) = mX (S)mX (T ), para cualesquiera T, S ∈ LK (V ).

2) mX (IV ) = E, donde E es la matriz idéntica de orden n.

Se debe notar que un álgebra es un espacio vectorial con estructura de anillo, de tal forma que se
pueden considerar los grupos de elementos invertibles de las álgebras LK (V ) y Mn (K); estos grupos se
denotan por GLK (V ) y GLn (K), y se conocen como el grupo lineal general de automorfismos del
espacio V y el grupo lineal general de orden n sobre K, respectivamente. Nótese que GLK (V )
es el grupo de automorfismos definido en Proposición 2 del Capı́tulo 2. Se tiene entonces el siguiente
resultado.

Corolario 3.2. Si V es un K-espacio vectorial de dimensión finita n ≥ 1, entonces GLK (V ) y GLn (K)
son grupos isomorfos, con isomorfismo definido por la restricción de la función mX del Teorema 3.2
al grupo GLK (V ). En particular, T ∈ GLK (V ) ⇔ mX (T ) ∈ GLn (K), donde X es cualquier base de
V.

3.3. Rango de una Matriz


El rango de una transformación lineal de un espacio de dimensión finita se puede calcular por medio
del rango de la matriz asociada a dicha transformación. En esta lección se estudia la noción de rango
para matrices.

Definición 3.4. Sea A = [aij ] una matriz de tamaño m × n, cada columna A(j) de A se puede
considerar como un vector de K m , de tal forma que el rango de A se define como la dimensión de la
envolvente lineal de las columnas de A, es decir,

rank(A) = dimhA(1) , . . . , A(n) i.

Proposición 3.5. Sean V y W dos K-espacios de dimensiones n ≥ 1 y m ≥ 1, respectivamente. Sea


T : V → W una transformación lineal y A = [aij ] = mX,Y (T ) la matriz de T en las bases X, Y de V
y W , respectivamente. Entonces, rank(T ) = rank(A).
38 CAPÍTULO 3. MATRICES

Demostración: Sea X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }, puesto que Im(T ) = hT (v1 ), . . . , T (vn )i,
entonces rank(T ) coincide con el máximo número de vectores linealmente independientes del conjunto
{T (v1 ), . . . , T (vn )}. Sea p = rank(T ), 0 ≤ p ≤ min{m, n}, si p = 0 entonces T = 0, y en consecuencia
A = 0, de donde, rank(A) = 0. Sea p ≥ 1 y {T (vj1 ), . . . , T (vjp )} una base de Im(T ). La idea es probar
que las columnas A(j1 ) , . . . , A(jp ) son LI y que p es el máximo número de columnas LI de la matriz A.
Sean c1 , . . . , cp ∈ K tales que c1 · A(j1 ) + · · · + cp · A(jp ) = 0, entonces

c1 a1j1 + · · · + cp a1jp = 0
..
.
c1 amj1 + · · · + cp amjp = 0
Por otro lado,

c1 · T (vj1 ) + · · · + cp · T (vjp ) =
(c1 a1j1 · w1 + · · · + c1 amj1 · wm ) + · · · + (cp a1jp · w1 + · · · + cp amjp · wm ) =
(c1 a1j1 + · · · + cp a1jp ) · w1 + · · · + (c1 amj1 + · · · + cp amjp ) · wm =
0 · w1 + · · · + 0 · wm = 0
de donde, por la independencia lineal de los vectores T (vj1 ), . . . , T (vjp ), se tiene que c1 = · · · = cp = 0.
Se ha probado que las columnas A(j1 ) , . . . , A(jp ) son LI. Al suponer que A tiene q > p columnas LI,
entonces, realizando la misma prueba anterior en orden inverso, Im(T ) tendrı́a q > p vectores LI, en
contradicción con p = rank(T ).

Sea A una matriz cuadrada de orden n ≥ 1, según el paso 2 de la demostración del Teorema 1, se
puede suponer que A es la matriz de una transformación lineal T ∈ LK (K n ) en una cierta base X
de K n , por ejemplo, en la base canónica de K n . Aplicando la proposición anterior, el Teorema 2, el
Corolario 2 y Ejercicio 3 del Capı́tulo 2, se obtiene el siguiente corolario.

Corolario 3.3. Se tiene que:

a) Una matriz cuadrada A de orden n ≥ 1 es invertible si y sólo si rank(A) = n.

b) Sean A y B matrices cuadradas de orden n ≥ 1, entonces rank(AB) ≤ rank(A), rank(AB) ≤


rank(B) y rank(AB) ≥ rank(A) + rank(B) − n.

Además, si A es invertible, entonces rank(AB) = rank(B) = rank(BA); también, si B es invertible,


entonces rank(AB) = rank(A) = rank(BA).

Ejericicio 3.2. Sea {e1 , e2 , e3 } la canónica de R3 y t : R3 → R3 la función definida por

t(e3 ) = 2.e1 − 2.e2


t(e2 + e3 ) = 3.e1 − 3.e2
t(e1 + e2 + e3 ) = 3.e1 − 3.e2 + e3
Demuestre que t induce una única transformación lineal T : R3 → R3 . Calcule rank(T ) y la dimensión
del núcleo de T .

Solución: Si la función t actúa sobre una base, entonces de acuerdo al Teorema 2 del Capı́tulo 2, t induce
una única transformación lineal T . Pero efectivamente {e1, e2 + e3, e1 + e2 + e3} es una base de R3 ,
lo cual se puede verificar observando que estos tres vectores son LI. Entonces para la transformación
lineal T se tiene que:

T (e3 ) = 2.e1 − 2.e2


T (e2 + e3 ) = 3.e1 − 3.e2
T (e1 + e2 + e3 ) = 3.e1 − 3.e2 + e3
3.4. CAMBIO DE BASE 39

Pero como T es lineal se puede hacer lo siguiente: T (e1 + e2 + e3 ) − T (e2 + e3 ) = (3.e1 − 3.e2 + e3 ) −
(3.e1 − 3.e2 ) = e3 , es decir, T (e1 ) = e3 .

Similarmente, T (e2 + e3 ) − T (e3 ) = (3.e1 − 3.e2 ) − (2.e1 − 2.e2 ) = e1 − e2 , de donde T (e2 ) = e1 − e2 .

La matriz de T en la base canónica es:


 
0 1 2
A= 0 −1 −2  ,
1 0 0
Mediante el SWP se encuentra que rank(A) = 2, luego el rango de T es también 2.

Mediante el Teorema 1 del Capı́tulo 2 se encuentra que dim N (T ) = 1.


Ejericicio 3.3. Sea V el espacio de funciones derivables en R y U la envolvente lineal de las funciones
u1 (x) = e2x sen(3x), u2 (x) = e2x cos(3x). Si D : V → V es el operador derivación,
a) Demuestre que D(U ) ⊆ U .
b) Demuestre que {u1 (x) , u2 (x)} es LI.
c) Calcule las matrices de D y D2 en la base X = {u1 (x) , u2 (x)} de U .
d) Calcule rank(D).
Solución:

d d
a) dx (e2x sin(3x)) = 2e2x sin 3x + 3e2x cos 3x ∈ U, dx (e2x cos(3x)) : 2e2x cos 3x − 3e2x sin 3x ∈ U ,
esto demuestra que D(U ) ⊆ U .

b) Sean a, b reales tales que ae2x sen(3x) + be2x cos(3x) = 0, entonces haciendo x = 0 resulta b = 0 y
tomando x = π2 resulta a = 0.

c)
   2  
2 −3 2 −3 −5 −12
mX (D) = , mX (D2 ) = =
3 2 3 2 12 −5
d)  
2 −3
rank(D) = rank = 2.
3 2
Además,  
−5 −12
rank(D2 ) = rank = 2.
12 −5

3.4. Cambio de Base


Sean V y W dos K-espacios de dimensiones n ≥ 1 y m ≥ 1, respectivamente. En el Teorema 1 se
vió como asociar a cada transformación lineal T : V → W una matriz A de tamaño m × n fijando
un par de bases X en V y Y en W . Es lógico pensar que al cambiar de bases la matriz de la trans-
formación T también cambie. En esta lección se estudia la relación entre las matrices de una misma
transformación calculadas en diferentes bases.

Se tiene el siguiente preliminar.


40 CAPÍTULO 3. MATRICES

Proposición 3.6. Sea V un K-espacio de dimensión n ≥ 1 y X = {v1 , . . . , vn }, Z = {z1 , . . . , zn }


bases de V . Entonces, cada vector zj se puede representar como una combinación lineal de los vectores
de la base X

zj = c1j .v1 + · · · + cnj .vn , 1 ≤ j ≤ n, (3.1)


dando origen a una matriz cuadrada invertible C = [cij ] de orden n. C se denomina la matriz de
cambio de la base X a la base Z. Además, C −1 es la matriz de cambio de la base Z a la base X.

Demostración: De acuerdo al Corolario 3, basta probar que el rango de C es n, es decir, que las
columnas de C son LI. Sean a1 , . . . , an ∈ K tales que a1 .C (1) + · · · + an .C (n) = 0, se tienen entonces
las relaciones

a1 .c11 + · · · + an .c1n = 0
..
.
a1 .cn1 + · · · + an .cnn = 0.
Considérese ahora la combinación lineal

a1 .z1 + · · · + an .zn = a1 .(c11 .v1 + · · · + cn1 .vn ) + · · · + an .(c1n .v1 + · · · + cnn .vn ) =
(a1 .c11 + · · · + an .c1n ).v1 + · · · + (a1 .cn1 + · · · + an .cnn ).vn = 0,

de donde, a1 = · · · = an = 0. De otra parte, sea D = [dij ] la matriz de cambio de Z a X, es decir,

vj = d1j .z1 + · · · + dnj .zn , 1 ≤ j ≤ n, (3.2)


reemplazando (3.2) en (3.1) resulta entonces que

zj = c1j .(d11 .z1 + · · · + dn1 .zn ) + · · · + cnj .(d1n .z1 + · · · + dnn .zn ) =
(d11 c1j + · · · + d1n cnj ).z1 + · · · + (dn1 c1j + · · · + dnn cnj ).zn ,

para cada 1 ≤ j ≤ n, es decir, (di1 c1j + · · · + din cnj ) = 0 si i 6= j y (di1 c1j + · · · + din cnj ) = 1 si i = j.
En otras palabras, DC = E (véase el producto de matrices definido en la primera lección del presente
capı́tulo). Remplazando (3.1) en (3.2) se obtiene que CD = E. Esto completa la demostración de la
proposición.

Como cierre de la prueba se debe hacer la siguiente observación: si (x1 , . . . , xn ) es el vector de coor-
denadas del vector v ∈ V en la base X y (u1 , . . . , un ) es el vector de coordenadas de v en la base Z,
entonces
    
u1 d11 ··· d1n x1
 ..   .. .. ..   .. 
 . = . . .  . 
un dn1 ··· dnn xn


El cambio de base se puede expresar “matricialmente” de la siguiente manera:


     
z1 c11 ··· cn1 v1 v1
 ..   .. .. ..   ..  = C T  ..  = C T X.
Z= . = . . .  .   . 
zn c1n ··· cnn vn vn
Usando esta notación matricial es fácil probar la siguiente proposición.
3.4. CAMBIO DE BASE 41

Proposición 3.7. Sea V un K-espacio de dimensión n ≥ 1 , X = {v1 , . . . , vn } una base de V y F


una matriz invertible de orden n. Entonces {z1 , . . . , zn } es una base de V , donde
   
z1 v1
 ..   . 
 .  = F  ..  .
zn vn
Ya se puede enunciar el teorema de cambio de base.
Teorema 3.3. Sea T : V → W una transformación lineal, donde dim(V ) = n ≥ 1 y dim(W ) = m ≥ 1.
Sean X1 = {v1 , . . . , vn }, X2 = {x1 , . . . , xn } bases de V y Y1 = {w1 , . . . , wm }, Y2 = {z1 , . . . , zm } bases
de W . Si A = mX1 ,Y1 (T ) es la matriz de T en las bases X1 , Y1 , y B = mX2 ,Y2 (T ) es la matriz de T
en las bases X2 , Y2 , entonces

B = D−1 AC,
donde C es la matriz de cambio de la base X1 a la base X2 y D es la matriz de cambio de la base Y1
a la base Y2 .
Demostración: De las definiciones de las matrices A, B, C y D se tienen las siguientes relaciones:

m
X
T (vj ) = akj .wk
k=1
m
X
T (xj ) = bkj .zk
k=1
Xn
xj = ckj .vk
k=1
m
X
zj = dkj .wk
k=1

Entonces,

n n
" m
#
X X X
T (xj ) = ckj .T (vk ) = ckj . ark .wr ;
k=1 k=1 r=1
m
"m #
X X
T (xj ) = bkj . drk .wr ,
k=1 r=1

de donde,

m
" n # m
"m #
X X X X
ark ckj .wr = drk bkj .wr , 1≤j≤n
r=1 k=1 r=1 k=1
n
X m
X
ark ckj = drk bkj , 1 ≤ j ≤ n, 1 ≤ r ≤ m,
k=1 k=1

es decir, AC = DB, con lo cual, B = D−1 AC.

En el caso en que V = W , se acostumbra tomar solo un par de bases X, Y en V , es decir, X1 =


X, X2 = Y, Y1 = X, Y2 = Y . El teorema anterior toma entonces la siguiente forma.
42 CAPÍTULO 3. MATRICES

Corolario 3.4. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sean X = {v1 , . . . , vn }, Y =


{w1 , . . . , wn } bases de V . Sea T : V → V es una transformación lineal , A = mX (T ) y B = mY (T ).
Entonces

B = C −1 AC,
donde donde C es la matriz de cambio de la base X a la base Y .

Si el lector conoce una manera de calcular la inversa de una matriz, entonces puede emprender ya la
solución de los siguientes ejercicios, en caso contrario debe pasar a la Lección 6.

Ejericicio 3.4. Sea

T : R2 [x] −→ R2 [x]
una transformación lineal definida por la matriz
 
0 0 1
 0 1 0 
1 0 0
en la base canónica X de R2 [x]. Calcular la matriz de T en la base Y = {3x2 + 2x, 5x2 + 3x + 1, 7x2 +
5x + 3}.

Solución: Basta aplicar el Corolario 3. Sea X la base canónica de R2 [x] y sea Y la base dada. Debemos
entonces calcular la matriz de cambio C de la base X a la base Y y también calcular su inversa:
   
0 1 3 −1 2 −1
C= 2 3 5  , C −1 =  41 − 94 3 
2
1 3
3 5 7 4 4 − 12
Ahora basta calcular mY (T ) = C −1 AC, donde A es la matriz dada. Este producto da:
 
1 0 0
C −1 AC =  − 15
4 −4 −5 
9
4 3 4

Ejericicio 3.5. En el espacio R3 [x] se definen dos funciones t y s de la siguiente manera:

t(a0 + a1 x + a2 x2 + a3 x3 ) = a0 + a1 x + a2 x2
s(x2 + x3 ) = x + x3
s(x + x3 ) = 1 + x3
s(1 + x3 ) = 1 + x + x2 + x3
s(1 + x + x2 + x3 ) = 0.

a) Calcular las matrices de las transformaciones T y S inducidas por t y s, respectivamente, en las


siguientes bases: X = canónica y Y = {1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 }.

b) Calcular las matrices de las transformaciones ST y T S en las mismas bases de la parte a).

3.5. Equivalencia y Similaridad


El Teorema 3 y Corolario 3 de la lección anterior inducen los conceptos de equivalencia y similaridad
de matrices que se estudian en esta lección. Esto permitirá presentar una matriz de rango r ≥ 0 en
una forma bastante simple por medio de una matriz equivalente.
3.5. EQUIVALENCIA Y SIMILARIDAD 43

Definición 3.5. Sean A y B matrices de tamaño m × n, se dice que A es equivalente a B, lo cual


se denota por A ∼ B, si existen matrices invertibles D de orden m y C de orden n tales que

B = DAC.

Para las matrices cuadradas, además del concepto de equivalencia, se tiene otro de mayor uso como
es el de similaridad: sean A y B matrices de orden n, se dice que A es similar a B, lo cual se denota
por A ≈ B, si existe una matriz invertible C de orden n tal que

B = C −1 AC.

Para las matrices cuadradas similaridad implica equivalencia, pero no necesariamente se da el recı́proco.
Es claro que ∼ define una relación de equivalencia en el espacio Mmn (K) y ≈ define una relación de
equivalencia en el álgebra Mn (K), por lo tanto, estos conjuntos quedan particionados en clases de
equivalencia.

Proposición 3.8. Dos matrices A, B ∈ Mmn (K) son equivalentes si y sólo si representan la misma
transformación lineal.

Demostración. Sea T : V → W una transformación lineal de un espacio V de dimensión finita n ≥ 1


en un espacio W de dimensión finita m ≥ 1. Sean X1 , X2 bases de V y Y1 , Y2 bases de W (véase
el Teorema 3 de la lección anterior), entonces siendo A = mX1 ,Y1 (T ) y B = mX2 ,Y2 (T ) se tiene que
A ∼ B, es decir, si A y B representan la misma transformación lineal en diferentes bases, entonces
A ∼ B.

Debemos ahora mostrar el recı́proco. Sean A y B matrices equivalentes de tamaño m × n. Enton-


ces existe D invertible de orden m y C invertible de orden n tales que B = D−1 AC. Sea X1 una base
de V y Y1 una base de W ; sabemos que C T y DT son matrices invertibles y que X2 = C T X1 es una
base de V y Y2 = DT Y1 es una base de W (véase la Proposición 7). Según la Proposición 6, C es la
matriz de cambio de la base de X1 a X2 y D es la matriz de cambio de Y1 a Y2 . Por el paso 2 de la
demostración del Teorema 1, A es la matriz de una transformación T1 en las bases X1 , Y1 y B es la
matriz de una transformación T2 en las bases X2 , Y2 , es decir, A = mX1 ,Y1 (T1 ) y B = mX2 ,Y2 (T2 ). Se
tiene entonces que

mX2 ,Y2 (T1 ) = D−1 mX1 ,Y1 (T1 )C = D−1 AC = B = mX2 ,Y2 (T2 ),

pero como mX2 ,Y2 es una función inyectiva (por ser un isomorfismo, Teorema 1), entonces T1 = T2 .

Del Corolario 3 y a partir de que similaridad implica equivalencia, se tiene inmediatamente el siguiente
resultado.

Proposición 3.9. Si A, B ∈ Mn (K) son similares, entonces A y B representan la misma transfor-


mación lineal.

La idea ahora es calcular el número de clases de equivalencia determinados por la relación ∼ en el


espacio Mmn (K).

Proposición 3.10. Sea A ∈ Mmn (K). rank(A) = r si y sólo si A es equivalente a una matriz de la
forma
 
E 0
, (3.3)
0 0

donde E es la matriz idéntica de orden r, 0 ≤ r ≤ m (el caso r = 0 corresponde a la matriz nula).


44 CAPÍTULO 3. MATRICES

Demostración: ⇒) Sea T : K n → K m la transformación lineal correspondiente a la matriz A en


un par de bases X de K n y Y de K m (véase el paso 2 del Teorema 1 aplicado al caso V = K n ,
W = K m ). Puesto que rank(A) = rank(T ), entonces la dimensión del núcleo de T es p = n − r (véase
el Teorema 1 del Capı́tulo 2). Sea {v1 , . . . , vp } una base del núcleo de T , la cual se completa hasta una
base X0 = {v1 , . . . , vp , vp+1 , . . . , vp+r } de K n . Se sabe que {z1 = T (vp+1 ), . . . , zr = T (vp+r )} es una
base de la imagen de T , la cual se completa hasta una base Z1 = {z1 , . . . , zr , zr+1 , . . . , zm } de K m .
Reordenando X0 se obtiene la base X1 = {vp+1 , . . . , vp+r , v1 , . . . , vp } y es claro que
 
E 0
mX1 ,Z1 (T ) = ,
0 0
donde E es la matriz idéntica de orden r. El caso r = 0 corresponde a la transformación nula, y por
lo tanto, a la matriz nula. Según el Teorema 3, A ∼ mX1 ,Z1 (T ).

⇐) Si A es equivalente a una matriz de la forma (3.3), entonces A y (3.3) representan la misma trans-
formación lineal, de donde, rank(A) coincide con el rango de la matriz de (3.3), es decir, rank(A) = r.

Es conveniente anotar que la proposición anterior no es válida en general para similaridad. En efecto,
si A es una matriz cuadrada de rango r, entonces A no es necesariamente similar a una matriz de la
forma descrita en la proposición. Por ejemplo, la matriz
 
0 0
A=
1 0
tiene rango 1, sin embargo no existe una matriz invertible C tal que
 
−1 1 0
C AC = .
0 0

Corolario 3.5. Dos matrices A y B de Mmn (K) son equivalentes si y sólo si tienen el mismo rango.

En efecto, Si A ∼ B, entonces A y B representan una misma transformación lineal T , y por lo tanto,


rank(A) = rank(T ) = rank(B). De otra parte, la Proposición 10 y la transitividad de la relación ∼
demuestran la afirmación recı́proca.

El corolario anterior no se tiene para la relación de similaridad, es decir, dos matrices cuadradas
pueden tener el mismo rango y no ser similares. El mismo contraejemplo mostrado arriba sirve en este
caso.

Corolario 3.6. La relación ∼ determina una partición del espacio Mmn (K) en t = mı́n{m, n} + 1
clases de equivalencia.

Demostración: El número t de clases de equivalencia está determinado por los posibles valores para el
rango de una matriz de Mmn (K) (véase el Corolario 4). Estos posibles valores son: {0, 1, 2, . . . , mı́n{m, n}},
es decir, t = mı́n{m, n} + 1.

Corolario 3.7. Sea A ∈ Mmn (K). Entonces, rank(AT ) = rank(A). En otras palabras, el rango de
una matriz coincide con el máximo número de filas LI.

Demostración: Sea rank(A) = r, entonces existen D invertible de orden m y C invertible de orden n


tal que
 
E 0
DAC = ,
0 0
3.6. MATRICES INVERTIBLES 45

donde E es la idéntica de orden r. Entonces,


 T  
T E 0 T T T E 0
(DAC) = =C A D = .
0 0 0 0
Teniendo en cuenta que C T y DT son matrices invertibles, entonces por la Proposición 10,
rank(AT ) = r.

3.6. Matrices Invertibles


El método para calcular la inversa de una matriz mediante operaciones sobre las filas y columnas
será completamente explicado y justificado en esta lección.
Definición 3.6. Sea {Ers } la base canónica del álgebra Mn (K), se definen los siguientes tres tipos de
matrices elementales:
a) Transvecciones: son matrices cuadradas de orden n de la forma
 
1 ··· ··· ··· 0
 .. 
 0 . a ··· 0 
 
 .. .. .. .. .. 
Tij (a) = E + a · Eij =  . . . . . , i 6= j,
 
 .. .. .. .. .. 
 . . . . . 
0 ··· ··· ··· 1

donde a ∈ K está ubicado en la intersección de la i-ésima fila y la j-ésima columna, y E es la


idéntica de orden n.
b) Permutaciones: son matrices cuadradas de orden n de la forma
 
1 ··· ··· ··· 0
 0 0 ··· 1 0 
 
 .. .. .. .. .. 
Pij = E − Eii − Ejj + Eij + Eji = 
 . . . . . ,

 .. .. .. 
 . 1 . 0 . 
0 ··· ··· ··· 1

es decir, Pij intercambia las filas i y j de la matriz idéntica. Los ı́ndices i, j son cualesquiera, el
caso i = j corresponde a la matriz idéntica.
c) Diagonales: son matrices cuadradas de orden n de la forma
 
1 ··· ··· ··· 0
 .. 
 0 . ··· ··· 0 
 
 .. .. .. .. 
Di (a) = E − Eii + a.Eii = E + (a − 1)Eii =  . . a . . ,
 
 .. .. .. .. .. 
 . . . . . 
0 ··· ··· ··· 1

donde a ∈ K − {0}, 1 ≤ i ≤ n, es decir, Di (a) coincide con la matriz idéntica salvo en la entrada
(i, i) en la cual aparece ubicado el elemento a. Si a = 1, entonces Di (a) = E.
46 CAPÍTULO 3. MATRICES

Las matrices elementales son invertibles:

Tij (a)−1 = Tij (−a)


Pij−1 = Pij
Di (a)−1 = Di (a−1 ).
La multiplicación, a izquierda o derecha, de una matriz A ∈ Mmn (K) por cada una de las matrices
elementales tiene un efecto interesante sobre sus filas y columnas. Estos efectos se conocen como
operaciones elementales sobre las filas y columnas de una matriz:

a) Tij (a) A implica sumar a la i-ésima fila de A su j-ésima fila multiplicada por a. De otra parte,
ATij (a) indica sumar a la j-ésima columna de A la i-ésima multiplicada por a.

b) Pij A intercambia las filas i y j de la martiz A. El intercambio de las columnas i, j de A se obtiene


mediante el producto APij .

c) El producto Di (a)A corresponde a multiplicar la i-ésima fila de A por el escalar a. El producto


ADi (a) corresponde a multiplicar la i-ésima columna de A por a.

Teorema 3.4. Toda matriz invertible se puede factorizar como un producto finito de matrices elemen-
tales.

Demostración: La prueba se realiza por inducción sobre el orden n de las matrices.


n = 1 : En este caso las matrices invertibles son los escalares no nulos del cuerpo K, los cuales pueden
ser considerados como matrices diagonales.

n = 2 : Sea
 
a11 a12
A=
a21 a22
una matriz invertible. a11 y a12 no pueden ser simultáneamente nulos debido a que el rango de A es
dos (véase el Corolario 3 del Capı́tulo 3). Considérense pues dos casos. Si a11 6= 0, entonces
 
1 b12
AD1 (a−111 ) = = B,
b21 b22
y
 
1 c12
T21 (−b21 )B = = C.
0 c22
También,
 
1 0
CT12 (−c12 ) = = F.
0 f22
En total, F = T21 (−b21 )AD1 (a−111 )T12 (−c12 ), de donde A se puede despejar como un producto de
transvecciones y diagonales. Nótese que F es invertible ya que es producto de invertibles.

Si a12 6= 0 entonces se puede reducir esta situación a la anterior multiplicando la matriz A a la derecha
por la permutación P12 , y entonces A nuevamente se puede expresar como un producto de elementales.
La prueba del caso n = 2 está completa.

Supóngase que el teorema ha sido probado para matrices de tamaño n × n y sea A una matriz de
tamaño (n + 1) × (n + 1). No es posible que todos los elementos de la primera fila de A sean nulos; al
igual que en el caso n = 2 se puede desde ya asumir que a11 6= 0. La matriz
3.6. MATRICES INVERTIBLES 47

B = AD1 (a−1
11 )

es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por transvecciones adecuadas hasta
obtener una matriz invertible C de la forma
 
1 0
C= ,
0 A0

donde A0 es una matriz de orden n. Puesto que C es invertible, entonces el rango de A0 es n, es decir,
A0 es invertible. Por inducción, A0 se puede factorizar en un producto de matrices elementales de
orden n : A0 = F1 · · · Ft . La matriz C se puede entonces escribir en la forma:
     
1 0 1 0 1 0
C= = ··· .
0 F1 · · · Ft 0 F1 0 Ft

Puesto que cada matriz Fi , 1 ≤ i ≤ t, es elemental de orden n, entonces C queda factorizada en un


producto de matrices elementales de orden n + 1, de donde, A se expresa como un producto finito de
matrices elementales de orden n + 1.

Corolario 3.8. Sean A, B ∈ Mmn (K). Entonces, A ∼ B si y sólo si B se obtiene relizando operaciones
elementales sobre las filas y/o columnas de A.

El Teorema 4 justifica plenamente el algoritmo para determinar la inversa de una matriz A mediante
la realización de operaciones elementales sobre sus filas y columnas. En efecto, sea A−1 la inversa de la
matriz A, entonces A−1 se puede expresar como un producto de matrices elementales, A−1 = F1 · · · Ft .
Entonces, A−1 A = E = F1 · · · Ft A, pero cada matriz elemental representa una operación elemental
sobre las filas de A, entonces, realizando estas mismas operaciones sobre las filas de E obtenemos A−1 ,
es decir, F1 · · · Ft E = A−1 (La relación AA−1 = E indica que el trabajo se puede hacer también por
columnas). De acuerdo a lo anterior, se puede construir la matriz ampliada

 
A | E

y realizar operaciones elementales sobre sus filas hasta obtener la idéntica en la parte izquierda, en la
parte derecha aparecerá precisamente la inversa de A.

El resultado del Teorema 4 combinado con el Corolario 3 y el Corolario 6 puede también ser usa-
do para calcular el rango de una matriz, o lo que es lo mismo, el rango de un sistema finito de vectores
de K m . En efecto, realizando operaciones elementales sobre las filas y o columnas de una matriz es
posible reducirla a otra en la cual se pueda determinar por simple inspección cual es su rango.

Ejericicio 3.6. Expresar la matriz A como producto de matrices elementales; calcule además la inversa
de A:
 
2 −1 1 −1
 −5 −3 1 1 
A=
 2
.
3 −1 0 
−3 −1 0 1

Ejericicio 3.7. Determine el rango del siguiente sistema de vectores: x1 = {1, 1, 1, 1}, x2 = {1, 1, −1, −1}, x3 =
{1, −1, 1, −1}.
48 CAPÍTULO 3. MATRICES

3.7. Ejercicios
Esta sección contiene una lista de ejercicios de aplicación a los temas tratados en el presente capı́tulo.
Se sugiere a los estudiantes resolver estos problemas, los cuales ayudarán a reforzar el aprendizaje.

1. Determinar todas las matrices de M3 (K) que conmutan con la matriz


 
0 1 0
A= 0 0 1 
0 0 0

2. Una matriz cuadrada diagonal se dice escalar si todos los elementos de su diagonal son iguales.
Demostrar que si A ∈ Mn (K) conmuta con todas las matrices de Mn (K), entonces A es escalar.
3. Sean A, B matrices rectangulares de tamaño m × n y p × q, respectivamente. El producto
Kronecker de las matrices A y B es una matriz de tamaño mp × nq y se define por
 
a11 B ··· a1n B
 .. .. .. 
A×B = . . . 
am1 B ··· amn B

Demostrar que el producto Kronecker tiene las siguientes propiedades:


a) (aA) × B = A × (aB) = a(A × B)

b) (A + B) × C = A × C + B × C

c) A × (B + C) = A × B + A × C

d) Si los productos AB y CD, tienen sentido, entonces (AB) × (CD) = (A × C)(B × D)

e) Si A, B son matrices cuadradas de orden m y n, respectivamente, entonces tr(A × B) =


tr(A)tr(B) (la traza de una matriz cuadrada se define como la suma de los elementos de
su diagonal principal). En el siguiente capı́tulo se repasa el concepto de determinante y sus
propiedades. Demostrar que det(A × B) = (det A)n (det B)m .
4. Sea A una matriz cuadrada de tamaño n ≥ 2 tal que todas sus entradas son iguales a 1. Demostrar
que (E − A)−1 = E − n−11
A.
5. Sean P, Q matrices cuaradas invertibles de orden m y n, respectivamente. Sea {Eij } la base
canónica de Mmn (K). Demostrar que las matrices Fij = P Eij Q con 1 ≤ i ≤ m, 1 ≤ j ≤ n
conforman una base de Mmn (K). Calcular la matriz de cambio de la base canónica a esta nueva
base.
 R1 
6. Sea T : R3 [x] → R2 la transformación lineal definida por T (p(x)) = p(0), 0 p(x)dx . Encontrar
la matriz de T relativa a las bases canónicas de R3 [x] y R2 .
7. Sea A una matriz invertible, se dice que A es una involución si A−1 = A. Probar que A es una
involución si y sólo si (E − A) (E + A) = 0.
8. Sean A, B matrices invertibles tales que A + B es invertible. Demostrar que A−1 + B −1 es
invertible.
3.7. EJERCICIOS 49

9. Sea A una matriz cuadrada. Demostrar que A = 0 si y sólo si AAT = 0.


10. Sean A, B matrices cuadradas de orden n ≥ 1 tales que AB = E. Demostrar que BA = E.

11. Sea V = R4 y sea U = h(1, 1, 1, 1) , (3, 2, 0, 3) , (0, −1, 0, 3)i. Encontrar una base para U y exten-
derla a una base de V . Además, sea V = C4 y sea

U = h(1, 1, 0, 1) , (2i − 1, 2i, −i, 2i) , (−i, 0, 0, 1 + i) , (i, i, 0, −1)i .

Calcular una base para U y completar esta hasta una base de C4 .

12. Sea V el espacio vectorial real de todas las funciones de la forma f (x) = a cos(x) + b sin(x) y
2
consideremos las transformaciones
 lineales A : V → V y B : V → V dadas por A(f ) = ddxf2 − 5f
y B(f )(x) = f x + π2 . Encontrar la matriz de A y de B en la base {cos(x), sin(x)}.
50 CAPÍTULO 3. MATRICES
Capı́tulo 4

Determinantes

Introducción
El determinante puede ser considerado como una función que cumple cuatro propiedades básicas. En
este capı́tulo se ve que cualquier función del álgebra de matrices cuadradas en el cuerpo de trabajo
que cumpla estas propiedades básicas es la función determinante.

4.1. Funciones Multilineales


Los determinantes de las matrices pueden ser considerados como funciones que cumplen cuatro pro-
piedades básicas. En este capı́tulo se verá que cualquier función del álgebra de matrices cuadradas
Mn (K) en el cuerpo K que cumpla dichas propiedades es necesariamente la función determinante. La
primera lección está dedicada al estudio de esas propiedades básicas.
Definición 4.1. Sea V un espacio vectorial sobre un cuerpo K, una función multilineal de m
argumentos sobre el espacio V es una función

D : V × · · · × V −→ K
| {z }
m−veces

que es lineal en cada argumento, es decir, D satisface las siguientes condiciones:

a) Para cada 1 ≤ i ≤ m,

D(v1 , . . . , vi + ui , . . . , vm ) = D(v1 , . . . , vi , . . . , vm ) + D(v1 , . . . , ui , . . . , vm ),

b) Para cada 1 ≤ i ≤ m,

D(v1 , . . . , a · vi , . . . , vm ) = a · D(v1 , . . . , vi , . . . , vm ),

c) D es alternada si D cumple la siguiente condición:

D(v1 , . . . , vi , vi , . . . , vm ) = 0

para cada 1 ≤ i ≤ m − 1. Es decir, D es alternada si D se anula cuando dos argumentos conse-


cutivos coinciden.

Sea D una función multilineal alternada de m argumentos sobre un espacio V . Entonces se


puede demostrar fácilmente que D satisface las siguientes propiedades.

51
52 CAPÍTULO 4. DETERMINANTES

d) Si se intercambian dos argumentos de D el signo cambia, es decir,

D(v1 , . . . , vi , . . . , vj , . . . , vm ) = −D(v1 , . . . , vj , . . . , vi , . . . , vm ),

para cualquier par i 6= j.


e) Si existe un par i 6= j tal que vi = vj , entonces

D(v1 , . . . , vi , . . . , vj , . . . , vm ) = 0

f ) Si a un argumento se le suma otro multiplicado por un escalar, entonces el valor de la función


D no cambia. Es decir,

D(v1 , . . . , vi + a · vj , . . . , vm ) = D(v1 , . . . , vi , . . . , vm )

para cada par i 6= j y cada escalar a ∈ K.


g) Si un argumento de D es nulo, entonces D se anula, es decir,

D(v1 , . . . , vi , . . . , 0, . . . , vm ) = 0.

Proposición 4.1. Sea V un espacio vectorial de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn } una
base de V . Sean D1 y D2 dos funciones multilineales alternadas de n argumentos sobre el espacio V .
D1 = D2 si y sólo si D1 (x1 , . . . , xn ) = D2 (x1 , . . . , xn ).
Demostración: Sean v1 , . . . , vn ∈ V , entonces existen escalares aij ∈ K, 1 ≤ i, j ≤ n , tales que

v1 = a11 · x1 + · · · + a1n · xn
..
.
vn = an1 · x1 + · · · + ann · xn .
Entonces,

D1 (v1 , . . . , vn ) =
D1 (a11 · x1 + · · · + a1n · xn , v2 , . . . , vn ) =
a11 D1 (x1 , v2 , . . . , vn )+
a12 D1 (x2 , v2 , . . . , vn )+
..
.
a1n D1 (xn , v2 , . . . , vn ) =
a11 [a21 D1 (x1 , x1 , v3 , . . . , vn ) + · · · + a2n D1 (x1 , xn , v3 , . . . , vn )] +
a12 [a21 D1 (x2 , x1 , v3 , . . . , vn ) + · · · + a2n D1 (x2 , xn , v3 , . . . , vn )] +
..
.
a1n [a21 D1 (xn , x1 , v3 , . . . , vn ) + · · · + a2n D1 (xn , xn , v3 , . . . , vn )] ;

si se continua aplicando la linealidad de D1 en cada uno de sus argumentos, se obtiene una suma de
nn sumandos de la siguiente forma:
X
a1f (1) a2f (2) · · · anf (n) D1 (xf (1) , . . . , xf (n) )
f ∈F
4.2. LA FUNCIÓN DETERMINANTE 53

donde F es el conjunto de todas las funciones del conjunto {1, 2, . . . , n} en si mismo. Nótese que F tiene
nn elementos. Pero como D1 se anula cuando al menos dos de sus argumentos son iguales, entonces la
suma anterior se reduce a una de sólo n! sumandos, es decir,
X
D1 (v1 , . . . , vn ) = a1f (1) a2f (2) · · · anf (n) D1 (xf (1) , . . . , xf (n) ),
f ∈S

donde S ⊂ F está conformado por todas las funciones biyectivas de {1, 2, . . . , n} en si mismo. Nótese
que este mismo procedimiento se puede aplicar a la función D2 , es decir,
X
D2 (v1 , . . . , vn ) = a1f (1) a2f (2) · · · anf (n) D2 (xf (1) , . . . , xf (n) )
f ∈S

Aplicando ahora la propiedad (d), se puede decir que

D1 (xf (1) , . . . , xf (n) ) = signo(f )D1 (x1 , . . . , xn )


D2 (xf (1) , . . . , xf (n) ) = signo(f )D2 (x1 , . . . , xn ),

donde signo(f ) = 1 en el caso en que se realizara un número par de transposiciones para llevar
(xf (1) , . . . , xf (n) ) a la forma (x1 , . . . , xn ), y signo(f ) = −1 para un número impar de transposiciones
para llevar (xf (1) , . . . , xf (n) ) a la forma (x1 , . . . , xn ). Ası́ pues,

 
X
D1 (v1 , . . . , vn ) =  signo(f )a1f (1) a2f (2) · · · anf (n)  D1 (x1 , . . . , xn )
f ∈S
 
X
D2 (v1 , . . . , vn ) =  signo(f )a1f (1) a2f (2) · · · anf (n)  D2 (x1 , . . . , xn ).
f ∈S

Con lo supuesto en el enunciado de la proposición se completa la prueba.

En realidad se ha demostrado que una función multilineal alternada de n argumentos sobre un es-
pacio V de dimensión finita n queda determinada por su acción sobre los vectores de alguna base X
previamente fijada.

4.2. La Función Determinante


Cada fila de una matriz cuadrada A ∈ Mn (K) puede considerarse como un vector de K n de tal forma
que se pueden definir funciones multilineales de Mn (K) en K. Según la Proposición 1 de la lección
anterior, cada función multilineal alternada D : Mn (K) → K queda completamente determinada por
su acción sobre los vectores de una base. Esto permite definir el concepto de función determinante de
la siguiente manera.
Definición 4.2. Sea Mn (K) el álgebra de matrices cuadradas de tamaño n ≥ 1 y sea X = {e1 , . . . , en }
la base canónica de K n . Se define la función determinante como la única función multilineal alter-
nada

det : Mn (K) −→ K
que satisface la condición det(e1 , . . . , en ) = 1, es decir, det(E) = 1, donde E es la matriz idéntica de
orden n.
54 CAPÍTULO 4. DETERMINANTES

Si A = [aij ] ∈ Mn (K), entonces cada fila A(i) de A puede expresarse en la forma A(i) = ai1 · e1 + · · · +
ain · en y, de acuerdo a la demostración de la Proposición 1, necesariamente se tiene que
 
X
det(A) =  signo(f )a1f (1) a2f (2) · · · anf (n)  det(e1 , . . . , en ),
f ∈S

es decir,
 
X
det(A) =  signo(f )a1f (1) a2f (2) · · · anf (n)  ,
f ∈S

donde S es el conjunto de funciones biyectivas de {1, 2, . . . , n} en si mismo. El signo de la función f


fue definido en al prueba de la Proposición 1. Cualquier función multilineal alternada D de Mn (K) en
K tal que D(E) = 1 coincide con la definición anterior de la función det.

Ejericicio 4.1. Sea


 
a11 a12 a13
A =  a21 a22 a23  ∈ M3 (K).
a31 a32 a33

A partir de la definicón de la función det demuestre que

det(A) = a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 )

Solución: Debemos calcular todas las funciones biyectivas del conjunto {1, 2, 3} en si mismo:
   
123 123
f1 = , signo(f1 ) = +1, f2 = , signo(f2 ) = −1,
123 132
   
123 123
f3 = , signo(f3 ) = −1, f4 = , signo(f4 ) = −1,
321 213
   
123 123
f5 = , signo(f5 ) = +1, f6 = , signo(f6 ) = +1
231 312
Entonces,

det(A) =signo(f1 )a11 a22 a33 + signo(f2 )a11 a23 a32 + signo(f3 )a13 a22 a31 +
signo(f4 )a12 a21 a33 + signo(f5 )a12 a23 a31 + signo(f6 )a13 a21 a32 =
a11 a22 a33 − a11 a23 a32 − a13 a22 a31 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 =
a11 (a22 a33 − a32 a23 ) − a21 (a12 a33 − a32 a13 ) + a31 (a12 a23 − a22 a13 )

4.3. Propiedades
Teniendo en cuenta que la función determinante es multilineal y alternada respecto de sus filas, entonces
det tiene las propiedades que se enuncian a continuación. Sea A una matriz cuadrada de orden n ≥ 1.
4.3. PROPIEDADES 55
   
A(1) A(1)
 ..   .. 
 .   . 
   
a) det 
 A(i) + ui   
 = det(A) + det  ui  ,
 ..   . 
 .   .. 
A(n) A(n)
donde ui ∈ K n .
 
A(1)
 .. 
 . 
 
b) det 
 a . A(i)
 = a det A.

 .. 
 . 
A(n)
donde a ∈ K.
c) Si existe un par i 6= j tal que A(i) = A(j) , entonces det(A) = 0.
   
A(1) A(1)
 ..   .. 
 .   . 
   
 A(i)   A(j) 
   
   
d) det  ...  = − det  ...  ,
   
 A(j)   A(i) 
   
 .   . 
 ..   .. 
A(n) A(n)
para cada par i 6= j.
 
A(1)
 .. 
 . 
 
 A(i) + a . A(j) 
 
 .. 
e) det  .  = det(A),
 
 A(j) 
 
 .. 
 . 
A(n)
para cada par i 6= j.
 
A(1)
 .. 
 . 
 
f) det  0  = 0.

 . 
 .. 
A(n)
Además de las propiedades anteriores se tienen las siguientes.
g) La matriz A se dice que es triangular superior si aij = 0 para i > j, es decir, A tiene el
siguiente aspecto
 
a11 · · · ain
 .. .. 
A= 0 . . .
0 0 ann
56 CAPÍTULO 4. DETERMINANTES

Si A es una matriz triangular superior, entonces det(A) = a11 · · · ann , es decir, el determinante
de A es el producto de los elementos de la diagonal.

h) det(AB) = det(A) det(B).

i) Si A es una matriz invertible, entonces det(A) 6= 0 , y además, det(A−1 ) = (det(A))−1 .

j) Si A ≈ B, entonces det(A) = det(B).

k) Sea T : V → V una transformación lineal de un espacio de dimensión finita n ≥ 1. Entonces el


determinante de T se define como el determinante de la matriz de T en cualquier base (véase
la Proposición 9 del Capı́tulo 3).

l) det(AT ) = det(A).

Ejericicio 4.2. (Determinante de Vandermonde) Sean x1 , . . . , xn ∈ K, entonces


 
1 1 ··· 1
 x1 x2 ··· xn 
  Q
 x21 x22 ··· x2n 
det   = 1≤ i< j ≤ n (xj − xi ).
 .. .. .. 
 . . ··· . 
xn−1
1 x2n−1 ··· xn−1
n

Ejericicio 4.3. Sea A una matriz de orden n, B una matriz de orden m y C un matriz de orden
n × m. Entonces
 
A C
det = det(A) det(B).
0 B

Ejericicio 4.4. Sea A, B y C como en el ejercicio anterior. Entonces


 
C A
det = (−1)nm det(A) det(B).
B 0

4.4. Regla de Cramer


La teorı́a de determinantes puede ser emprendida por medio de los llamados menores de una matriz.
La definición de una nueva función Det en este caso se hace por inducción sobre el tamaño de las
matrices.

Definición 4.3. Se define

Det1 : M1 (K) −→ K
[a] 7−→ Det1 (a) = a
Det  −→
 2 : M2 (K) K
a11 a12
7−→ a11 Det1 [a22 ] − a21 Det1 [a12 ] = a11 a22 − a21 a12 .
a21 a22
La función Detn−1 : Mn−1 (K) → K se supone definida y se quiere construir la función

Det = Detn : Mn (K) → K .

Sea A = [aij ] ∈ Mn (K), para el elemento aij se define la matriz Aij ∈ Mn−1 (K) suprimiendo la
i-ésima fila y la j-ésima columna de A , es decir,
4.4. REGLA DE CRAMER 57
 
a11 ··· a1j−1 a1j+1 ··· a1n
 .. .. .. .. .. .. 
 . . . . . . 
 
 ai−11 ··· ai−1j−1 ai−1j+1 ··· ai−1n 
Aij = 
 ai+11
.

 ··· ai+1j−1 ai+1j+1 ··· ai+1n 
 . .. .. .. .. .. 
 .. . . . . . 
an1 ··· anj−1 anj+1 ··· ann

La imagen de Aij a través de la función Detn−1 se conoce como el menor del elemento aij y se denota
por Mij , es decir,

Mij = Detn−1 (Aij ).

Det se define entonces por

n
X
Det(A) = (−1)i+1 ai1 Mi1 . (4.1)
i=1

Proposición 4.2. Det es una función multilineal alternada sobre las filas de las matrices de orden n
que cumple además la condición Det(E) = 1. En consecuencia, Det = det.

Se dice que la fórmula (4.1) define la función determinante por los menores de la primera columna,
adaptando esta fórmula a cualquier otra columna se puede probar también la proposición anterior,
además, como det(AT ) = det(A), entonces se tienen las siguientes igualdades:

n
X n
X
Det(A) = (−1)i+j aij Mij = (−1)i+j aij Mij (4.2)
i=1 j=1

para cada 1 ≤ i, j ≤ n. Estas fórmulas pueden usarse para probar la regla de Crammer que se estudia
enseguida.

Definición 4.4. Sea A = [aij ] una matriz de orden n, se define la matriz cofactor de A por

Cof (A) = [(−1)i+j Mij ].

La regla de Crammer está entonces dada por el siguiente teorema.

Teorema 4.1. Sea A una matriz cuadrada de orden n ≥ 1. Entonces,


 
det(A) 0 0
 .. 
ACof (A)T =  0 . 0  = Cof (A)T A.
0 0 det(A)

Una consecuencia importante de este útil teorema es el siguiente corolario.

Corolario 4.1. Sea A una matriz de orden n ≥ 1. Entonces, A es invertible si y sólo si det(A) 6= 0.
En tal caso, A−1 = (det(A))−1 Cof (A)T .
58 CAPÍTULO 4. DETERMINANTES

4.5. Sistemas de Ecuaciones Lineales


En esta lección se presentan los aspectos teóricos involucrados en la solución de sistemas de ecuaciones
lineales, en particular se estudian los criterios para que un sistema tenga solución. No se enfatiza en
métodos para encontrar las soluciones debido a que hoy dı́a existen excelentes paquetes computacionales
que permiten resolver con gran rapidez tales sistemas.

Definición 4.5. Sea K un cuerpo arbitrario. Se denomina sistema de ecuaciones lineales de n


indeterminadas (incógnitas) y m ecuaciones a un conjunto de ecuaciones de la forma

a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
.. (4.3)
.
am1 x1 + · · · + amn xn = bm
donde a11 , . . . , amn ∈ K son los coeficientes del sistema y x1 , . . . , xn representan elementos de K
que hay que determinar y se conocen como las indeterminadas (incógnitas) del sistema. Se dice
que el sitema (4.3) es de orden m × n. La matriz
 
a11 · · · a1n
 .. 
A =  ... ..
. . 
am1 ··· amn
se conoce como la matriz de coeficientes del sistema (4.3). Los escalares b1 , . . . , bm se conocen como
los términos independientes del sistema (4.3). El sistema (4.3) se puede representar matricialmente
en la forma

AX = B (4.4)
T
donde A es la matriz de coeficientes, B = [b1 , . . . , bm ] es la matriz columna de términos independientes
T
y X = [x1 , . . . , xn ] es la matriz columna de indeterminadas. La matriz ampliada del sistema es
la matriz definida por
 
a11 · · · a1n b1

M =  ... .. .. ..  =  A | B 
. . . 
am1 ··· amn bm
El sistema (4.4) se dice homogéneo si B = 0, en caso contrario se dice no homogéneo. Una solución
 T
del sistema (4.4) es una matrix columna X0 = x01 , . . . , x0n ∈ K n tal que AX0 = B. El sistema
(4.4) se dice compatible si posee al menos una solución, en caso contrario se dice no compatible. Un
sistema compatible con solución única se dice determinado, si el sistema posee más de una solución
se dice indeterminado.

Sea

CX = D (4.5)
otro sistema de ecuaciones lineales de orden m × n, los sistemas (4.4) y (4.5) se dicen equivalentes si
poseen las mismas soluciones. Nótese que la relación “ser equivalente” es de equivalencia en el conjunto
de todas las ecuaciones lineales de orden m × n.

Proposición 4.3. Sea AX = 0 un sistema homogéneo de orden m × n. Entonces

(a) El conjunto de soluciones S constituye un subespacio de K n .


4.5. SISTEMAS DE ECUACIONES LINEALES 59

(b) A es de rango r ≥ 0 si y sólo si el espacio solución S es de dimensión n − r.

Demostración: La afirmación (a) es evidente.

(b) La matriz A determina una transformación lineal T : K n −→ K m en algún par de bases. Nótese
que S es precisamente el núcleo de T . Por lo tanto, dim(S) = n − rank(T ) = n − rank(A).

Como se anotó al principio, el cálculo efectivo del conjunto solución de un sistema de ecuaciones li-
neales se realiza hoy mediante algún paquete computacional. Sin embargo, es conveniente tener unos
criteros claros que permitan entender algunos de los métodos que usan estos programas y que inter-
preten adecuadamente las respuestas que producen estos paquetes de cómputo.

Sea AX = B un sistema de orden m × n. Efectuando  una sucesión finita de operaciones elemen-
tales sobre las filas de la matriz ampliada A | B se obtiene un sistema CX = D equivalente al
primero. En efecto, puesto que la realización de operaciones elementales sobre las filas de una matriz
corresponde al producto a izquierda por matrices elementales (vésase la Lección 6 del Capı́tulo 3) y
estas son invertibles, los conjuntos de soluciones de AX = B y CX = D coinciden.

La observación anterior permite sacar la siguiente conclusión.

Proposición 4.4. Todo sistema AX = B de ecuaciones lineales de orden m × n es equivalente a un


sistema escalonado CX = D en la siguiente forma:

c1j1 xj1 + c1j2 xj2 + c1j3 xj3 + ··· + c1n xn = d1


c2j2 xj2 + c2j3 xj3 + ··· + c2n xn = d2
..
.
crjr xjr + ··· + crn xn = dr (4.6)
0 = dr+1
..
.
0 = dm
donde c1j1 , c2j2 , . . . , crjr son no nulos y 1 ≤ j1 < j2 < · · · < jr .

La forma escalonada (4.6) permite determinar las soluciones del sistema original AX = B. Si en (4.6)
existe r + 1 ≤ i ≤ m tal que di 6= 0, entonces el sistema es no compatible; si tal situación no se presenta
entonces se pueden dar valores arbitrarios en K a las indeterminadas libres xj , j ∈ / {j1 , j2 , . . . , jr }, y
obtener para las indeterminadas dependientes xj1 , xj2 , . . . , xjr valores únicos mediante reemplazo hacia
atrás, es decir, desde la r-ésima ecuación hasta la primera de (4.6). Si en (4.6) aparecen indeterminadas
libres entonces el sistema tiene más de una solución y por lo tanto es indeterminado. Si no aparecen
indeterminadas libres, es decir, r = n, entonces la solución es única y el sistema es determinado.

Las observaciones anteriores pueden ser resumidas en la siguiente forma:

Proposición 4.5. Sea AX = B un sistema de ecuaciones lineales de orden m × n. El sistema es


compatible si y sólo si después de reducirlo a la forma escalonada (4.6) no se presentan ecuaciones de
la forma 0 = di con i ≥ r y algún di no nulo. En tal caso, el sistema es determinado si y sólo si en
(4.6) no hay indeterminadas libres.

Se pueden considerar situaciones particulares con n = m, n > m .

Proposición 4.6. Se tiene que:

(a) Sea AX = B un sistema de ecuaciones lineales de orden n × n. El sistema es compatible y


determinado si y sólo si det(A) 6= 0. En tal caso, la única solución es A−1 B.
60 CAPÍTULO 4. DETERMINANTES

(b) Sea AX = B un sistema compatible de ecuaciones lineales de orden m × n. Si n > m entonces


el sistema es indeterminado.
Demostración: (a) =⇒) Según la Proposición 4 el sistema AX = B es equivalente a un sistema esca-
lonado CX = D; pero las condiciones de compatibilidad y de solución única implican que r = n y que
det(C) = c11 · · · cnn 6= 0. Puesto que C se obtuvo de A por medio de operaciones elementales, entonces
det(A) 6= 0.

⇐=) Si det(A) 6= 0, entonces A es invertible y necesariamente se tiene que X = A−1 B.

(b) Sea r el número de indeterminadas dependientes en (4.6). Entonces claramente r ≤ m y en


consecuencia n > r, con lo cual existen indeterminadas libres y el sistema es indeterminado.

El cuadro (4.1) resume los resultados precedentes en relación con el número de soluciones de un sistema
de ecuaciones lineales:

n>m n≤m
Homogéneo ∞ 1,∞
No homogéneo 0, ∞ 0, 1, ∞

Cuadro 4.1: Soluciones de un sistema de ecuaciones lineales

Ejemplo resuelto:
(a) Determinar todas las soluciones del sistema

x1 + 2x2 − 5x3 + 4x4 + x5 = 4


3x1 + 7x2 − x3 − 3x4 + 2x5 = 10
−x2 − 13x3 − 2x4 + x5 = −14
x3 − 16x4 + 2x5 = −11
2x4 + 5x5 = 12

En este caso m = n = 5 y se realizan sobre la matriz ampliada la siguiente secuencia de opera-


ciones elementales:
 
1 2 −5 4 1 4
 3 7 −1 −3 2 10 
 
 0 −1 −13 −2 1 −14 
 
 0 0 1 −16 2 −11 
0 0 0 2 5 12

 
1 2 −5 4 1 4
 0 1 14 −15 −1 −2 
 
 0 −1 −13 −2 1 −14 
 
 0 0 1 −16 2 −11 
0 0 0 2 5 12

 
1 2 −5 4 1 4
 0 1 14 −15 −1 −2 
 
 0 0 1 −17 0 −16 
 
 0 0 1 −16 2 −11 
0 0 0 2 5 12
4.5. SISTEMAS DE ECUACIONES LINEALES 61


 
1 2 −5 4 1 4
 0 1 14 −15 −1 −2 
 
 0 0 1 −17 0 −16 
 
 0 0 0 1 2 5 
0 0 0 2 5 12

 
1 2 −5 4 1 4
 0 1 14 −15 −1 −2 
 
 0 0 1 −17 0 −16 
 
 0 0 0 1 2 5 
0 0 0 0 1 2

todas las indeterminadas son dependientes, el sistema es compatible y determinado con solución
dada por: x5 = 2, x4 = 5 − 2x5 = 1, x3 = 17x4 − 16 = 1, continuando con esta sustitución hacia
atrás se encuentra que x2 = 1 y x1 = 1.
(b) Determinar todas las soluciones del sistema

x1 − 5x3 + 2x6 = 6
2x2 + x4 + 3x5 = 6
2x1 − 7x3 + 3x6 = 4
3x2 + 2x4 + 4x5 = 7
2x1 − x3 + x6 = −12
4x2 + 3x4 + 5x5 = 9

En este caso m = n = 6 y se realizan sobre la matriz ampliada la siguiente secuencia de opera-


ciones elementales:
 
1 0 −5 0 0 2 6
 0 2 0 1 3 0 6 
 
 2 0 −7 0 0 3 4 
 
 0 3 0 2 4 0 7 
 
 2 0 −1 0 0 1 −12 
0 4 0 3 5 0 9

 
1 0 −5 0 0 2 6
 0 2 0 1 3 0 6 
 
 0 0 3 0 0 −1 −8 
 
 0 3 0 2 4 0 7 
 
 0 0 9 0 0 −3 −24 
0 4 0 3 5 0 9

 
1 0 −5 0 0 2 6
 0 2 0 1 3 0 6 
 
 0 0 3 0 0 −1 −8 
 
 0 1 0 1 1 0 1 
 
 0 0 9 0 0 −3 −24 
0 0 0 1 −1 0 −3

62 CAPÍTULO 4. DETERMINANTES
 
1 0 −5 0 0 2 6
 0 0 0 −1 1 0 4 
 
 0 0 3 0 0 −1 −8 
 
 0 1 0 1 1 0 1 
 
 0 0 9 0 0 −3 −24 
0 0 0 1 −1 0 −3

 
1 0 −5 0 0 2 6
 0 1 0 1 1 0 1 
 
 0 0 3 0 0 −1 −8 
 
 0 0 3 0 0 −1 −8 
 
 0 0 0 −1 1 0 4 
0 0 0 1 −1 0 −3

 
1 0 −5 0 0 2 6
 0 1 0 1 1 0 1 
 
 0 0 3 0 0 −1 −8 
 
 0 0 0 0 0 0 0 
 
 0 0 0 −1 1 0 4 
0 0 0 0 0 0 1

 
1 0 −5 0 0 2 6
 0 1 0 1 1 0 1 
 
 0 0 3 0 0 −1 −8 
 
 0 0 0 −1 1 0 4 
 
 0 0 0 0 0 0 0 
0 0 0 0 0 0 1

la última matriz indica que el sistema es no compatible.


Álgebra Lineal
Capı́tulo 4. Determinantes
Ejercicios.
1. Mediante operaciones elementales sobre la matriz ampliada establecer si los siguientes
sistemas son compatibles y determinados:

(a)

7x1 − 5x2 − 2x3 − 4x4 = 8


3x1 + 2x2 + x3 + 2x4 = −3
2x1 − x2 − x3 − 2x4 = 1
−x1 + x3 + 2x4 = 1
−x2 + x3 + 2x4 = 3

(b)

12x1 − 18x2 + 102x3 − 174x4 − 216x5 = 132


14x1 − 21x2 + 119x3 − 203x4 − 252x5 = 154
x3 + 2x4 + 3x5 = −1
4x3 + 5x4 + 6x5 = −2
7x3 + 8x4 + 9x5 = −3

2. Calcular todas las soluciones de los sistemas lineales del problema anterior (Sugerencia:
hágalo manualmente y también utilizando algún paquete de cómputo).
3. Calcule todas las soluciones de los siguientes sistemas homogéneos (usted escoge el
método !):

(a)

14x1 + 35x2 − 7x3 − 63x4 = 0


−10x1 − 25x2 + 5x3 + 45x4 = 0
26x1 + 65x2 − 13x3 − 117x4 = 0

(b)

2x1 − x2 − x3 − x4 − x5 =0
−x1 + 2x2 − x3 − x4 − x5 =0
4x1 + x2 − 5x3 − 5x4 − 5x5 =0
x1 + x2 + 2x3 + x4 + x5 =0
x1 + x2 + x3 + 2x4 + x5 =0

1
4. Calcule los determinantes de las siguientes matrices:

(a)
 
a2 + 1 ab ac
 ab b2 + 1 bc 
2
ac bc c + 1

(b)
 
1 0 2 a
 2 0 b 0 
 
 3 c 4 5 
d 0 0 0

(c)
 
1 1 1 ··· 1
 1 2 3
··· n 
 1 1 1  
 1 3 4
··· n+1 
 2 2 2 
 .. .. .. .. .. 
 . .  .  . .  
n n+1 2n−2
1 n−1 n−1
··· n−1
   
donde ab es el coeficiente binomial. Utilizar la identidad nk = n−1
k
+ n−1
k−1
.
5. Sea A una matriz cuadrada de orden n × n. Demostrar que

(a)
 
A −A
det = 2n (det A)2
A A

(b)
 
A −A
det =0
−A A

(c)
 
2A 3A
det = (det A)2
A 2A

2
 
A −A
Solución. (a) Sea B = , entonces podemos adicionar en forma secuencial las
A A
primeras n filas de B a las siguientes n filas pero con signo negativo. El determinante no
A −A
cambia y se obtiene que det (B) = det . Según el Ejercicio 3 de la Lección 3,
0 2A
se tiene que det (B) = det(A) det(2A) = det(A)2n det(A) = 2n det (A).
 
A −A
(b) Sea B = , podemos sumar en forma secuencial las primeras n filas de
−A A
B a las siguientes
 n filas de B, el determinante no cambia y obtenemos que det(B) =
A −A
det = det(A) det(0) = 0.
0 0
 
2A 3A
(c) Sea B = , podemos sumar en forma secuencial las últimas n filas de B a
A 2A
las primeras n filas de B pero con signo negativo, el determinante no cambia y obtenemos
A A
que det(B) = det . Podemos ahora sumar en forma secuencial las primeras n
A 2A
filas de esta nueva matriz a las siguientes n filas pero con signo negativo de tal forma que
el determinante no cambia y ası́:
 
A A
det(B) = det = det (A) det (A) = det(A)2 .
0 A
6. Calcular el determinante de la matriz n × n sobre un cuerpo K:
 
a b ··· b
 b a ··· b 
 
A =  .. .. .. .. 
 . . . . 
b b ··· a
Solución. Vamos a demostrar que este determiante es (a + (n − 1) b) (a − b)n−1 mediante
la realización de operaciones elementales sobre filas y columnas: en primer lugar multipli-
camos la primera fila por −1 y se la sumamos a las n − 1 restantes, el determinante de la
nueva matriz no cambia:
 
a b ··· b
 b − a a − b ··· 0 
 
 .. .. .. .. 
 . . . . 
b−a 0 ··· a − b
Esta matriz tiene un bloque diagonal de tamaño n − 1 y el determinante de este bloque
diagonal es (a − b)n−1 . Ahora multiplicamos las últimas n − 1 columnas por −1 y las
vamos sumando a la primera columna, el determinante no cambia y obtenemos:

3
 
a + (n − 1)b b ··· b
 0 a − b ··· 0 
 
 .. .. .. .. 
 . . . . 
0 0 ··· a − b
Podemos finalmente desarrollar el determinate por los menores de la primera columna y
obtenemos el resultado anunciado.
7. Demuestre que
 
2 −1 0 0 ··· 0 0 0
 −1 2 −1 0 · · · 0 0  0
 
 0 −1 2 −1 · · · 0 0  0
 
 ... ... ... 
 
det  ... ... ... =n+1
 
 
 0 0 0 −1 2 −1 0 
 
 0 0 0 ··· −1 2 −1 
0 0 0 ··· 0 −1 2
8. Sea A una matriz cuadrada de orden impar tal que AT = −A. Demostrar que det(A) =
0.
9. Sea A ∈ Mn (Z), con n par tal que AT = −A. Demostrar que det(A) = k 2 , con k ∈ Z.

4
Capı́tulo 5

Polinomio Caracterı́stico

Introducción
El estudio de las transformaciones lineales por medio de matrices usa como una de sus técnicas el
polinomio caracterı́stico. El conocimiento de sus raı́ces es fundamental para entender el comportamiento
de la transformación lineal. Estas raı́ces son los llamados valores propios.

5.1. Valores y Vectores Propios


En el Capı́tulo 3 se vió que cada transformación lineal T de un espacio de dimensión finita n ≥ 1 se
puede representar por medio de una matriz A de orden n, la cual permite conocer propiedades de la
transformación T , por ejemplo, es claro que T es invertible si y sólo si det(A) 6= 0 (véase el Corolario 1
del capı́tulo anterior). Si la matriz A tiene un aspecto sencillo es muy fácil obtener información de T a
partir de ella. La forma más simple que puede tener una matriz es la forma diagonal. En este capı́tulo
se estudian criterios para diagonalizar matrices.
Definición 5.1. Sea T : V → V una transformación de un K-espacio V , un escalar a ∈ K se dice
que es un valor propio de la transformación T si existe un vector no nulo v ∈ V tal que T (v) = a . v.
En tal caso se dice que v es un vector propio de T perteneciente al valor propio a. Nótese que un
vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 5.1. Para la transformación lineal T : R2 → R2 definida por T (x, y) = (2x, 3y), a = 2 es un
valor propio con vector propio (6, 0); a = 3 es también un valor propio de T con vector propio (0, −2).
Definición 5.2. Sea T : V → V una transformación lineal y a ∈ K , el conjunto

E(a) = {v ∈ V | T (v) = a . v}

es un subespacio de V ; nótese que E(a) 6= 0 si y sólo si a es un valor propio de T , en tal caso E(a) se
denomina el espacio propio de T correspondiente al valor propio a.
Ejemplo 5.2. Sea D el operador derivación definido sobre el espacio de funciones reales cuyas deri-
vadas de cualquier orden existen, y sea a ∈ R, entonces E(a) = {c eax | c ∈ R}.
Ejemplo 5.3. Existen transformaciones lineales sin valores propios, es decir, E(a) = 0 , para cada
a ∈ K. En efecto, la transformación T : R2 → R2 definida por

T (x, y) = (y, −x)

no tiene valores propios.

67
68 CAPÍTULO 5. POLINOMIO CARACTERÍSTICO

Proposición 5.1. Sea T : V → V una transformación lineal de un espacio V . Sean a1 , . . . , ar valores


propios diferentes con vectores propios v1 , . . . , vr , respectivamente. Entonces v1 , . . . , vr son L.I. En
particular, si V es de dimensión finita n ≥ 1, entonces T tiene a lo sumo n valores propios diferentes.
Si T tiene exactamente n valores propios diferentes, entonces {v1 , . . . , vn } es una base de V .

Demostración: La prueba de la primera afirmación la se realiza por inducción. Las otras dos afirma-
ciones son consecuencia directa de la primera.

n = 1 : Si a es un valor propio y v 6= 0 es un vector propio asociado al valor a, entonces {v} es


LI.

Supóngase que la afirmación ha sido probada para n − 1 valores propios diferentes. Sean a1 , . . . , an
valores propios diferentes para T con vectores propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que
b1 .v1 +· · ·+bn .vn = 0. Aplicando T y también multiplicando por an se pueden restar las dos relaciones
y obtener que
(b1 a1 − b1 an ) .v1 + · · · + (bn−1 an−1 − bn−1 an ) .vn−1 = 0

Aplicando inducción resulta entonces que b1 = · · · = bn−1 = 0, de donde bn = 0. Esto prueba que los
vectores v1 , . . . , vn son LI. 

El recı́proco de la proposición anterior no es siempre cierto, por ejemplo, si T = IV , cualquier ba-


se de V pertenece a 1, que es el único valor propio de IV .

Ejemplo 5.4. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpo K, y sea T : V →
V una transformación lineal. Entonces para cada polinomio p(x) ∈ K[x] se tiene que p(T ) es una
transformación lineal de V en V , además si a ∈ K es un valor propio de T con vector propio v,
entonces p(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) ⊆ N (p(T )) si a es raı́z
de p(x), y E(a) ⊆ Im(p(T )) si a no es raı́z de p(x).

Solución: Puesto que ya hemos definido la suma y producto de transformaciones lineales y además un
producto de escalar por transformación lineal, entonces es claro que si p(x) = a0 + a1 x + · · · + an xn
es un polinomio, entonces p(T ) es nuevamente una transformación lineal de V en V . Sea ahora a ∈ K
un valor propio de T con vector propio v ∈ V , entonces p(T )(v) = a0 .v + a1 T (v) + · · · + an T n (v) =
a0 .v + a1 a.v + a2 a2 .v + · · · + an an .v = p(a).v, es decir, p(a) es valor propio de p(T ) con vector propio
v.

Supongamos que a es raı́z de p(x), entonces p(T )(v) = 0 y de esta forma v ∈ N (p(T ))), es decir,
−1
E(a) ⊆ N (p(T )). Supóngase contrariamente que a no es raı́z de p(x), entonces v = (p(a)) p(T )(v) =
−1
p(T )((p(a)) .v), es decir, v ∈ Im(p(T )), y ası́, E(a) ⊆ Im(p(T )). 

5.2. Polinomio Caracterı́stico


En el Capı́tulo 4 se definió la teorı́a de determinantes para matrices con entradas en un cuerpo, sin
embargo la invertibilidad de los elementos del cuerpo no fue usada en la construcción. Esto indica que se
puede desarrollar la teorı́a de determinantes para matrices con entradas en un anillo conmutativo, por
ejemplo, con entradas polinómicas. Esta observación permite definir un invariante muy importante de
una transformación lineal de un espacio de dimensión finita: su polinomio caracterı́stico. Comencemos
por definir el polinomio caracterı́stico de una matriz cuadrada.

Definición 5.3. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 sobre un cuerpo K. Se define el
5.2. POLINOMIO CARACTERÍSTICO 69

polinomio caracterı́sticode A por


 
x − a11 −a12 ··· −a1n
 −a21 x − a22 ··· −a2n 
 
pA (x) = det(xE − A) = det  .. .. .. .. .
 . . . . 
−an1 −an2 ··· x − ann

Nótese que efectivamente pA (x) ∈ K[x]. Se puede probar fácilmente que para pA (x) se tienen las
siguientes propiedades:

a) pA (x) es un polinomio de grado n.


b) Siendo pA (x) = p0 + p1 x + · · · + pn−1 xn−1 + pn xn , entonces se tiene que p0 = (−1)n det(A),
pn−1 = −(a11 + · · · + ann ) y pn = 1.
c) Matrices similares tienen el mismo polinomio caracterı́stico. El recı́proco de esta afirmación no
es siempre cierto, como lo ilustran las matrices
   
1 1 1 0
y .
0 1 0 1

d) Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 1. Entonces


se define el polinomio caracterı́stico de T como el polinomio caracterı́stico de la matriz de T en
cualquier base, y se denota por pT (x). En otras palabras, el polinomio caracterı́stico de T es un
invariante de T que no depende de la base elegida en V, y se tiene que pT (x) = pA (x) , donde
A = mX (T ) y X es cualquier base de V .

El polinomio caracterı́stico es un instrumento para determinar


los valores propios de una transformación lineal.

Proposición 5.2. Sea T : V → V una transformación lineal de un espacio V de dimensión finita


n ≥ 1 y sea a ∈ K. Entonces, a es un valor propio de T si y sólo si a es raı́z del polinomio caracterı́stico
de T , es decir, pT (a) = 0.
Demostración: ⇒) Sea v un vector propio de a, entonces, T (v) = a.v, luego (T − aI)(v) = 0, es decir,
T − aI no es una transformación inyectiva. Esto implica que si X es una base cualquiera que fijamos
en V , entonces mX (T − aI) tiene determinante igual a cero, es decir, det(A − aE) = 0, donde A es la
matriz de T en la base X. Por tanto, pA (a) = 0, es decir, a es raı́z del polinomio caracterı́stico de A,
o sea del polinomio caracterı́stico de T .

⇐) Si a es raı́z de pT (x), entonces a es raı́z de pA (x), donde A es la matriz de T en una base X


que fijamos. Por tanto det(A − aE) = 0, luego mX (T − aI) no es invertible. Esto garantiza que
T − aI no es invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T − aI)(v) = 0, es decir, T (v) = a.v. Esto quiere decir que v es vector propio con valor propia a.

Insistimos en que este resultado es válido para valores a ∈ K. Podrı́a ocurrir que las raı́ces del poli-
nomio caracterı́stico no pertenecieran al cuerpo K, por ejemplo, en el caso en que K sea el cuerpo de
números reales y todas las raı́ces de pT (x) fueran complejas (véase el Ejemplo 3 de la lección anterior),
entonces no tendrı́amos valores propios.

Un cuerpo K se dice algebraicamente cerrado si todas las raı́ces de todos sus polinomios pertene-
cen a K, por ejemplo, el cuerpo C de números complejos es algebraicamente cerrado, en cambio, el
cuerpo R de números reales no lo es.
70 CAPÍTULO 5. POLINOMIO CARACTERÍSTICO

Corolario 5.1. Sea K un cuerpo algebraicamente cerrado y sea T : V → V una transformación lineal
del K-espacio V de dimensión finita n ≥ 1. Entonces, T tiene n valores propios (no necesariamente
diferentes) correspondientes a las n raı́ces de su polinomio caracterı́stico.

Sea A una matriz cuadrada de orden n ≥ 1, un elemento a ∈ K se dice que es un valor propio
de A si existe una matriz columna no nula u = (u1 , . . . , un )T ∈ K n tal que Au = a.u . La teorı́a de
valores y vectores propios para matrices está relacionada de manera obvia con la correspondiente teorı́a
para transformaciones lineales.

Corolario 5.2. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita


n ≥ 1. Sea X = {v1 , . . . , vn } una base de V , A = mX (T ) y a ∈ K. Entonces, a es un valor propio
de T si y sólo si a es un valor propio de A. Mas exactamente, v = u1 . v1 + · · · + un . vn es un vector
propio de T perteneciente al valor propio a si y sólo si u = (u1 , . . . , un )T es un vector propio de A
perteneciente al valor propio a.

5.3. Matrices Diagonalizables


Definición 5.4. Sea A = [aij ] una matriz de orden n ≥ 1 sobre el cuerpo K. Se dice que A es una
matriz diagonal si aij = 0 para i 6= j. Sea T : V → V una transformación lineal de un espacio V de
dimensión finita n ≥ 1. Se dice que T es diagonalizable si existe una base X en V tal que mX (T ) es
una matriz diagonal. Una matriz A de orden n ≥ 1 se dice que es diagonalizable si A es similar a una
matriz diagonal.

Teniendo en cuenta que matrices que representen la misma transformación lineal son similares, se tiene
el siguiente resultado.

Proposición 5.3. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 1


y sea X una base cualquiera de V . Entonces, T es diagonalizable si y sólo si mX (T ) es diagonalizable.

En términos de vectores propios se tiene el siguiente criterio obvio de diagonalización.

Teorema 5.1. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 1.


T es diagonalizable si y sólo si V tiene una base constituida por vectores propios.

Demostración:⇒) Existe una base X = {x1 , . . . , xn } en V tal que mX (T ) es diagonal, digamos


 
d1 0 0
 
mX (T ) =  0 . . . 0 
0 0 dn

Esto indica que T (x1 ) = d1 x1 ,...,T (xn ) = dn xn . Puesto que los vectores x1 , . . . , xn son no nulos, en-
tonces estos vectores son propios.
⇐) Sea X = {x1 , . . . , xn } una base de vectores propios. Entonces, existen escalares d1 , . . . , dn en K
tales que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Nótese que entonces la matriz de T es la base X es diago-
nal, y sus elementos diagonales son precisamente d1 , . . . , dn .

Sea A ∈ Mn (K) una matriz diagonalizable. Entonces existe una matriz invertible C tal que C −1 AC =
D, donde D es una matriz diagonal. La demostración del teorema anterior nos da una manera de
encontrar la matriz diagonalizante C. En efecto, sea Y la base canónica de K n , entonces sabemos
que A es la matriz de una transformación T : K n → K n , A = mY (T ). Como A es diagonalizable
entonces por la Proposición 3, T es diagonalizable. Según la demostración del Teorema 1, existe una
base X = {x1 , . . . , xn } en K n de vectores propios de T de tal forma que mX (T ) = D, donde D es una
matriz diagonal. Entonces, D = mX (T ) = C −1 mY (T )C, donde C es la matriz de cambio de la base Y
5.3. MATRICES DIAGONALIZABLES 71

a la base X. Es decir, la i-ésima columna de C son los coeficientes de la expansión del i-ésimo vector
xi a través de la base canónica Y , es decir, las coordenadas del vector columna xi . En otras palabras,
las columnas de C son los vectores columna x1 , . . . , xn (Nótese que según el Corolario 2, cada vector
columna xi es un vector propio de A).

Según la Proposición 1 y el Corolario 2 se tiene el siguiente corolario.

Corolario 5.3. Sea A una matriz cuadrada de orden n ≥ 1. Entonces,

a) A es diagonalizable si y sólo si A tiene n vectores propios L I.

b) Si A tiene n valores propios diferentes, entonces A es diagonalizable.

El recı́proco de la parte b) del corolario anterior no siempre se cumple: la matriz idéntica E es diagonal,
sin embargo sus n valores propios coinciden y son iguales a 1.

Proposición 5.4. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥


1. Sean a1 , . . . , ar los valores propios diferentes para T , 1 ≤ r ≤ n, y E(a1 ) , . . . , E(ar ) los subespacios
propios correspondientes. Entonces, la suma E(a1 ) + · · · + E(ar ) es directa. En consecuencia,

dim(E(a1 ) ⊕ · · · ⊕ E(ar )) = dim(E(a1 ) ) + · · · + dim(E(ar ) ).

Demostración: Sean u1 ∈ E(a1 ) , . . . , ur ∈ E(ar ) tales que u1 + · · · + ur = 0, supóngase que alguno de


estos sumandos es no nulo, y entre ellos sean u1 , . . . , us , 1 ≤ s ≤ r los no nulos. Como u1 , . . . , us son
vectores propios correspondientes a valores propios diferentes, entonces son L.I., pero esto contradice
la condición u1 + · · · + us = 0. Por lo tanto, ui = 0, para cada 1 ≤ i ≤ r.

Podemos probar ahora un criterio de diagonalización en términos del polinomio caracterı́stico y de


los espacios propios.

Teorema 5.2. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 1.


Sean a1 , . . . , ar los valores propios diferentes para T , 1 ≤ r ≤ n, y E(a1 ) , . . . , E(ar ) los subespacios
propios correspondientes. Entonces, las siguientes condiciones son equivalentes:

a) T es diagonalizable.

b) El polinomio caracterı́stico de T es de la forma

pT (x) = (x − a1 )d1 . . . (x − ar )dr ,

donde di = dim(E(ai )), 1 ≤ i ≤ r.

c) dim(V ) = dim(E(a1 )) + . . . + dim(E(ar )).

d) V = E(a1 ) ⊕ . . . ⊕ E(ar ).

Demostración: a) ⇒ b) Por el Teorema 1, V tiene una base X = {v1 , . . . , vn } constituida por vectores
propios. Se ordena esta base de tal manera que los primeros d1 vectores correspondan al valor propio
a1 , los siguientes d2 vectores correspondan al valor a2 y ası́ sucesivamente. Entonces claramente la
matriz de T en esta base toma la forma
 
a1 E ··· 0
 .. .. .. 
mX (T ) =  . . . ,
0 ··· ar E
72 CAPÍTULO 5. POLINOMIO CARACTERÍSTICO

donde ai E es una matriz diagonal de orden di ,


 
ai ··· 0
 .. .. ..  ,
ai E =  . . . 
0 ··· ai

1 ≤ i ≤ r. Obviamente el polinomio caracterı́stico de T es pT (x) = (x − a1 )d1 · · · (x − ar )dr .

Se verá ahora que di = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n = d1 + · · · + dr . Por
la forma como se ha organizado la base X, se tiene que V = hXi ⊆ E(a1 ) + · · · + E(ar ), es decir,
V = E(a1 ) + · · · + E(ar ), luego, por la Proposición 4, n = dim(E(a1 )) + · · · + dim(E(ar )). Se sabe que
di ≤ dim(E(ai )) para cada 1 ≤ i ≤ r, supóngase que existe i tal que di < dim(E(ai )), entonces

n = d1 + · · · + dr < dim(E(a1 )) + · · · + dim(E(ar )) = n.

Esto indica que di = dim(E(ai )) para cada 1 ≤ i ≤ r.

b) ⇒ c) dim(V ) = n = d1 + · · · + dr = dim(E(a1 )) + · · · + dim(E(ar ))

c) ⇒ d) dim(V ) = dim(E(a1 )) + · · · + dim(E(ar )) =

dim(E(a1 ) + · · · + E(ar )),de donde, V = E(a1 ) + · · · + (E(ar ), además, por la Proposición 4, la suma
es directa, es decir, V = E(a1 ) ⊕ · · · ⊕ E(ar )

d) ⇒ a) Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V constituida por vecto-
res propios, lo cual, de acuerdo al Teorema 1, garantiza que T es diagonalizable.

Ejericicio 5.1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo encontrar
una matriz que diagonalice.
 
  1 1 2 3
0 −1 0  0 2 2 4 
A= 0 0 1 , B=  0 0 1 −2  .

−1 −3 3
0 0 0 2

Ejericicio 5.2. Determinar los valores y vectores propios del operador derivación sobre el espacio
Rn [x]. ¿Es este operador diagonalizable?

Ejericicio 5.3. Sean A y B matrices cuadradas de orden n ≥ 1 y m ≥ 1, respectivamente. Demuestre


que el polinomio caracterı́stico de la matriz
 
A 0
0 B
es
pA (x)pB (x).

Ejericicio 5.4. Sea A una matriz de orden n ≥ 1 y p(x) un polinomio cualquiera. Demuestre que si
A es diagonalizable, entonces p(A) es diagonalizable.
Pn
Ejericicio 5.5. Sea A = [aij ] una matriz de orden n ≥ 1 tal que j=1 aij = 1 para cada 1 ≤ i ≤ n.
Demuestre que 1 es un valor propio de A.
5.3. MATRICES DIAGONALIZABLES 73

Solución: Sea X = [x1 , . . . , xn ]T un vector propio de la matriz A correspondiente al valor propio 1.


Entonces AX = X, se obtiene entonces que para cada 1 ≤ i ≤ n se cumple ai1 x1 + · · · + ain xn = xi .
Nótese que si todas las entradas del vector X son iguales entonces todas las ecuaciones anteriores se
satisfacen. Entonces, siendo x cualquier elemento no nulo de K se cumple que para X = [x, . . . , x]T se
satisface AX = X, y ası́ X es un vector propio de A con valor propio 1.
Álgebra Lineal
Capı́tulo 5. Polinomio Caracterı́stico
Ejercicios.
1. Calcular el polinomio caracterı́stico de la siguiente matriz
 
x1 y1 x1 y2 · · · x1 yn
 x2 y1 x2 y2 · · · x2 yn 
 
 ··· ··· ··· ··· 
xn y1 xn y2 xn yn

2. Sean A y B matrices rectangulares de dimensiones m × n y n × m respectivamente. De-


mostrar que los polinomios caracterı́sticos de las matrices AB y BA satisfacen la relación
xn pAB (x) = xm pBA (x).
3. Sean A y B matrices cuadradas de orden n. Demostrar que el polinomio caracterı́stico
de la matriz
 
A B
B A

es pA+B (x)pA−B (x).


4. Sea A una matriz cuadrada y sea B = A − αE, donde α es un escalar y E es la
idéntica. Demostrar que pB (x) = pA (x + α).
5. Sean A, B matrices diagonalizables. Demostrar que A y B son similares si y sólo si
tienen el mismo polinomio caracterı́stico.
6. Sea P : V → V una transformación lineal no nula tal que P 2 = P (es decir, P es una
proyección). Demostrar que los únicos valores propios de P son 0 y 1.
7. Sea T : V → V una transformación lineal invertible. Qué relación existe entre los
valores propios de T y T −1 ?
8. Demostrar que la matriz  
1 1 ··· 1
 1 1 ··· 1 
 
A =  .. .. .. .. 
 . . . . 
1 1 ··· 1
es diagonalizable.
9. Determinar si la siguiente matriz real A se puede diagonalizar:
 
0 0 4
A =  −1 1 2 
3 0 −1

1
En caso afirmativo, calcular una matriz real C tal que C −1 AC sea diagonal.
10. Sea A una matriz cuadrada de tamaño n × n con valores propios distintos λ1 , ..., λn .
Demostrar que tr(A) = λ1 + ... + λn y det(A) = λ1 ...λn .
11. Demostrar que la siguiente transformación lineal es diagonalizable. Calcular una ma-
triz diagonalizante: T : C4 → C4 , T (x, y, z, w) = (−y, x, −w, z).
12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En
caso afirmativo calcular una matriz diagonalizante:
   
2 2 −2 2 −2 −1
A =  1 3 −1  , B =  −2 −1 −2  .
−1 1 1 14 25 14
13. Sea A ∈ Mn (R) tal que considerada como matriz compleja tiene un valor propio de
la forma a + ib con vector propio de la forma x + iy, donde x, y ∈ Rn . Demostrar que
a − ib es también un valor propio de A con vector propio x − iy.
14. Sean S, T : V −→ V transformaciones lineales, dim (V ) = n, probar que ST y T S
tienen los mismos valores propios.
15. Sea T : V −→ V una transformación lineal tal que cada vector no nulo de V es un
vector propio de T . Demostrar que T = α.IV para algún escalar α ∈ K.
16. Sea V un espacio vectorial complejo y sea T : V −→ V una transformación lineal.
Sea p (x) un polinomio con coeficientes complejos y sea α ∈ C. Probar que α es un valor
propio de p(T ) si y sólo si α = p(λ), donde λ es un valor propio de T . Mostrar además
que esta propiedad no es válida en general para R.
17. Dar un ejemplo de transformación lineal T cuya matriz con respecto a una cierta base
contenga solamente ceros en la diagonal principal pero T sea invertible.
18. Dar un ejemplo de transformación lineal T cuya matriz con respecto a una cierta base
contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible.
19. Dar un ejemplo de operador T : R4 −→ R4 que no tenga valores propios reales.
20. Sea V un espacio vectorial real de dimensión finita y sea T : V −→ V una transfor-
mación lineal que no tiene valores propios reales. Demostrar que si W es un subespacio
de V tal que T (W ) ⊆ W , entonces la dimensión de W es par.

2
Álgebra Lineal
Capı́tulo 5. Polinomio Caracterı́stico
Ejercicios.
1. Calcular el polinomio caracterı́stico de la siguiente matriz
 
x1 y1 x1 y2 · · · x1 yn
 x2 y1 x2 y2 · · · x2 yn 
 
 ··· ··· ··· ··· 
xn y1 xn y2 xn yn

Solución. Sea A = [xi yj ] la matriz dada, notemos entonces que


   
x1 ··· 0 1 ··· 1 y1 · · · 0
 .. .. .  .. .. ..   .. . . .. 
A= . . ..   . . .  . . . 
0 · · · xn 1 ··· 1 0 · · · yn

Escribamos entonces A = DLD0 , donde D es la matriz diagonal de la izquierda, L es la


matriz de unos y D0 es la matriz diagonal de la derecha. Se tiene que

pA (x) = p(DL)D0 (x) = pD0 (DL) (x) = p(D0 D)L (x) = pB (x)

donde  
x1 y1 · · · x1 y1
 ..  .
B = D0 DL =  ... ..
. . 
xn yn · · · xn yn
Pero B es una matriz donde sus columnas coinciden, y entonces el cálculo de su polinomio
caracterı́stico es muy sencillo:
 
z − x1 y1 · · · −x1 y1
 .. .. .. 
pB (x) = det  . . . 
−xn yn · · · z − xn yn

restamos la segunda columna de la primera, y luego sumamos la primera fila a la segunda,


el determinante no ha cambiado y obtenemos
 
z −x1 y1 ··· −x1 y1
 0 z − (x1 y1 + x2 y2 ) · · · − (x1 y1 + x2 y2 ) 
 
pB (x) = det  .. .. . . .. 
 . . . . 
0 −xn yn z − xn yn

Aplicando inducción y calculando este determinante encontramos que



pB (x) = z z n−1 − (x1 y1 + x2 y2 + · · · + xn yn ) z n−2

1
es decir,
pA (x) = pB (x) = z n − (x1 y1 + x2 y2 + · · · + xn yn ) z n−1 .
2. Sean A y B matrices rectangulares de dimensiones m × n y n × m respectivamente. De-
mostrar que los polinomios caracterı́sticos de las matrices AB y BA satisfacen la relación
xn pAB (x) = xm pBA (x).
Solución. Se definen la matrices cuadradas C y D de orden m + n de la siguiente forma:
   
0 En A Em
C= , D=
xEm −A xEn B

Entonces,
    
0 En A Em xEn B
CD = =
xEm −A xEn B 0 xEm − AB
    
A Em 0 En xEm 0
DC = = .
xEn B xEm −A xB xEn − BA

Pero det(CD) = det(DC), luego xn pAB (x) = xm pBA (x).


3. Sean A y B matrices cuadradas de orden n. Demostrar que el polinomio caracterı́stico
de la matriz
 
A B
B A

es pA+B (x)pA−B (x).


Solución. Consideremos la matriz
 
xE − A −B
F =
−B xE − A
donde E es las matriz idéntica de orden n. Por medio de transvecciones podemos sumar
las primeras n columnas de F a las siguientes n columnas en forma consecutiva:
 
0 xE − A xE − A − B
F =
−B xE − A − B
notemos que det (F ) = det (F 0 ). De igual manera, podemos multiplicar por −1 las últimas
n filas de F 0 y sumarlas a las primeras n filas en forma consecutiva :
 
00 xE − A + B 0
F = ,
−B xE − A − B
nuevamente det (F 0 ) = det (F 00 ) = det (xE − A + B) det (xE − A − B) = pA−B (x)pA+B (x).

2
4. Sea A una matriz cuadrada y sea B = A − αE, donde α es un escalar y E es la
idéntica. Demostrar que pB (x) = pA (x + α).
Solución. Tenemos que

pB (x) = det (xE − B) = det (xE − A + αE) = det ((x + α) E − A) = pA (x + α).


5. Sean A, B matrices diagonalizables. Demostrar que A y B son similares si y sólo si
tienen el mismo polinomio caracterı́stico.
Solución. ⇒) Sean A, B similares, entonces existe una matriz invertible C tal que
C −1 AC = B. Entonces,

 
pB (x) = det(xE − B) = det xE − C −1 AC = det C −1 (xE − A) C =
det C −1 det (xE − A) det C = det (xE − A) = pA (x).
⇐) Supóngase ahora que A, B tienen el mismo polinomio caracterı́stico y que son diago-
nalizables. Existen matrices invertibles C, F tales que C −1 AC = D (a1 , . . . , an ), F −1 BF =
D (b1 , . . . , bn ). Entonces pA (x) = (x − a1 ) · · · (x − an ) = (x − b1 ) · · · (x − bn ) = pB (x). Es-
to implica que {a1 , . . . , an } = {b1 , . . . , bn }, aunque el orden de los elementos no sea el
mismo. Sin embargo, se puede lograr que el orden sea el mismo mediante matrices de per-
mutación Pij . En efecto, para intercambiar la entrada diagonal ai con la aj se debe realizar
la siguiente operación: Pij D (a1 , . . . , ai , . . . , aj , . . . , an ) Pij = D (a1 , . . . , aj , . . . , ai , . . . , an ).
Puesto que Pij−1 = Pij , entonces se puede asegurar que existe una matriz invertible P
(producto de las permutaciones que sea necesarias para ordenar los elementos diagonales)
tal que P −1 D (a1 , . . . , an ) P = D (b1 , . . . , bn ), es decir, las dos matrices diagonales son
similares, y en consecuencia, A y B son similares.
6. Sea P : V → V una transformación lineal no nula tal que P 2 = P (es decir, P es una
proyección). Demostrar que los únicos valores propios de P son 0 y 1.
Solución. Sea a un valor propio de P con vector propio v, entonces P (v) = a.v, luego
P 2 (v) = P (a.v) = a.P (v) = a2 .v = P (v) = a.v. Resulta entonces, (a2 − a) .v = 0, y como
v es no nulo, entonces (a2 − a) = 0, es decir, a = 0 ó a = 1.
7. Sea T : V → V una transformación lineal invertible. Qué relación existe entre los
valores propios de T y T −1 ?
Solución. Sea λ un valor propio de T con vector propio v, entonces T (v) = λ.v, aplicamos
ahora T −1 , luego v = λ.T −1 (v); como v es no nulo entonces λ 6= 0, con lo cual T −1 (v) =
λ−1 .v, es decir, λ−1 es valor propio de T −1 . Se tiene pues que λ es valor propio de T si y
sólo si λ−1 es valor propio de T −1 .
8. Demostrar que la matriz  
1 1 ··· 1
 1 1 ··· 1 
 
A =  .. .. .. .. 
 . . . . 
1 1 ··· 1

3
es diagonalizable.
Solución. Vamos a demostrar que los únicos valores propios de A son n y 0, además vere-
mos que dim (E (n)) = 1 y que dim (E (0)) = n − 1. El resultado es entonces consecuencia
del Teoream 2 de la Lección 3 del Capı́tulo 5.
Nótese que en efecto A (1, ..., 1)T = n. (1, ..., 1)T . Además, sea (x1 , ..., xn )T ∈ E (n), en-
tonces A (x1 , ..., xn )T = n. (x1 , ..., xn )T , es decir, x1 +· · ·+xn = nx1 , ..., x1 +· · ·+xn = nxn ,
o sea que, nx1 = · · · = nxn , lo cual implica que x1 = · · · = xn , es decir, (x1 , ..., xn )T es
múltiplo de (1, ..., 1)T .
Veamos ahora los vectores propios de 0: nótese que 0 es valor propio con vector propio
(0, 0...., −1, 1)T . Sea (x1 , ..., xn )T ∈ E (0), entonces A (x1 , ..., xn )T = 0, es decir, se obtiene
la única ecuación x1 + · · · + xn = 0, la cual evidentemente se satisface por todas las
n-plas de la forma (x1 , ..., xn−1 , −x1 − x2 − · · · − xn−1 )T . La dimensión de este espacio es
claramente n − 1.
9. Determinar si la siguiente matriz real A se puede diagonalizar:
 
0 0 4
A =  −1 1 2 
3 0 −1
En caso afirmativo, calcular una matriz real C tal que C −1 AC sea diagonal.
10. Sea A una matriz cuadrada de tamaño n × n con valores propios distintos λ1 , ..., λn .
Demostrar que tr(A) = λ1 + ... + λn y det(A) = λ1 ...λn .
Solución. Puesto que A tiene n valores propios distintos, entonces A es diagonalizable,
es decir, existe C invertible tal que
 
λ1 0
 ... 
C −1 AC =   = D.
0 λn
Entonces, pA (x) = pD (x) = (x − λ1 ) · · · (x − λn ), luego el término independiente de
pD (x) es (−1)n det (A) = (−1)n λ1 · · · λn , es decir, det(A) = λ1 ...λn . De igual manera, el
coeficiente del monomio xn−1 es tr (A) = λ1 + ... + λn .
11. Demostrar que la siguiente transformación lineal es diagonalizable. Calcular una ma-
triz diagonalizante: T : C4 → C4 , T (x, y, z, w) = (−y, x, −w, z).
12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En
caso afirmativo calcular una matriz diagonalizante:
   
2 2 −2 2 −2 −1
A =  1 3 −1  , B =  −2 −1 −2  .
−1 1 1 14 25 14
13. Sea A ∈ Mn (R) tal que considerada como matriz compleja tiene un valor propio de
la forma a + ib con vector propio de la forma x + iy, donde x, y ∈ Rn . Demostrar que
a − ib es también un valor propio de A con vector propio x − iy.

4
Solución. Tenemos

A (x + iy) = (a + ib) . (x + iy) ,


tomando conjugados resulta

A (x + iy) = (a + ib) . (x + iy) ⇒


A (x − iy) = (a − ib) . (x − iy) .

14. Sean S, T : V −→ V transformaciones lineales, dim (V ) = n, probar que ST y T S


tienen los mismos valores propios.
Solución. Sabemos que pST (x) = pT S (x), luego los valores propios de ST y T S coinciden.
15. Sea T : V −→ V una transformación lineal tal que cada vector no nulo de V es un
vector propio de T . Demostrar que T = α.IV para algún escalar α ∈ K.
16. Sea V un espacio vectorial complejo y sea T : V −→ V una transformación lineal.
Sea p (x) un polinomio con coeficientes complejos y sea α ∈ C. Probar que α es un valor
propio de p(T ) si y sólo si α = p(λ), donde λ es un valor propio de T . Mostrar además
que esta propiedad no es válida en general para R.
17. Dar un ejemplo de transformación lineal T cuya matriz con respecto a una cierta base
contenga solamente ceros en la diagonal principal pero T sea invertible.
Solución. Basta considerar T : R2 → R2 definida por T (e1 ) = e2 , T (e2 ) = e1 .
18. Dar un ejemplo de transformación lineal T cuya matriz con respecto a una cierta base
contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible.
Solución. Basta considerar T : R2 → R2 definida por T (e1 ) = e1 + e2 , T (e2 ) = e1 + e2 .
19. Dar un ejemplo de operador T : R4 −→ R4 que no tenga valores propios reales.
Solución. El operador cuya matriz en la base canónica es
 
0 −1 0 0
 1 0 0 0 
 
 0 0 0 −1  .
0 0 1 0
20. Sea V un espacio vectorial real de dimensión finita y sea T : V −→ V una transfor-
mación lineal que no tiene valores propios reales. Demostrar que si W es un subespacio
de V tal que T (W ) ⊆ W , entonces la dimensión de W es par.

5
Capı́tulo 6

Formas Canónicas

Introducción
Las matrices constituyen un lenguaje computacional para estudiar transformaciones lineales. Si el
aspecto de una matriz que representa una cierta transformación lineal es sencillo, entonces es fácil
conocer propiedades de la matriz , y por lo tanto, de la transformación. Las formas sencillas clásicas
a las cuales puede ser reducida una matriz, bajo ciertas condiciones, son estudiadas en el presente
capı́tulo. El problema de similaridad de matrices es resuelto en términos de las formas canónicas
introducidas.

6.1. Polinomio Mı́nimo


El polinomio caracterı́stico de una matriz, o de una transformación lineal, es un instrumento para
calcular sus valores propios; en esta lección se estudia el polinomio mı́nimo de matrices y transforma-
ciones lineales, el cual resulta muy útil para establecer criterios sobre la posibilidad de reducir matrices
a formas canónicas simples.
Definición 6.1. Sea V un espacio vectorial de dimensión finita n ≥ 1 sobre un cuerpo K y sea LK (V )
el álgebra de las transformaciones lineales del espacio V . Sea T ∈ LK (V ), se sabe que la dimensión
de LK (V ) es n2 (véase la Lección 2 del Capı́tulo 3). Entonces existen escalares no todos iguales a
2
cero a0 , . . . , an2 tales que a0 IV + a1 T + · · · + an2 T n = 0, es decir, T es raı́z del polinomio no
2
nulo a0 + a1 x + · · · + an2 xn . Ası́ pues, se puede asegurar que existe al menos un polinomio no nulo
p(x) tal que p(T ) = 0. Sea S la colección de todos los polinomios que son anulados por T , en S se
puede escoger un polinomio no nulo q(x) que tenga grado mı́nimo, además se puede suponer que el
coeficiente de q(x) correspondiente al término de mayor grado es 1, es decir, que q(x) es mónico. Con
estas condiciones para q(x) se puede demostrar que cualquier otro polinomio p(x) de S es múltiplo de
q(x). Esto implica que si en S existiera otro polinomio t(x) mónico del mismo grado de q(x), es decir
de grado mı́nimo, entonces t(x) = q(x). Se ha entonces encontrado un polinomio especial asociado a
la transformación T , dicho polinomio se denotará por qT (x) y se llamará el polinomio mı́nimo de T .
La discusión anterior la podemos realizar también para cualquier matriz A de tamaño n ≥ 1, de tal
forma que podemos definir el polinomio mı́nimo de A, el cual denotaremos por qA (x). Como es de
esperarse se tiene el siguiente resultado.
Proposición 6.1. Sea T : V → V una transformación lineal de un espacio V de dimensión finita
n ≥ 1 y sea X una base cualquiera de V . Si A es la matriz de T en la base X, entonces qT (x) = qA (x).
Puesto que dos matrices similares representan la misma transformación lineal, entonces se tiene el
siguiente corolario.

81
82 CAPÍTULO 6. FORMAS CANÓNICAS

Corolario 6.1. Matrices similares tienen el mismo polinomio mı́nimo.


El siguiente teorema establece una importante relación entre el polinomio caracterı́stico y el polinomio
mı́nimo.
Teorema 6.1 (Hamilton - Cayley). Sea T : V → V una transformación lineal de un espacio V
de dimensión n ≥ 1 , pT (x) su polinomio caracterı́stico y qT (x) su polinomio mı́nimo. Entonces,
qT (x) | pT (x) . También, si A es una matriz cuadrada de orden n ≥ 1, entonces qA (x) | pA (x).
Demosración: Veamos primero la prueba de la versión matricial del teorema. Sea B la matriz xE − A
con entradas en el anillo conmutativo K[x], según vimos en la Lección 2 del Capı́tulo 5, podemos
considerar determinantes sobre este anillo y definir la matriz C = Cof (B)T (véase la Lección 4 del
Capı́tulo 4); nótese que cada entrada cij de la matriz C es un polinomio en x de grado ≤ n − 1 el cual
(0) (1) (n−1) n−1
podemos entonces escribir en la forma cij = cij + cij x + · · · + cij x . La matriz C es por lo
(k)
tanto representable como C = C (0) + C (1) x + · · · + C (n−1) xn−1 donde C (k) = [cij ] es de orden n × n
con entradas en K. De acuerdo con la Regla de Crammer.

CB = C(xE − A) = det(B)E = det(xE − A)E = pA (x)E.


Sea pA (x) = p0 +p1 x+· · ·+pn−1 xn−1 +xn , realizando las operaciones indicadas en la igualdad anterior
y comparando coeficientes concluimos que

−C (0) A = p0 E
−C A + C (0) =
(1)
p1 E
−C (2) A + C (1) = p2 E
.. .. ..
. . .
(n−1) (n−2)
−C A+C = pn−1 E
C (n−1) = E

Podemos ahora multiplicar estas igualdades a la derecha por E, A, . . . , An respectivamente y luego su-
mar de tal forma que todos los términos del miembro de la izquierda se cancelan por pares y el término
de la derecha es precisamente pA (A), es decir, pA (A) = 0. Por la condición que define al polinomio
mı́nimo se tiene que qA (x) | pA (x).

Sea ahora T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1 , X una


base de V y A = mX (T ). Acabamos de ver que qA (x) | pA (x), pero qA (x) = qT (x) y pA (x) = pT (x),
de donde qT (x) | pT (x). 

Las raı́ces en K del polinomio mı́nimo y del polinomio caracterı́stico coinciden.


Proposición 6.2. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥
1 (o también, sea A una matriz cuadrada de orden n ≥ 1). Sea a ∈ K. Entonces,pT (a) = 0 si y
sólo si qT (a) = 0 (también, pA (a) = 0 si y sólo si qA (a) = 0). En particular, si K es un cuerpo
algebraicamente cerrado (véase la Lección 2 del capı́tulo anterior), entonces las raı́ces del polinomio
mı́nimo y el caracterı́stico coinciden.
Demostración: Sea a ∈ K una raı́z de pT (x), entonces a es un valor propio de T . Mediante el algoritmo
de la división se tiene que qT (x) = (x − a)s(x) + r, donde r es una constante de K. Reemplazando x
por T se tiene que qT (T ) = (T − aI)s(T ) + rI = 0; sea v un vector propio del valor propio a, entonces
ya que (T − aI) y s(T )conmutan resulta que 0 = s(T ) (T (v) − a.v) + r.v = s(T )(a.v − a.v) + r.v = r.v,
como v es no nulo, entonces r = 0, y por tanto qT (x) = (x−a)s(x). Esto implica que a es raı́z de qT (x).

Recı́procamente, sea a ∈ K una raı́z de qT (x), entonces podemos aplicar el Teorema de Hamilton-
Cayley y escribir pT (x) = qT (x)m(x), de donde pT (a) = qT (a)m(a) = 0. 
6.2. FORMA CANÓNICA TRIANGULAR 83

Ejericicio 6.1. Calcular el polinomio mı́nimo de las siguientes matrices:


 
  1 1 0 0
1 −1 −1  −1 −1 0 0 
A= 1 3 1  B=
 −2 −2

2 1 
−1 −1 1
1 1 −1 0
   
−2 0 3 4 5 1 −1 0 −1 0
 0 −2 0 6 7   2 −2 0 −1 0 
   
C=
 0 0 −3 0 8 
 D= 1 −1 −1 0 0 

 0 0 0 −3 0   2 −1 0 −2 0 
0 0 0 0 −3 2 −1 0 −1 −1

6.2. Forma Canónica Triangular


En el capı́tulo anterior consideramos la primera forma canónica que puede tener una matriz (trans-
formación): la forma diagonal. Por los criterios establecidos allı́ se puede observar que no toda matriz
es diagonalizable, aún en cuerpos algebraicamente cerrados. En esta lección estudiamos una forma
canónica menos exigente que la diagonal: la forma canónica triangular.

Definición 6.2. Una transformación T de un espacio V de dimensión finita n ≥ 1 es triangulable


si existe una base X en V tal que la matriz de T en dicha base es triangular superior. Una matriz
cuadrada A = [aij ] de orden n ≥ 1 es triangulable si y sólo si A es similar a una matriz triangular
superior.

Proposición 6.3. Sea T una transformación lineal de un espacio V de dimensión finita n ≥ 1. Sea
X una base de V y A = mX (T ). Entonces, T es triangulable si y sólo si A es triangulable.

El polinomio mı́nimo es un buen instrumento para establecer criterios de triangulación y diagonaliza-


ción de matrices y transformaciones. Los Teoremas 2 y 3 que probaremos adelante requieren de algunos
preliminares que enseguida entramos a considerar.

Definición 6.3. Sea T una transformación lineal de un espacio V de dimensión finita n ≥ 1. Un


subespacio W de V se dice que es T -invariante, o invariante respecto de T , o simplemente, invariante,
si T (W ) ⊆ W . Con cada transformación T hay siempre asociados algunos subespacios invariantes
triviales: 0, V , N (T ), Im(T ) ; además si p(x) es un polinomio y p(T ) es la transformación polinomial
correspondiente, entonces N (p(T )), Im(p(T )) son subespacios invariantes de V.

Si T es una transformación lineal de un espacio V de dimensión finita n ≥ 1 y W es un subespacio


invariante respecto de T , entonces T induce una transformación lineal

TW : W → W

w → TW (w) = T (w),
es decir, TW es la restricción de T a W . Los polinomios mı́nimo y caracterı́stico de TW guardan
estrecha relación con los correspondientes polinomios de T .

Proposición 6.4. Si T es una transformación lineal de un espacio V de dimensión finita n ≥ 1 y W


es un subespacio invariante no nulo, entonces el polinomio caracterı́stico de TW divide al polinomio
caracterı́stico de T . La misma relación se tiene para los polinomios mı́nimos.
84 CAPÍTULO 6. FORMAS CANÓNICAS

Demostración: Sea Z = {z1 , ..., zr } una base de W y X = {z1 , ..., zr ; v1 , ..., vs } una base de V (de tal
forma que r + s = n). Sea T (zi ) = a1i .z1 + · · · + ari .zr + 0.v1 + · · · + 0.vs , 1 ≤ i ≤ r (debido a que W
es T -invariante). Esto muestra que la matriz de T en la base X tiene la forma
 
mZ (TW ) B
mX (T ) =
0 C
donde B y C contienen los coeficientes al aplicar T a los vectores v1 , ..., vs . Entonces, pT (x) =
det (xE − mX (T )) = det (xE − mZ (TW )) det (xE − C) = pTW (x)pC (x). Esto completa la demostra-
ción de la primera afirmación.

El polinomio mı́nimo de T es el polinomio mı́nimo de mX (T ) y de igual manera qTW es el polino-


mio mı́nimo de mZ (TW ). Entonces, sea A = mX (T ) y D = mZ (TW ), se tiene pues que
 
qA (D) ∗
qA (A) = 0 =
0 qA (C)
luego qA (D) = 0, esto implica que qA (x) es múltiplo de qD (x), es decir, qT (x) es múltiplo de qTW (x).


Definición 6.4. Sea T una transformación lineal de un espacio V de dimensión finita n ≥ 1 y W un


subespacio invariante. Sea v un vector cualquiera de V , entonces el conjunto
T
IW (v) = {p(x) ∈ K[x] | p(T )(v) ∈ W }
se denomina el T -ideal generado por v en W , o simplemente, el ideal generado por v, si por el contexto
es claro que nos referimos a T y W. En tal caso escribiremos simplemente I(v). Este conjunto tiene
las siguientes propiedades:

a) I(v) es no vacı́o y no nulo.

b) I(v) es un subespacio de K[x] (véase la Lección 2 de Capı́tulo 1).

c) Para cada t(x) ∈ K[x] y cada p(x) ∈ I(v) se tiene que t(x)p(x) ∈ I(v).

d) I(0) = K[x] .

e) Si W = 0, entonces I0T (v) se conoce como el T -anulador del vector v, o simplemente, el anulador
del vector v. Nótese que I0T (v) = K[x] si y sólo si v = 0.
T
f ) Existe un polinomio mónico qv (x) de grado mı́nimo en IW (v) tal que cualquier otro polinomio de
T
IW (v) es múltiplo de él. En particular, qT (x) es múltiplo de qv (x). qv (x) se denomina el olinomio
mı́nimo del vector v relativo a W y a T . Cuando W = 0, qv (x) se conoce también con el nombre
de el anulador del vector v.

El último preliminar requerido para demostrar los Teoremas 2 y 3 es la siguiente proposición.

Proposición 6.5. Sea T : V → V una transformación lineal de un espacio V de dimensión finita


n ≥ 1. Supóngase que el polinomio mı́nimo de T es de la forma

qT (x) = (x − a1 )r1 · · · (x − ak )rk ,

donde ai ∈ K son valores diferentes, 1 ≤ ri ≤ n, 1 ≤ i ≤ k, 1 ≤ k ≤ n. Si W 6= V es un subespacio


invariante, entonces existe un vector u ∈ V tal que u ∈
/ W y (T − aIV )(u) ∈ W , para algún valor
propio a de T.
6.2. FORMA CANÓNICA TRIANGULAR 85

Demostración: Sea v un vector cualquiera de de V \ W . Sea qv (x) el polinomio mı́nimo del vector v
relativo al subespacio W . Entonces, qv (x) divide al polinomio mı́nimo qT (x) , de donde , qv (x) es de
la forma
qv (x) = (x − a1 )s1 · · · (x − ak )sk ,
donde 0 ≤ si ≤ ri , 1 ≤ i ≤ k. No es posible que que cada si sea nulo, ya que de lo contrario qv (x) = 1
, y entonces qv (T )(v) = IV (v) = v ∈ W , en contra de lo supuesto. Supongamos pues que s1 ≥ 1 ,
entonces qv (x) = (x − a1 )h(x) donde h(x) ∈ K[x] es de grado inferior al grado de qv (x). Esto implica
que u = h(T )(v) ∈ / W. También, (T − a1 IV )(u) = (T − a1 IV )(h(T )(v)) = qv (T )(v) ∈ W. Puesto que
a1 ∈ K es una raı́z del polinomio mı́nimo , entonces a1 es un valor propio de T (véase la Proposición
2). 

Teorema 6.2. Sea T una transformación lineal de un espacio V de dimensión finita n ≥ 1. T es


triangulable si y sólo si el polinomio mı́nimo de T es de la forma

qT (x) = (x − a1 )r1 · · · (x − ak )rk ,

donde ai ∈ K son valores diferentes, 1 ≤ ri ≤ n, 1 ≤ i ≤ k, 1 ≤ k ≤ n. La afirmación del teorema


también se cumple si A es una matriz cuadrada de orden n ≥ 1.

Demostración: ⇒) Existe una base X en V tal que la matriz de T en dicha base es de la forma
 
a11 · · · · · · a1n
 0 a22 · · · a2n 
 
mX (T ) =  .. .. . . .. .
 . . . . 
0 ··· 0 ann

Nótese que el polinomio caracterı́stico de T es pT (x) = (x − a11 ) · · · (x − ann ) y los valores propios
de T son a11 , . . . , ann ∈ K. Sean a1 , . . . , ak ∈ K los valores propios diferentes con multiplicidades
d1 , . . . , dk , de tal manera que

pT (x) = (x − a1 )d1 · · · (x − ak )dk ,

donde 1 ≤ k ≤ n , 1 ≤ di ≤ n , 1 ≤ i ≤ k. Puesto que el polinomio mı́nimo de T divide a pT (x),


entonces qT (x) = (x − a1 )r1 · · · (x − ak )rk , 1 ≤ ri ≤ di ≤ n, 1 ≤ i ≤ k, 1 ≤ k ≤ n.

⇐) Sea v1 un vector propio de T correspondiente al valor propio a1 , y sea W1 =< v1 > , W1 es


invariante. Si W1 = V , entonces dim(V ) = 1 y T es triangulable. Si W1 6= V , entonces , por la
Proposición 5, existe un vector v2 ∈ / W1 tal que (T − aIV )(v2 ) ∈ W1 , para algún valor propio a de T .
Se tiene entonces que T (v2 ) = b . v1 + a . v2 y {v1 , v2 } es L I. Sea W2 = < v1 , v2 >. Si W2 = V , entonces
dim(V2 ) = 2 y la matriz de T en la base {v1 , v2 } es
 
a1 b
0 a

y T es triangulable. Si W2 6= V entonces podemos repetir este razonamiento hasta conformar una base
de V en la cual la matriz de T es triangular.

Notemos que la escogencia del valor propio a es arbitraria, sin embargo cada valor ai se puede usar
máximo ri veces debido a que estos valores van por la diagonal principal de la matriz.
86 CAPÍTULO 6. FORMAS CANÓNICAS

Corolario 6.2. En un cuerpo algebraicamente cerrado cada transformación lineal de un espacio de


dimensión finita es triangulable. La afirmación también se cumple si A es una matriz cuadrada de
orden n ≥ 1.
Teorema 6.3. Sea T una transformación lineal de un espacio V de dimensión finita n ≥ 1. T es
diagonalizable si y sólo si el polinomio mı́nimo de T es de la forma

qT (x) = (x − a1 ) · · · (x − ak ),
donde ai ∈ K son valores diferentes, 1 ≤ i ≤ k, 1 ≤ k ≤ n. La afirmación del teorema también se
cumple si A es una matriz cuadrada de orden n ≥ 1.
Demostración: ⇒) Si T es diagonalizable V tiene una base conformada por vectores propios: X =
{v1 , . . . , vn }. Sean a1 , . . . , ak los diferentes valores propios de T , 1 ≤ k ≤ n. Sea v = b1 . v1 + · · · +
bn . vn un vector cualquiera de V , entonces

(T − a1 . IV ) · · · (T − ak . IV )(v) = (T − a1 . IV ) · · · (T − ak . IV )(b1 .v1 + · · · + bn . vn ) = 0,

ya que las transformaciones polinomiales conmutan y cada vi esta asociado a algunos de los valores
propios ai , 1 ≤ i ≤ k. Esto indica que el polinomio (x − a1 ) · · · (x − ak ) se anula en T , de donde,
qT (x) divide a dicho polinomio. Pero como ai es raı́z de qT (x), entonces cada factor (x − ai ) divide a
qT (x), por lo tanto (x−a1 ) · · · (x−ak ) divide a qT (x). Se tiene entonces que qT (x) = (x−a1 ) · · · (x−ak ).

⇐=) Nótese que a1 , . . . , ak son los diferentes valores propios de T (véase la Proposición 2). Sea
W el espacio generado por todos los vectores propios de T ; si W = V , entonces T es diagonalizable.
Supóngase que W 6= V . Demostraremos que esta suposición nos lleva a una contradicción.

Es claro que W es invariante. Según la Proposición 5 , existe u ∈ V \ W y un valor propio a de


T tales que v = (T − a . IV )(u) ∈ W . a es alguna de las raı́ces de qT (x) , digamos, a = a1 , entonces
v = (T − a1 . IV )(u). Por otro lado, qT (T )(u) = 0 = (T − a1 . IV )[(T − a2 . IV ) · · · (T − ak . IV )(u)], es
decir, w = (T − a2 . IV ) · · · (T − ak . IV )(u) es un vector propio de T con valor propio a1 , con lo cual
w ∈ W . Sea h(x) = (x − a2 ) · · · (x − ak ) , entonces w = h(T )(u). La división con resı́duo de h(x)
entre (x − a1 ) nos da
h(x) = m(x)(x − a1 ) + h(a1 ),
con m(x) ∈ K[x]. Entonces,

w = h(T )(u) = m(T )(T − a1 .IV )(u) + h(a1 ).u = m(T )(v) + h(a1 ).u,

es decir, h(a1 ).u = w − m(T )(v) ∈ W ya que v ∈ W y W es invariante. Si h(a1 ) 6= 0, entonces u ∈ W


y esto contradice la escogencia de u. Por lo tanto, a1 es una de las raı́ces de h(x), pero contradice que
los valores a1 , . . . , ak son diferentes. 

Ejericicio 6.2. Determinar si la matriz


 
0 1 0
A= 2 −2 2 
2 −3 2

es triangulable sobre los reales. En caso afirmativo encontrar una matriz real triangular similar a la
matriz A.
Solución: El polinomio caracterı́stico de A es x3 . Puesto que A2 6= 0, entonces el polinomio mı́nimo de
A es también x3 . Esto garantiza que A es triangulable.
6.3. DIAGONALIZACIÓN EN BLOQUES 87

Para calcular una matriz triangular similar a la matriz A podemos aplicar la segunda parte de la
demostración del Teorema 2. El único valor propio de A es 0, para calcular un vector propio podemos
resolver el sistema AX = 0, y obtener como vector básico del espacio propio E(0) a X1 = (1, 0, −1).
Definimos W = hX1 i. Debemos escoger X2 ∈ / W tal que AX2 ∈ W, para esto debemos encontrar las
T
soluciones de AX2 = (a, 0, −a) , a ∈ R. El vector X2 = (1, 1, 0) satisface las dos condiciones anterio-
res. Ahora debemos escoger X3 ∈ / hX1 , X2 i tal que AX3 ∈ hX1 , X2 i. El vector X3 = (0, 0, 1) cumple
estas condiciones. La matriz C que permite triangularizar es
 
1 1 0
C= 0 1 0 
−1 0 1
y efectivamente  
0 1 −2
C −1 AC =  0 0 2 
0 0 0
Ejericicio 6.3. Sea K un cuerpo algebraicamente cerrado y sea T : V → V una transformación
de un espacio V de dimensión finita n ≥ 1. Demostrar que en V existen subespacios invariantes
V0 = 0 , V1 , . . . , Vn−1 , Vn = V de dimensiones 0 , 1 , . . . , n − 1, n tales que

V0 ⊂ V1 ⊂ · · · ⊂ Vn−1 ⊂ Vn = V.
Solución: Como K es algebraicamente cerrado podemos aplicar la Proposición 5. Sea v1 un vector
propio de T . Entonces claramente < v1 > es T −invariante de dimensión 1. Si < v1 >= V , ya hemos
terminado: 0 ⊂ V1 =< v1 >= V . Si < v1 >6= V aplicamos la proposición y existe un vector v2 ∈< / v1 >
y tal que (T − aI) (v2 ) ∈< v1 >, donde a es un cierto valor propio de T . Entonces, T (v2 ) = b1 .v1 +
a.v2 , de donde V2 =< v1 , v2 > es T -invariante de dimensión 2. Si V2 = V hemos terminado. De lo
contrario aplicamos nuevamente la proposición mencionada y escogemos un vector v3 ∈ / V2 y tal que
(T − cI) (v3 ) ∈ V2 , para un cierto valor propio c. Entonces, T (v3 ) = b1 .v1 + b2 .v2 + c.v3 , de donde
V3 =< v1 , v2 , v3 > es T -invariante de dimensión 3. Si V3 = V hemos terminado. De lo contrario
continuamos de la misma forma. Nótese que el proceso termina ya que V es de dimensión finita.

6.3. Diagonalización en Bloques


Otra forma relativamente simple que puede tener una matriz o transformación es la forma diagonal en
bloques. En esta lección hacemos una introducción a esta forma canónica la cual complementaremos
más adelante.
Definición 6.5. Sea A = [aij ] una matriz de orden n ≥ 1. Se dice que A es una matriz diagonal en
bloques si n = 1 o si para n ≥ 2 existen r ≥ 2 enteros positivos k1 , . . . , kr tales que A es de la forma
 
A1 · · · 0
 .. 
A =  ... . . . .  (6.1)
0 ··· Ar
donde Ai es una matriz de orden ki . Nótese que 2 ≤ r ≤ n , 1 ≤ ki ≤ n − 1 , 1 ≤ i ≤ r. Una
transformación lineal T : V → V de un espacio V de dimensión finita n ≥ 1 es diagonalizable en bloques
si existe una base en V tal que la matriz de T en dicha base es diagonal en bloques. Finalmente, una
matriz cuadrada A de orden n ≥ 1 es diagonalizable en bloques si A es similar a una matriz diagonal
en bloques.
Proposición 6.6. Sea T : V → V una transformación lineal de un espacio V de dimensión finita
n ≥ 1. Sea X una base cualquiera de V . Entonces, T es diagonalizable en bloques si y sólo si mX (T )
es diagonalizable en bloques.
88 CAPÍTULO 6. FORMAS CANÓNICAS

Si T es una transformación lineal de un espacio de dimensión 1, entonces T es trivialmente diagonali-


zable en bloques. Consideremos el caso n ≥ 2 .

Proposición 6.7. Sea T : V → V una transformación lineal de un espacio V de dimensión finita


n ≥ 2. Entonces, T es diagonalizable en bloques si y sólo si V es suma directa de 2 ≤ r ≤ n subespacios
invariantes no triviales.

Demostración: ⇒) Sea X = {v1 , . . . , vn } una base de V en la cual la matriz de T es de la forma


 
A1 · · · 0
 ..  ,
mX (T ) =  ... . . . . 
0 ··· Ar
donde Ai es una matriz de orden ki , 1 ≤ ki ≤ n−1 , 1 ≤ i ≤ r , 2 ≤ r ≤ n. Nótese que k1 +· · ·+kr = n.
Podemos escribir la base X en la siguiente forma

X = {v11 , . . . , v1k1 , v21 , . . . , v2k2 , . . . , vr1 , . . . , vrkr }.


Para cada 1 ≤ i ≤ r se tiene que Wi = < vi1 , . . . , viki > es un subespacio invariante no trivial, y
además V = W1 ⊕ · · · ⊕ Wr .

⇐) Si V = W1 ⊕ · · · ⊕ Wr es suma directa de 2 ≤ r ≤ n subespacios invariantes


Sr no triviales, en-
tonces podemos elegir en cada subespacio Wi una base Xi de tal forma que X = i=1 Xi es una base
de V . Es obvio que la matriz de T en dicha base es diagonal en bloques. 

Corolario 6.3. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 2.


Supóngase que T es diagonalizable en bloques y sea V = W1 ⊕ · · · ⊕ Wr una descomposición de V en
suma de 2 ≤ r ≤ n subespacios invariantes no triviales. Sea Ti la restricción de T a Wi , 1 ≤ i ≤ r.
Entonces

a) det(T ) = det(T1 ) · · · det(Tr ).

b) pT (x) = pT1 (x) · · · pTr (x).

c) qT (x) = m.c.m{qT1 (x), · · · , qTr (x)}

Estas relaciones se tienen también para matrices diagonales en bloques de la forma (1) definida arriba.

Demostración: Teniendo en cuenta que el determinante, el polinomio caracterı́stico y el polinomio


mı́nimo de una transformación lineal coinciden con los de su matriz en cualquier base, entonces basta
probar las tres afirmaciones del corolario en el caso matricial. Además, según el Ejercicio 3 de la
Lección 3 del Capı́tulo 4 , el determinante de una matriz diagonal en bloques es el producto de los
determinantes de sus bloques, luego las partes a) y b) ya están probadas. Resta demostrar la parte c).
Sea  
A1 · · · 0
 .. 
A =  ... ..
. . 
0 ··· Ar
y qA (x) el polinomio mı́nimo de A. Hagamos m.c.m{qA1 (x), . . . , qAr (x)}= m(x). Existen polinomios
mi (x), 1 ≤ i ≤ r, tales que m(x) = qAi (x)mi (x). Se debe entonces demostrar que qA (x) = m(x).
Teniendo en cuenta que tanto qA (x) como m(x) son mónicos, entonces basta demostrar que qA (x) | m(x)
y m(x) | qA (x). Sea m(x) = m0 + m1 x + · · · + ml xl , entonces
6.4. TEOREMA DE DESCOMPOSICIÓN IRREDUCIBLE 89

m(A) = m0 I + m1 A + · · · + ml Al
 
m0 I + m1 A1 + · · · + ml Al1 ··· 0
 .. .. .. 
=  . . . 
0 ··· m0 I + m1 Ar + · · · + ml Alr
 
m(A1 ) · · · 0
 .. .. .. 
=  . . . 
0 ··· m(Ar )
 
qA1 (A1 )m1 (A1 ) · · · 0
 .. .. .. 
=  . . .  = 0.
0 ··· qAr (Ar )mr (Ar )

Esto garantiza que qA (x) | m(x).

Para demostrar la segunda parte basta mostrar que qA (x) es múltiplo de cada qAi (x). Sea qA (x) =
q0 + q1 x + · · · + qt xt , entonces qA (A) = 0 luego q0 I + q1 A + · · · + qt At = 0 y

     
q1 A1 ··· 0 qt At1 ··· 0 qA (A1 ) · · · 0
 .. .. ..  .. .. ..   .. .. .. 
q0 I +  . . . + ··· +  . . . = . . .  = 0,
t
0 ··· q1 Ar 0 ··· qt Ar 0 ··· qA (Ar )

luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es múltiplo de cada qAi (x).

6.4. Teorema de Descomposición Irreducible


Como vimos en la Lección 2, la forma del polinomio mı́nimo de una matriz o transformación es clave
para decidir si es posible reducirla a una determinada forma canónica. En esta lección estudiamos un
teorema sobre la descomposición del polinomio mı́nimo, el cual será muy útil en lo que resta de este
capı́tulo. Podemos iniciar con la siguiente proposición.

Proposición 6.8. Sea V un espacio vectorial descompuesto en suma directas finita de k ≥ 2 subespa-
cios
V = W1 ⊕ · · · ⊕ Wk .
Entonces existen transformaciones lineales T1 , . . . , Tk del espacio V que satisfacen las siguientes con-
diciones:

a) Ti2 = Ti , 1 ≤ i ≤ k.

b) Ti Tj = 0 para i 6= j.

c) IV = T1 + · · · + Tk .

d) Im(Ti ) = Wi , 1 ≤ i ≤ k.

Recı́procamente, si T1 , . . . , Tk son transformaciones lineales del espacio V que satisfacen las condiciones
a) - c) , entonces
V = Im(T1 ) ⊕ · · · ⊕ Im(Tk ).
90 CAPÍTULO 6. FORMAS CANÓNICAS

Demostración: La transformación Ti es simplemente la función proyección definida por


Ti (w1 + · · · + wi + · · · wk ) = wi . Estas funciones satisfacen claramente las propiedades a)-d) ya que la
suma de los subespacios Wi es directa.

Para la segunda parte, sea v ∈ V , entonces usando la propiedad c) se tiene que v = T1 (v) +
· · · + Tk (v) ∈ Im(T1 ) + · · · + Im (Tk ). Esto demuestra que V = Im(T1 ) + · · · + Im (Tk ). Sea ahora
0 = T1 (v1 ) + · · · + Tk (vk ), aplicando Ti a cada lado y teniendo en cuenta a) y b) resulta 0 = Ti (vi ),
es decir, la suma es directa. 

Nótese que la proposición anterior se cumple trivialmente para k = 1.


Teorema 6.4 (de descomposición irreducible). Sea T : V → V una transformación lineal de un K-
espacio V de dimensión finita n ≥ 1. Supóngase que el polinomio mı́nimo de T tiene la siguiente
descomposición en producto de polinomios irreducibles:

qT (x) = q1 (x)r1 . . . qk (x)rk ,

donde q1 (x) , . . . , qk (x) ∈ K[x] son polinomios mónicos irreducibles diferentes, 1 ≤ grado(qi (x)) ≤ n ,
1 ≤ ri ≤ n , 1 ≤ i ≤ k , 1 ≤ k ≤ n . Sea

Wi = N (qi (T )ri ) , 1 ≤ i ≤ k.
Entonces,
a) Cada Wi es invariante y no nulo.
b) V = W1 ⊕ · · · ⊕ Wk .
c) Sea Ti la restricción de T al subespacio Wi . Entonces el polinomio mı́nimo de Ti es qi (x)ri .
Demostración: Nótese que el teorema se cumple trivialmente para k = 1.

Sea pues k > 1. Consideremos los polinomios


qT (x)
pi (x) = , 1 ≤ i ≤ k.
qi (x)ri
Es claro que el máximo común divisor de estos polinomios es 1,por lo tanto, existen polinomios
s1 (x) , . . . , sk (x) ∈ K[x] tales que

1 = s1 (x)p1 (x) + · · · + sk (x)pk (x).

Sea Li = si (T )pi (T ) , 1 ≤ i ≤ k. Se puede probar facilmente que estas transformaciones cumplen las
condiciones a) - c) de la Proposición 8. Entonces V = Im(L1 ) ⊕ · · · ⊕ Im(Lk ).

Queremos ahora demostrar que Im(Li ) = N (qi (T )ri ): sea u ∈ Im(Li ) , entonces u = Li (v) , don-
de v ∈ V , y se tiene que

qi (T )ri (u) = qi (T )ri si (T )pi (T )(v) = si (T )pi (T )qi (T )ri (v) = si (T )qT (T )(v) = 0,

lo cual indica que u ∈ N (qi (T )ri ). Por otro lado, sea u ∈ N (qi (T )ri ); como mencionamos arriba,
IV = L1 + · · · + Lk , y en consecuencia ,

u = L1 (u) + · · · + Lk (u) = s1 (T )p1 (T )(u) + · · · + sk (T )pk (T )(u).

Pero nótese que para j 6= i se tiene que sj (x)pj (x) es múltiplo de qi (x)ri , con lo cual sj (T )pj (T )(u) =
0 ,para j 6= i. Se tiene entonces que u = Li (u), es decir, u ∈ Im(Li ).
6.4. TEOREMA DE DESCOMPOSICIÓN IRREDUCIBLE 91

Haciendo Wi = N (qi (T )ri ), se tiene probada la parte b) del teorema.

Según vimos en la Lección 2 , N (qi (T )ri ) es invariante. Puesto que k > 1, grado(qT (x)) > grado(pi (x))
, por lo tanto, pi (T ) 6= 0. Existe entonces v ∈ V tal que w = pi (T )(v) 6= 0, y entonces

qi (T )ri (w) = qi (T )ri pi (T )(v) = qT (T )(v) = 0,

es decir, 0 6= w ∈ N (qi (T )ri ). Hemos completado la prueba de la parte a).

Resta probar la parte c). Sea Ti la restricción de T al subespacio Wi = N (qi (T )ri ). Entonces, pa-
ra cada u ∈ Wi se tiene que qi (Ti )ri (u) = qi (T )ri (u) = 0, es decir, qi (Ti )ri = 0, de donde qi (x)ri es
múltiplo del polinomio mı́nimo de Ti , qTi (x). De otra parte, para cada v ∈ V = W1 ⊕ · · · ⊕ Wk se tiene
que Y
qTi (T )pi (T )(v) = qTi (T ) qj (T )rj (w1 + · · · + wk ) = 0,
j6=i

donde wi ∈ Wi , 1 ≤ i ≤ k. Esto quiere decir que qTi (T )pi (T ) = 0, por lo tanto, qTi (x)pi (x) es múltiplo
de qT (x) = pi (x)qi (x)ri , y en consecuencia, qTi (x) es múltiplo de qi (x)ri .

Esto completa la demostración del teorema. 

Aclaración. Para la prueba de las partes a) y b) del teorema anterior no es necesario suponer que
el espacio V sea de dimensión finita. Además, podemos reemplazar el polinomio mı́nimo qT (x) por
cualquier polinomio que se anule en T , es decir, por cualquier múltiplo de él. Sin embargo, en esta
generalización no podemos garantizar en la parte a) que cada sumando Wi sea no nulo.
Como consecuencia de este teorema se tiene el siguiente corolario sobre diagonalización en bloques.
El caso n = 1 no es considerado en el corolario, ya que toda transformación lineal de un espacio de
dimensión 1 es diagonalizable en bloques.
Corolario 6.4. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita
n ≥ 2. Supóngase que el polinomio mı́nimo de T tiene la siguiente descomposición :

qT (x) = q1 (x)r1 . . . qk (x)rk ,

donde q1 (x) , . . . , qk (x) ∈ K[x] son un polinomios mónicos irreducibles diferentes, 1 ≤ grado(qi (x)) ≤
n − 1 , 1 ≤ ri ≤ n − 1 , 1 ≤ i ≤ k , 2 ≤ k ≤ n . Entonces T es diagonalizable en bloques.
Demostración: Para aplicar la Proposición 7 y el Teorema de descomposición irreducible solo nece-
sitamos probar que para cada 1 ≤ i ≤ k, N (qi (T )ri ) 6= V. Pero esta condición se tiene, ya que si
N (qi (T )ri ) = V para algún i, entonces qi (T )ri = 0 y qi (x)ri serı́a el polinomio mı́nimo de T , en con-
tradicción con la condición k ≥ 2. 

Teniendo en cuenta que nuestra definición de diagonalización en bloques requiere de al menos dos
bloques, entonces aún para cuerpos algebraicamente cerrados no toda matriz o transformación lineal
es diagonalizable en bloques. De otra parte, nótese que el recı́proco del corolario anterior no se tiene:
la matriz idéntica es diagonalizable en bloques pero su polinomio mı́nimo es (x − 1).
Ejericicio 6.4. Demuestre que el polinomio mı́nimo de la matriz
 
11 4
A=
−4 3

es (x − 7)2 , pero dicha matriz no es diagonalizable en bloques.


92 CAPÍTULO 6. FORMAS CANÓNICAS

Ejericicio 6.5. Demuestre que la matriz


 
1 −1 0 1
 0 3 1 0 
B=
 2

1 2 −1 
−3 −2 0 4

es diagonalizable en bloques. Calcule una matriz diagonal en bloques que sea similar a la matriz B.

Solución: Según la Proposición 7 y el Teorema de descomposición irreducible debemos factorizar el


polinomio mı́nimo y calcular las bases de los núcleos de las transformaciones polinomiales de sus
factores. Al unir estas bases obtenemos una base en la cual la matriz dada se convirte en diagonal.
Veamos, usando el SWP podemos calcular y factorizar qB (x):
 
1 −1 0 1
 0 3 1 0 
  , minimum polynomial 36 − 60X + 37X 2 − 10X 3 + X 4
 2 1 2 −1 
−3 −2 0 4

2 2
36 − 60X + 37X 2 − 10X 3 + X 4 = (X − 2) (X − 3) = qB (x)
Debemos entonces calcular ahora las matrices
   
−2 −2 −1 1 1 0 2 −1
 2 2 1 −1   −4 −2 2 2 
(B − 2E) =   , (B − 3E) =  
2 2
 1 1 1 0   −3 −1 −1 2 
−3 −3 −2 1 3 1 4 −2
ahora calculamos las bases de sus núcleos:
     
−2 −2 −1 1 
 1 −1 
 2     1 
 2 1 −1  , nullspace basis:  0 , 
 1 1 1 0   −1   0 

 

−3 −3 −2 1 1 0
     
1 0 −1 −1 
 0 −1 
 2    1 
 1 −1 −1 
 , nullspace basis:  0 , 
 −3 −1 2 2   1   0 

 

3 1 −2 −2 −1 −1
Definimos la matriz “de cambio”
   
1 −1 0 −1 1 1 0 0
 0 1 0 1   0 1 1 1 
C=  −1
, C −1 = ,
0 1 0   1 1 1 0 
1 0 −1 −1 0 0 −1 −1

finalmente,
     
1 1 0 0 1 −1 0 1 1 −1 0 −1 1 1 0 0
 0 1 1 1   0 3 1 0   0 1 0 1   −1 3 0 0 
   =  .
 1 1 1 0  2 1 2 −1   −1 0 1 0   0 0 3 0 
0 0 −1 −1 −3 −2 0 4 1 0 −1 −1 0 0 1 3
.
6.5. EL TEOREMA DE DESCOMPOSICIÓN CÍCLICA 93

6.5. El Teorema de Descomposición Cı́clica


Otro de los teoremas fuertes del álgebra lineal de las formas canónicas es el teorema de descomposición
cı́clica que estudiaremos en la presente lección. Para su formulación necesitamos algunos preliminares
relacionados con el subespacio cı́clico generado por un vector.
Definición 6.6. Sea V un espacio vectorial de dimensión finita n ≥ 1, T : V → V una transformación
lineal y v un vector cualquiera de V . El conjunto

[v]T = {p(T )(v) | p(x) ∈ K[x]}

es claramente el menor subespacio invariante de V que contiene al vector v. Este subespacio se conoce
con el nombre de el T -subespacio cı́clico generado por v. Cuando no haya lugar a confusión, diremos
simplemente que [v] es el subespacio cı́clico generado por el vector v. Nótese que

[v]T = hT k (v)|k ≥ 0i

Mas exactamente, [v]T = hT k (v) | 0 ≤ k ≤ m − 1i, donde m es el grado del polinomio mı́nimo de la
transformación T . El vector v se dice que es un vector cı́clico de T si [v]T = V . De manera similar se
define el subespacio [α]A , donde A es una matriz cuadrada de orden n ≥ 1 sobre el cuerpo K y α es
un vector cualquiera de K n . En este contexto , α es un vector cı́clico de la matriz A si [α]A = K n .
Proposición 6.9. Sea T : V → V una transformación lineal de un espacio V de dimensión finita
n ≥ 1 y sea X = {v1 , . . . , vn } una base de V . Entonces, el vector v = c1 .v1 + · · · + cn .vn es un vector
cı́clico de T si y sólo si α = (c1 , . . . , cn ) es un vector cı́clico de la matriz de T en la base X.
Demostración: Sea A = mX (T ) la matriz de la transformación T en la base X; entonces para cada
k ≥ 0 se tiene que Ak es la matriz de T k en la base X. Puesto que V es un K-espacio de dimensión n,
entonces se tiene el isomorfismo
ϕ : V → Kn
vi → ei
donde {e1 , . . . , en } denota la base canónica de K n (véase el Teorema 3 del Capı́tulo 2). Sea v =
c1 .v1 + · · · + cn .vn ∈ V y α = (c1 , . . . , cn ) ∈ K n . Nótese que ϕ(v) = α. Se tiene entonces el siguiente
diagrama conmutativo para cada k ≥ 0 :
V ϕ Kn


Tk ↓ ↓ Ak
V ϕ Kn


Debemos demostrar que [v]T = V si y sólo si [α]A = K n . Teniendo en cuenta que [v]T = hT k (v) | 0 ≤
k ≤ m − 1i y que [α]A = hAk .α |0 ≤ k ≤ m − 1i, donde m es el grado del polinomio mı́nimo de T ( y
también de A), entonces basta probar que

hT k (v) | 0 ≤ k ≤ m − 1i = V ⇔ hAk .α |0 ≤ k ≤ m − 1i = K n .

Supongamos que hT k (v) | 0 ≤ k ≤ m − 1i = V y veamos que cada vector canónico ei de K n pertenece


a hAk .α |0 ≤ k ≤ m − 1i. Para el vector vi de la base X de V se tiene que vi = b1 .T 0 (v) + · · · +
bm−1 .T m−1 (v), donde b1 , . . . , bm−1 ∈ K. Entonces aplicando ϕ y la conmutatividad del diagrama de
arriba se tiene que
ei = b1 .ϕ(T 0 (v)) + · · · + bm−1 .ϕ(T m−1 (v))
= b1 . A0 ϕ(v) + · · · + bm−1 . Am−1 ϕ(v)
= b1 . A0 α + · · · + bm−1 . Am−1 α
Para la prueba de afirmación recı́proca partimos de la última igualdad y aplicamos ϕ−1 .

A continuación presentamos algunas propiedades evidentes de [v]:


94 CAPÍTULO 6. FORMAS CANÓNICAS

a) [0] = 0
b) dim([v]) = 1 ⇔ v es un vector propio de T .
c) Sea v 6= 0, y qv (x) su polinomio anulador. Entonces dim([v]) =grado (qv (x)). Mas exactamente,
si grado( qv (x)) = k, entonces {v, T (v), . . . , T k−1 (v)} es una base de [v].
d) Sea T [v] la restricción de T a [v]. Entonces, el polinomio mı́nimo de T [v] coincide con el anulador
qv (x) del vector v.
e) Si v es un vector cı́clico de T , entonces qv (x) = qT (x) = pT (x).
Ya estamos en capacidad de enunciar el segundo teorema central del presente capı́tulo.
Teorema 6.5 (de descomposición cı́clica). Sea T : V → V una transformación lineal de un espacio V
de dimensión finita n ≥ 1. Entonces existen r ≥ 1 vectores no nulos v1 , . . . , vr en V con polinomios
anuladores qv1 (x) , . . . , qvr (x) tales que
a) V = [v1 ] ⊕ · · · ⊕ [vr ]
b) qvi+1 (x) | qvi (x) , 1 ≤ i ≤ r − 1.
c) qv1 (x) = qT (x).
Además, el entero r y los polinomios anuladores qv1 (x) , . . . , qvr (x) están unı́vocamente determinados
por a) y b), es decir, si existen otros vectores no nulos w1 , . . . , ws con anuladores qw1 (x) , . . . , qws (x)
tales que se cumplen a) y b), entonces r = s y qvi (x) = qwi (x) para cada 1 ≤ i ≤ r.
Demostración: La prueba de este importante teorema es extensa, razón por la cual la hemos dividido
en varias partes. Primero probaremos lo relativo a la existencia de la descomposición deseada.

Parte I . Comencemos probando que podemos encontrar r ≥ 1 vectores no nulos u1 , . . . , ur en V


tales que cumplen las siguientes condiciones:
i) V = [u1 ] + · · · + [ur ]
ii) Sea Wk = [u1 ] + · · · + [uk ] , 2 ≤ k ≤ r, entonces el polinomio mı́nimo quk (x) de uk relativo a
Wk−1 y a T es de grado máximo, es decir, si v ∈ V y qv (x) es el polinomio mı́nimo de v relativo
a Wk−1 y a T , entonces gr(quk (x)) ≥ gr(qv (x)) (véase el concepto de polinomio mı́nimo). Para
k = 1, u1 es un vector no nulo tal que el grado de su polinomio anulador es máximo.
Paso 1. La idea es definir W1 = [u1 ] y W2 , . . . , Wr recursivamente según ii) hasta completar todo el
espacio V . Para ello se requiere que cada Wk tenga dimensión mayor que el anterior.

Comencemos la discusión para un subespacio propio invariante W cualquiera de V. Sea u ∈ V − W ,


entonces u 6= 0 y consideremos el polinomio mı́nimo del vector u relativo a W y a T , qu (x). Sabemos
T
que cada polinomio del T -ideal generado por u en W , IW (u), es múltiplo de qu (x). Aseguramos que
qu (x) no es una constante, es decir, que gr(qu (x)) > 0: en caso contrario, sea qu (x) = a ∈ K, entonces
T
a 6= 0 pues pT (x) ∈ IW (u) y entonces pT (x) es múltiplo de a. Se tendrı́a entonces que a.u ∈ W y, en
−1
consecuencia, a a.u = u ∈ W , lo cual contradice la escogencia de u. De otra parte, gr(qu (x)) ≤ n ya
que pT (x) es múltiplo de qu (x).

Entre todos los vectores u ∈ V − W escogamos uno tal que gr(qu (x)) sea máximo. Sea [u] el subes-
pacio cı́clico generado por el vector u. Aseguramos que W es un subespacio propio de W + [u] :
si W + [u] = W , entonces [u] ⊆ W con lo cual u ∈ W , y esto es imposible. Se tiene entonces que
dim(W +[u]) > dim(W ) . Nótese adicionalmente que W +[u] es invariante ya que es suma de invariantes.
6.5. EL TEOREMA DE DESCOMPOSICIÓN CÍCLICA 95

Hemos demostrado que para cada subespacio propio e invariante W de V existe un vector no nu-
lo u ∈ V − W tal que W + [u] es invariante, dim(W + [u]) > dim(W ) y el grado del polinomio mı́nimo
qu (x) de u relativo a W y a T es máximo.

Paso 2. Tomando en el paso anterior W = 0 encontramos un vector u1 6= 0 tal que [u1 ] es inva-
riante y gr(qu1 (x)) es máximo (en este caso particular qu1 (x) es el polinomio anulador del vector u1 ).
Sea W1 = [u1 ]. Si W1 = V , la prueba de la Parte I ha terminado (en este caso u1 es un vector cı́clico
y por lo tanto qu1 (x) = qT (x). La prueba de la existencia en este caso ya ha terminado).

Supongamos entonces que W1 es propio. De acuerdo a lo probado en el Paso 1, existe un vector no


nulo u2 ∈ V − W1 tal que gr(qu2 (x)) es máximo, W1 + [u2 ] es invariante y dim(W1 + [u2 ]) > dim(W1 )
(qu2 (x) es el polinomio mı́nimo de u2 relativo a W1 y a T ). Sea W2 = W1 + [u2 ]. Si W2 = V la prueba
de la Parte I ha terminado. En otro caso podemos aplicar recursivamente el Paso 1 y puesto que V
es de dimensión finita podemos asegurar que existen vectores no nulos u1 , . . . , ur en V tales que se
cumple lo afirmado en la Parte I.

Parte II. Sea u1 , . . . , ur una colección de r ≥ 2 vectores no nulos de V que cumplen las condiciones
i) y ii) de la Parte I, y sea v un vector cualquiera de V . Para 2 ≤ k ≤ r fijo, sea f (x) el polinomio
mı́nimo de v relativo a Wk−1 = [u1 ] + · · · + [uk−1 ]. Entonces existen polinomios g1 (x), . . . , gk−1 (x) tales
que
f (T )(v) = g1 (T )(u1 ) + · · · + gk−1 (T )(uk−1 ). (6.2)
En esta parte de la prueba queremos demostrar que entonces f (x) divide a cada uno de los polinomios
gi (x). Para cada i consideremos la división con residuo.

gi (x) = f (x)ci (x) + ri (x), ri (x) = 0 ó, gr(ri (x)) < gr(f (x)).

Se trata de demostrar que todos los residuos ri (x) son nulos.

Paso 1. Comencemos con lo siguiente: sea y el vector definido por

y = v − [c1 (T )(u1 ) + · · · + ck−1 (T )(uk−1 )].

Veamos que f (T )(y) = r1 (T )(u1 ) + · · · + rk−1 (T )(uk−1 ) : en efecto,

f (T )(y) = f (T )(v) − f (T )[c1 (T )(u1 ) + · · · + ck−1 (T )(uk−1 )]


= f (T )(v) − [g1 (T )(u1 ) + · · · + gk−1 (T )(uk−1 )] + [r1 (T )(u1 ) + · · · + rk−1 (T )(uk−1 )]
= f (T )(v) − f (T )(v) + [r1 (T )(u1 ) + · · · + rk−1 (T )(uk−1 )]
= [r1 (T )(u1 ) + · · · + rk−1 (T )(uk−1 )].
T T
Paso 2. IW k−1
(v) = IW k−1
(y) (luego, f (x) es el polinomio mı́nimo de y relativo a Wk−1 ): sea m(x) ∈
T
IWk−1 (v), entonces m(T )(v) ∈ Wk−1 y

m(T )(v) = m(T )(y+[c1 (T )(u1 )+· · ·+ck−1 (T )(uk−1 )]) = m(T )(y)+m(T )[c1 (T )(u1 )+· · ·+ck−1 (T )(uk−1 )]
T
de donde m(T )(y) ∈ Wk−1 , es decir, m(x) ∈ IW k−1
(y). La prueba de la otra inclusión es completamente
análoga.

Paso 3. Supóngase que no todos los resı́duos ri (x) son nulos, y sea rj (x) 6= 0 con mayor ı́ndice
j. Entonces, f (T )(y) = r1 (T (u1 ) + · · · + rj (T )(uj ); sea p(x) el polinomio mı́nimo de y relativo a
Wj−1 , puesto que Wj−1 ⊆ Wk−1 , entonces de p(T )(y) ∈ Wj−1 se sigue que p(T )(y) ∈ Wk−1 , luego
T T
p(x) ∈ IW k−1
(y) = IW k−1
(v), es decir, p(x) es múltiplo de f (x). Sea p(x) = f (x)g(x). Resulta,

p(T )(y) = g(T )f (T )(y) = g(T )[r1 (T )(u1 ) + · · · + rj (T )(uj )] = g(T )r1 (T )(u1 ) + · · · + g(T )rj (T )(uj );
96 CAPÍTULO 6. FORMAS CANÓNICAS

pero por la definición de p(x), p(T )(y) ∈ Wj−1 y como además W1 ⊆ W2 ⊆ · · · ⊆ Wj−1 son inva-
riantes, entonces g(T )rj (T )(uj ) ∈ Wj−1 , de donde el polinomio g(x)rj (x) es múltiplo del polinomio
mı́nimo de uj realtivo al subespacio Wj−1 . Según la condición ii) de la Parte I, este polinomio mı́nimo
tiene grado máximo, luego el grado de g(x)rj (x) ≥ gr(p(x)). De estas consideraciones se conclu-
ye que gr(g(x)) + gr(rj (x)) = gr(g(x)rj (x)) ≥ gr(p(x)) = gr(f (x)g(x)) = gr(g(x)) + gr(f (x)), luego
gr(rj (x)) ≥ gr(f (x)), obteniéndose una contradicción. Esto indica que efectivamente todos los resı́duos
ri (x) son nulos.

Parte III. La idea ahora es construir los vectores vi de la parte a) del teorema a partir de los
vectores ui que hemos encontrado en la Parte II de la prueba.

Paso 1. Sea u1 , . . . , ur una colección de r ≥ 1 vectores no nulos de V con polinomios mı́nimos qui (x)
que cumplen las condiciones i) y ii) de la Parte I. Si r = 1, entonces, como anotamos antes, V = [u1 ],
u1 es un vector cı́clico y por lo tanto qu1 (x) = qT (x). Sea pues r ≥ 2 como en la Parte II; para cada
1 ≤ i ≤ r queremos construir los vectores vi ; definimos
v1 = u1 ,
según el Paso 2 de la prueba de la Parte I, qv1 (x) es el polinomio anulador del vector v1 . Para i ≥ 2
definimos
vi = ui − [h1 (T )(u1 ) + · · · + hi−1 (T )(ui−1 )], (6.3)
donde los polinomios h1 (x), . . . , hi−1 (x) se definen de la siguiente manera. En calidad de vector v en el
razonamiento de la Parte II tomamos ui y en calidad de f (x) tomamos qui (x) , el polinomio mı́nimo
de ui relativo a Wi−1 ; según (6.2) existen polinomios g1 (x), . . . , gi−1 (x) tales que
qui (T )(ui ) = g1 (T )(u1 ) + · · · + gi−1 (T )(ui−1 )
y además qui (x) divide a cada uno de los polinomios gj (x), 1 ≤ j ≤ i−1. Los polinomios h1 (x), . . . , hi−1 (x)
se definen entonces mediante esta última condición , es decir, son tales que gj (x) = qui (x)hj (x), 1 ≤
T T
j ≤ i − 1. Como en el Paso 2 de la Parte II, IW i−1
(vi ) = IW i−1
(ui ), luego qui (x) es el polinomio mı́nimo
de vi relativo a Wi−1 .

Paso 2. A partir de lo anterior vamos a demostrar que


[vi ] ∩ Wi−1 = 0, (6.4)
donde, como siempre, Wi−1 = [u1 ] + · · · + [ui−1 ]. Sea z ∈ [vi ] ∩ Wi−1 , entonces z = g(T )(vi ) ∈ Wi−1
T T
luego g(x) ∈ IW i−1
(vi ) = IW i−1
(ui ), de donde, g(x) es múltiplo de qui (x). Existe entonces s(x) tal que
g(x) = s(x)qui (x) y
z = g(T )(vi ) = s(T )qui (T )(vi ) =
s(T )qui (T )(ui − [h1 (T )(u1 ) + · · · + hi−1 (T )(ui−1 )]) =
s(T )[qui (T )(ui ) − qui (T )(h1 (T )(u1 ) + · · · + hi−1 (T )(ui−1 ))] =
s(T )[qui (T )(ui ) − qui (T )h1 (T )(u1 ) − · · · − qui (T )hi−1 (T )(ui−1 )] =
s(T )[qui (T )(ui ) − (g1 (T )(u1 ) + · · · + gi−1 (T )(ui−1 ))] =
s(T )[qui (T )(ui ) − qui (T )(ui )] = 0.
Paso 3. Veamos que la suma [v1 ] + · · · + [vr ] es directa.

Para comenzar nótese que la intersección de [v1 ] con [v2 ] es nula, es decir que la suma [v1 ] + [v2 ]
es directa: en efecto [v2 ] ∩ [v1 ] = [v2 ] ∩ [u1 ] = [v2 ] ∩W1 = 0.

Supongamos inductivamente que la suma [v1 ] + · · · + [vi−1 ] es directa y probemos que la intersec-
ción de [vi ] con dicha suma es nula. Sea z ∈ [vi ] ∩ ([v1 ] + · · · + [vi−1 ]), entonces existen polinomios
m(x), m1 (x), . . . , mi−1 (x) tales que
6.5. EL TEOREMA DE DESCOMPOSICIÓN CÍCLICA 97

z = m(T )(vi ) = m1 (T )(v1 ) + · · · + mi−1 (T )(vi−1 ),

pero esto según (6.3) implica que z ∈ [vi ] ∩ Wi−1 = 0.

Paso 4. Para terminar la prueba de la parte a) de teorema nótese que V = [v1 ] + · · · + [vr ].

Parte IV. Para la prueba sobre los anuladores se debe demostrar que los polinomios qu1 (x), . . . , qur (x)
encontrados anteriormente son precisamente los anuladores de los elementos v1 , . . . , vr respectivamente.

El caso i = 1 ya lo consideramos en el Paso 1 de la Parte III. Sea i ≥ 2, sabemos que el polino-


mio mı́nimo de vi relativo a Wi−1 coincide con qui (x), luego qui (T )(vi ) ∈ Wi−1 , pero según (6.4),
qui (T )(vi ) = 0, luego qui (x) es múltiplo del polinomio anulador de vi .

Sea qvi (x) el polinomio anulador de vi , entonces qvi (T )(vi ) = 0 ∈ Wi−1 , luego qvi (x) es múltiplo
de el polinomio mı́nimo de vi relativo a Wi−1 , es decir, es múltiplo de qui (x). Hemos pues demostrado
que qui (x) = polinomio anulador de vi = qvi (x).

Parte V. Veamos la prueba de la parte b). qvi (T )(vi ) = 0, para cada 1 ≤ i ≤ r. Luego,

qvi+1 (T )(vi+1 ) = 0 = qv1 (T )(v1 ) + · · · + qvi (T )(vi ) =


qv1 (T )(u1 ) + qv2 (T )(u2 − w1 ) + · · · + qvi (T )(ui − wi−1 ) =
qv1 (T )(u1 ) + · · · + qvi (T )(ui ) + w,

donde w1 ∈ W1 , . . . , wi−1 ∈ Wi−1 y w ∈ Wi−1 ⊂ Wi . Pero entonces w pertenece a [vi+1 ] ∩ Wi = 0. En


total

qvi+1 (T )(vi+1 ) = qv1 (T )(u1 ) + · · · + qvi (T )(ui ),

luego razonando como en la Parte II se tiene que qvi+1 (x) | qvj (x) para cada 1 ≤ j ≤ i. Esto completa
la prueba de la parte b).

Parte VI. Ahora vamos a demostrar la parte c). Sea qT (x) el polinomio mı́nimo de T, entonces
sabemos que qT (x) es múltiplo de qv1 (x).

De otra parte, según la Parte V, qvi (x) |qv1 (x) para cada 1 ≤ i ≤ r. Existen entonces polinomios
mi (x) tales que qv1 (x) = mi (x)qvi (x). Sea v un vector cualquiera de V , entonces existen polinomios
si (x) tales que

v = s1 (T )(v1 ) + · · · + sr (T )(vr ),
qv1 (T )(v) = s1 (T )(m1 (T )qv1 (T )(v1 )) + · · · + sr (T )(mr (T )qvr (T )(vr )) = 0,

por lo tanto qv1 (T ) = 0, de donde qv1 (x) es múltiplo de qT (x).

Parte VII. Solo resta probar la parte relativa a la unicidad. Sean w1 , . . . , ws vectores no nulos
con anuladores qw1 (x) , . . . , qws (x) tales que se cumplen las condiciones a) y b) del enunciado del
teorema.

Paso 1. qv1 (x) = qw1 (x) : Basta probar que qw1 (x) = qT (x). Pero esta prueba es idéntica a la
que realizamos en la Parte VI.

Paso 2. Supongamos inductivamente que qvi (x) = qwi (x) para 1 ≤ i ≤ k − 1, donde k ≤ r. Puesto
que k − 1 < r, entonces [v1 ] ⊕ · · · ⊕ [vk−1 ] es un subespacio propio de V , con lo cual

dim([v1 ]) + · · · + dim([vk−1 ]) < dim(V ),


98 CAPÍTULO 6. FORMAS CANÓNICAS

pero como qvi (x) = qwi (x) para 1 ≤ i ≤ k − 1, entonces dim([vi ]) = dim([wi ]) y por lo tanto
dim([w1 ]) + · · · + dim([wk−1 ]) < dim(V ) y por lo tanto k − 1 < s, es decir, k ≤ s. Esto al menos
indica que la pregunta sobre la igualdad de qvk (x) y qwk (x) tiene sentido.

Paso 3. Probemos inicialmente que qwk (x) | qvk (x).

qvk (T )(V ) = qvk (T )([v1 ] ⊕ · · · ⊕ [vr ]) =


qvk (T )([v1 ]) ⊕ · · · ⊕ qvk (T )([vr ]) =
[qvk (T )(v1 )] ⊕ · · · ⊕ [qvk (T )(vr )];

para j ≥ k , qvk (x) es múltiplo de qvj (T ) luego la suma anterior se reduce a

qvk (T )(V ) = [qvk (T )(v1 )] ⊕ · · · ⊕ [qvk (T )(vk−1 )]. (6.5)

Por otro lado,

qvk (T )(V ) = qvk (T )([w1 ] ⊕ · · · ⊕ [ws ]) =


[qvk (T )(w1 )] ⊕ · · · ⊕ [qvk (T )(wk−1 )] ⊕ [qvk (T )(wk )] ⊕ · · · ⊕ [qvk (T )(ws )], (6.6)

pero como qvi (x) = qwi (x) para 1 ≤ i ≤ k − 1, entonces se puede probar facilmente que los polinomios
anuladores de qvk (T )(vi ) y qvk (T )(wi ) también son iguales y en consecuencia dim([qvk (T )(vi )]) =
dim([qvk (T )(wi )]). Aplicando esto a (6.5) y (6.6) se obtiene que

0 = [qvk (T )(wk )] ⊕ · · · ⊕ [qvk (T )(ws )],

de donde [qvk (T )(wj )] = 0 para k ≤ j ≤ s, en cosecuencia, qvk (T )(wj ) = 0, de manera que qvk (x) es
múltiplo de qwj (x) para cada k ≤ j ≤ s, en particular qvk (x) es múltiplo de qwk (x).

Podemos repetir todo el razonamiento anterior y probar también que qwk (x) es múltiplo de qvk (x).

Paso 4. Por lo anterior resulta imposible que r 6= s, ya que según vimos k ≤ r si y sólo si k ≤ s.

6.6. Forma Canónica Racional


Recordemos que dos matrices rectangulares son equivalentes si y sólo si tienen el mismo rango (véase
el Corolario 4 del Capı́tulo 3). Sin embargo, esto no es necesariamente cierto para matrices cuadradas
mediante similaridad. La forma canónica racional que estudiaremos en la presente lección permite cla-
sificar las matrices cuadradas por similaridad en términos de de sus factores invariantes.

Sea p(x) = a0 + a1 x + · · · + an−1 xn−1 + xn un polinomio mónico de grado n ≥ 1 de K[x]. La


matriz
 
0 0 ··· 0 −a0
 1 0 ··· 0 −a1 
 
 0 1 ··· 0 −a2 
 
 .. .. .. .. .. 
 . . . . . 
0 0 ··· 1 −an−1

se conoce con el nombre de matriz compañera del polinomio p(x). Si p(x) = a + x es de grado 1,
entonces la matriz compañera de p(x) se define como la matriz [a] de tamaño 1 × 1. La siguiente
proposición muestra una conexión entre este concepto y el concepto de vector cı́clico presentado en la
lección inmediatamente anterior.
6.6. FORMA CANÓNICA RACIONAL 99

Proposición 6.10. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1.


Entonces, T tiene un vector cı́clico si y sólo si existe una base X en V tal que mX (T ) es la matriz
compañera del polinomio mı́nimo de T .
Demostración: ⇒) Sea v un vector cı́clico de T , entonces de acuerdo a las propiedades estudiadas en
la lección anterior, X = {v, T (v), . . . , T n−1 (v)} es una base de V y la matriz de T en dicha base es
 
0 0 ··· 0 −a0
 1 0 ··· 0 −a1 
 
 0 1 ··· 0 −a2 
 ,
 .. .. .. .. .. 
 . . . . . 
0 0 ··· 1 −an−1
donde a0 + a1 x + · · · + an−1 xn−1 + xn = qT (x) = pT (x) = qv (x)

⇐) Sea X = {v1 , . . . , vn } una base de V tal que mX (T ) es la matriz compañera del polinomio mı́nimo
de T , qT (x) = a0 +a1 x+· · ·+ak−1 xk−1 +xk , se tiene entonces necesariamente que k = n, y además, v2 =
T (v1 ), v3 = T (v2 ) = T 2 (v1 ), . . . , vn = T (vn−1 ) = T n−1 (v1 ), es decir, {v1 , T (v1 ), T 2 (v1 ), . . . , T n−1 (v1 )}
es una base de V , con lo cual, V =< v1 , T (v1 ), T 2 (v1 ), . . . , T n−1 (v1 ) >⊆ [v1 ] y v1 es un vector cı́clico
de T . 

Corolario 6.5. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1, y sea


v 6= 0 un vector de V. Sea [v]T el subespacio cı́clico generado por el vector v y T[v] la restricción de T
a [v]T . Entonces, v es un vector cı́clico de T[v] y existe una base X en [v]T tal que la matriz de T[v]
en dicha base es la matriz compañera de qv (x).
Demostración: Sabemos que
[v]T[v] = {p(T[v] )(v) | p(x) ∈ K[x]} = {p(T )(v) | p(x) ∈ K[x]} = [v],
es decir, v es un vector cı́clico de T[v] . Según la Proposición 10, existe una base X en [v]T tal que la
matriz de T[v] en dicha base es la compañera del polinomio mı́nimo de T[v] . Pero sabemos que dicho
polinomio coincide con qv (x).

Proposición 6.11. Sea A una matriz cuadrada de orden n ≥ 1. Si A es la matriz compañera de un


polinomio mónico p(x), entonces p(x) es el polinomio mı́nimo y caracterı́stico de la matriz A.
Demostración: Sea
 
0 0 ··· 0 −a0
 1 0 ··· 0 −a1 
 
 0 1 ··· 0 −a2 
A= 
 .. .. .. .. .. 
 . . . . . 
0 0 · · · 1 −an−1
la matriz compañera del polinomio p(x) = a0 + a1 x + · · · + an−1 xn−1 + xn . A representa la matriz
de una cierta transformación T de K n en la base canónica X = {e1 , . . . , en }(véase el paso 2 de la
demostración del Teorema 1 del Capı́tulo 3). Entonces,
.
T (e1 ) = e2 , T (e2 ) = e3 = T 2 (e1 ) .. T (en−1 ) = en = T n−1 (e1 ),
es decir, X = {e1 , T (e1 ), . . . , T n−1 (e1 )}, con lo cual, K n =< e1 , T (e1 ), . . . , T n−1 (e1 ) >⊆ [e1 ], y e1
resulta ser un vector cı́clico de T . Entonces, por las propiedades de los vectores cı́clicos estudiadas en la
lección anterior se tiene que qT (x) = pT (x) = qe1 (x). Pero sabemos que qT (x) = qA (x) y pT (x) = pA (x).
Hemos probado que qe1 (x) = qA (x) = pA (x). Además,
100 CAPÍTULO 6. FORMAS CANÓNICAS

T (en ) = T n (e1 ) = −a0 .e1 − a1 .e2 − · · · − an−1 .en = −a0 .e1 − a1 .T (e1 ) − · · · − an−1 .T n−1 (e1 ),
es decir, a0 .e1 + a1 .T (e1 ) + · · · + an−1 .T n−1 (e1 ) + T n (e1 ) = 0, lo cual indica que el polinomio p(x) =
a0 + a1 x + · · · + an−1 xn−1 + xn es múltiplo de qe1 (x), y por razones de grado se tiene la igualdad
p(x) = qe1 (x). 

Ya podemos definir los conceptos de transformación lineal racionalizable y matriz racionalizable.

Definición 6.7. Sea A una matriz cuadrada de orden n ≥ 1, se dice que A es una matriz racional o
matriz de Frobenius si existen polinomios mónicos no constantes p1 (x), . . . , pr (x) ∈ K[x], 1 ≤ r ≤ n,
tales que pi+1 (x) | pi (x) para cada 1 ≤ i ≤ r − 1 y A es de la forma
 
A1 · · · 0
 .. . . ..  ,
 . . .  (6.7)
0 ··· Ar

donde el bloque Ai es la matriz compañera del polinomio pi (x) , 1 ≤ i ≤ r. Los polinomios pi (x) se
conocen como los factores invariantes de la matriz A. Nótese que el orden de Ai es igual al grado del
polinomio pi (x), además, por el Corolario 3 y la Proposición 11, se tiene que pA (x) = p1 (x) · · · pr (x),
qA (x) = m.c.m{p1 (x), . . . , pr (x)} = p1 (x). Una matriz B se dice racionalizable si B es similar a una
matriz racional. Finalmente, sea T : V → V una transformación lineal de un espacio V de dimensión
n ≥ 1, se dice que T es racionalizable si existe una base X en V tal que la matriz de T en dicha base
es una matriz racional.
De manera inmediata se tiene el siguiente corolario.
Corolario 6.6. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1 y sea
X una base cualquiera de V . Entonces, T es racionalizable si y sólo si mX (T ) es racionalizable.
Teorema 6.6. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1.
Entonces, existe una base X en V tal que mX (T ) es racional. En otras palabras, toda transformación
lineal de un espacio V de dimensión n ≥ 1 es racionalizable. También, toda matriz A de orden n ≥ 1
es racionalizable.
Demostración: Según el Teorema de Descomposición Cı́clica, existen vectores no nulos v1 , . . . , vr ∈ V
con polinomios anuladores qv1 (x), . . . , qvr (x) tales que
V = [v1 ] ⊕ · · · ⊕ [vr ]
y qvi+1 (x) | qvi (x) para cada 1 ≤ i ≤ r − 1. Puesto que los vectores vi son no nulos, entonces los poli-
nomios qvi (x) no son constantes. Teniendo en cuenta que los subespacios [vi ] son invariantes, podemos
aplicar el Corolario 5 de la Lección 6 y la Proposición 7 para completar la prueba del teorema.

Nótese que por el Teorema de Descomposición Cı́clica, existe un vector v1 en V tal que qv1 (x) coincide
con el polinomio mı́nimo de T. Esta observación y el hecho que dim([v1 ])=grado(qv1 (x)), permite
entonces sacar las siguientes conclusiones.
Corolario 6.7. Sea T : V → V una transformación lineal de un espacio V de dimensión n ≥ 1.
Entonces,
a) Existe un vector v1 en V tal que qv1 (x) coincide con el polinomio mı́nimo de T.
b) T tiene un vector cı́clico si y solo si pT (x) = qT (x).
Las mismas afirmaciones son válidas para matrices.
6.6. FORMA CANÓNICA RACIONAL 101

Ejericicio 6.6. Determine si la matriz


 
2 0 0
A= 0 2 0 
0 0 −1

tiene vectores cı́clicos.

Para terminar queremos considerar el problema de similaridad de matrices en términos de los fac-
tores invariantes.

Proposición 6.12. Toda matriz cuadrada B de orden n ≥ 1 es similar a una y sólo una matriz
racional de la forma 6.7 descrita arriba. Los polinomios mónicos p1 (x), . . . , pr (x) se conocen como los
factores invariantes de la matriz B.

Demostración: Sea Y la base canónica de K n y T : K n → K n una transformación lineal tal que B es


la matriz de T en la base Y . Sea A una matriz racional de la forma 6.7 similar a la matriz B. Existe
entonces una base X en K n tal que A = mX (T ). Queremos demostrar que entonces K n tiene una
descomposición cı́clica en la forma

K n = [v1 ] ⊕ · · · [vr ]

En efecto, si la matriz racional A tiene un solo bloque, entonces según la Proposición 11 y el Corolario
7, T tiene un vector cı́clico y ası́ K n = [v]. Si el número de bloques de A es r ≥ 2, entonces de acuerdo
a la Proposición 7, K n se descompone en la forma

K n = W1 ⊕ · · · ⊕ Wr ,

de tal manera que si Ti es la restricción de T a Wi y Xi es una base de Wi , el bloque Ai de A es


Ai = mXi (Ti ). Aplicando nuevamente la Proposición 11 y el Corolario 7, se tiene que Wi tiene un
vector cı́clico no nulo vi , de donde Wi = [vi ], 1 ≤ i ≤ r. Esto completa la prueba de la descomposición
enunciada arriba.

Una consecuencia inmediata de esta afirmación es el siguiente corolario.

Corolario 6.8. Dos matrices cuadradas son similares si y sólo si tienen la misma forma canónica
racional, es decir, si y sólo si tienen los mismos factores invariantes.

Ejericicio 6.7. Sea p(x) = a0 + a1 x + · · · + an−1 xn−1 + xn un polinomio mónico de grado n ≥ 1 y


sea A su matriz compañera. Demuestre que xE − A es equivalente a la matriz
 
p(x) 0 ··· 0
 0 1 ··· 0 
 
 .. .. .. .. 
 . . . . 
0 0 ··· 1

(Para este ejercicio considere operaciones elementales en el conjunto de matrices con entradas en
el anillo de polinomios K[x]. La segunda operación elemental debe entenderse en este caso como
multiplicación por un polinomio constante no nulo).

Ejericicio 6.8. Sea A una matriz de grado n ≥ 1 con entradas en un cuerpo K, y sean p1 (x), . . . , pr (x)
sus factores invariantes. Utilizando el Ejercicio 7 demuestre que la matriz xE − A es equivalente a la
matriz
102 CAPÍTULO 6. FORMAS CANÓNICAS
 
p1 (x) 0 ··· ··· ··· ··· 0
 0 p2 (x) ··· ··· ··· ··· 0 
 
 .. .. .. .. .. .. .. 
 . . . . . . . 
 
 .. .. .. .. .. .. 
 . . . pr (x) . . . 
 
 .. .. .. .. .. .. 
 . . . . 1 . . 
 
 .. .. .. .. .. .. .. 
 . . . . . . . 
0 0 ··· ··· ··· ··· 1

Solución: Sabemos que A es racionalizable, por lo tanto existe una matriz invertible C tal que
 
A1 · · · 0
−1  .. . . .. 
C AC =  . . . 
0 ··· Ar

donde Ai es la compañera de pi (x), 1 ≤ i ≤ r. Entonces, C −1 (xE − A)C = xE − C −1 AC, es decir,


 
xE − A1 · · · 0
−1  .. . . .. 
C (xE − A)C =  . . . 
0 ··· xE − Ar
Según el ejercicio anterior, xE − Ai es equivalente a la matriz
 
pi (x) · · · 0
 .. . . .. 
 . . . 
0 ··· 1
por lo tanto la matriz xE − A es equivalente a la matriz
 
p1 (x) 0 ··· ··· ··· ··· 0
 0 p2 (x) ··· ··· ··· ··· 0 
 
 .. .. .. .. .. .. .. 
 . . . . . . . 
 
 .. .. .. .. .. .. 
 . . . pr (x) . . . 
 
 .. .. .. .. .. .. 
 . . . . 1 . . 
 
 .. .. .. .. .. .. .. 
 . . . . . . . 
0 0 ··· ··· ··· ··· 1
Notemos que el polinomio caracterı́stico de A es el producto de sus factores invariantes, es decir,
pA (x) = det (xE − A) = p1 (x) · · · pr (x).

Ejericicio 6.9. Calcular los factores invariates y la forma canónica racional de la matriz
 
3 −4 −4
A =  −1 3 2 
2 −4 −3
Además, calcular una matriz racionalizante C.

Solución: Para calcular los factores invariantes, aplicamos el método expuesto en el ejercicio anterior,
es decir, realizamos operaciones elementales sobre la matriz caracterı́sitica xE − A:
6.6. FORMA CANÓNICA RACIONAL 103

   
x−3 4 4 1 x−3 −2
xE − A =  1 x−3 −2  →  x − 3 4 4 →
−2 4 x+3 −2 4 x+3
 
1 x−3 −2
 0 − (x − 5) (x − 1) 2x − 2  →
0 2x − 2 x − 1
 
1 0 0
 0 − (x − 5) (x − 1) 2 (x − 1)  →
0 2 (x − 1) x−1
   
1 0 0 1 0 0
 0 − (x − 1) 2
0  →  0 − (x − 1)
2
0 →
0 2 (x − 1) x − 1 0 0 x−1
 2

(x − 1) 0 0
 0 x−1 0 
0 0 1

2
Por lo tanto, p1 (x) = qA (x) = (x − 1) = x2 − 2x + 1, y p2 (x) = (x − 1). La forma racional de A es
entonces
 
0 −1 0
R= 1 2 0 
0 0 1

Veamos ahora como calcular la matriz racionalizante C: según el Teorema de Descomposición Cı́clica se
tiene que R3 = [v1 ]⊕[v2 ], donde v1 es un vector tal que {v1 , Av1 } sean LI pero {v1 , Av1 , A2 v1 } sean LD.
Se puede comprobar que e1 satisface estas dos condiciones de tal forma que {(1, 0, 0) , Ae1 = (3, −1, 2)}
es una base de [v1 ]. Para v2 se debe tener que dim[v2 ] = 1 y v2 ∈ / [v1 ], es decir, v2 es un vector propio
tal que {e1 , Ae1 , v2 } sean LI: los vectores propios son {(2, 1, 0) , (2, 0, 1)}, notemos que
 
1 3 2
rank  0 −1 1  = 3
0 2 0

Entonces v2 = (2, 1, 0) y la matriz C es entonces


 
1 3 2
C= 0 −1 1 
0 2 0

En efecto,
 −1     
1 3 2 3 −4 −4 1 3 2 0 −1 0
 0 −1 1   −1 3 2  0 −1 1  =  1 2 0 =R
0 2 0 2 −4 −3 0 2 0 0 0 1

Ejericicio 6.10. En este ejercicio mostramos otro procedimiento para calcular los factores invariantes
de una matriz (la justificación teórica de este procedimiento se puede consultar en N. Jacobson, Basic
Algebra, Freeman, San Francisco, 1974 o también en A. Maltsev, Fundamentos de Algebra Lineal,
Mir, Moscú,1978 ):
104 CAPÍTULO 6. FORMAS CANÓNICAS

 
4 1 1 1
 −1 2 −1 −1 
A=
 6

1 −1 1 
−6 −1 4 2

Solución:

Paso 1 . Definimos la matriz caracterı́stica de A, es decir,

 
z−4 −1 −1 −1
 1 z−2 1 1 

Az =  
−6 −1 z+1 −1 
6 1 −4 z−2

Paso 2 . Calculamos siguientes polinomios determinantes:

D1 (z) = m.c.d de los polinomios que resultan de calcular los determinantes de todas las subma-
trices de Az de tamaño 1 × 1.

D2 (z) = mcd de de los polinomios que resultan de calcular los determinantes de todas las
submatrices de Az de tamaño 2 × 2.

..
.

Dn (z) = mcd de de los polinomios que resultan de calcular los determinantes de todas las
submatrices de Az de tamaño n × n = pA (z).

Para la matriz Az de nuestro ejemplo se tiene que

D1 (z) = 1

 
−1 −1
D2 (z) = 1, ya que det =5
1 −4

D3 (z) = z − 3. En efecto, se deben calcular los determinantes de las siguientes 16 submatrices:


6.6. FORMA CANÓNICA RACIONAL 105
   
z−4 −1 −1 z − 4 −1 −1
 1 z−2 1 , 1 z − 2 1 ,
−6 −1 z + 1 −6 −1 −1
   
z − 4 −1 −1 −1 −1 −1
 1 1 1 , z − 2 1 1 ,
−6 z + 1 −1 −1 z + 1 −1
   
z − 4 −1 −1 z−4 −1 −1
 1 z − 2 1 , 1 z−2 1 ,
6 1 −4 6 1 z−2
   
z − 4 −1 −1 −1 −1 −1
 1 1 1 , z − 2 1 1 ,
6 −4 z − 2 1 −4 z − 2
   
z − 4 −1 −1 z − 4 −1 −1
 −6 −1 z + 1  ,  −6 −1 −1  ,
6 1 −4 6 1 z−2
   
z − 4 −1 −1 −1 −1 −1
 −6 z + 1 −1  ,  −1 z + 1 −1  ,
6 −4 z − 2 1 −4 z − 2
   
1 z−2 1 1 z−2 1
 −6 −1 z + 1  ,  −6 −1 −1  ,
6 1 −4 6 1 z−2
   
1 1 1 z−2 1 1
 −6 z + 1 −1  ,  −1 z + 1 −1  .
6 −4 z − 2 1 −4 z − 2

Presentados en orden inverso y calculados con SWP, se tiene que:

determinant: z 3 − 3z 2 − 4z + 12 = (z − 3) (z + 2) (z − 2)
determinant: z 2 − z − 6 = (z + 2) (z − 3)
determinant: 6z 2 − 31z + 39 = (6z − 13) (z − 3)
determinant: 6z 2 − 31z + 39 = (6z − 13) (z − 3)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: 6z 2 − 31z + 39 = (6z − 13) (z − 3)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z 2 − z − 6 = (z + 2) (z − 3)
determinant: z 2 − z − 6 = (z + 2) (z − 3) 
determinant: 26z − 8z 2 + z 3 − 33 = (z − 3) z 2 − 5z + 11
determinant: 29z − 4z 2 − 51 = (3 − z) (4z − 17)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z − z 2 + 6 = (z + 2) (3 − z)
determinant: z 3 − 5z 2 − 2z + 24 = (z − 3) (z − 4) (z + 2).

Se observa entonces que el m.c.d es (z − 3).


3
D4 (z) = pA (z) = (z + 2) (z − 3)
106 CAPÍTULO 6. FORMAS CANÓNICAS

Paso 3 . Calculamos los factores invariantes de la siguiente manera:

D4 (z) 2
q1 (z) = = (z + 2) (z − 3) = z 3 − 4z 2 − 3z + 18 = qA (z)
D3 (z)
D3 (z)
q2 (z) = = (z − 3)
D2 (z)
D2 (z)
q3 (z) = =1
D1 (z)
q4 (z) = D1 (z) = 1
Ejericicio 6.11. En este ejercicio mostramos la matriz C que racionaliza la matriz del ejercicio
anterior.
Solucion: Según el ejercicio anterior, la forma canónica racional de A es:
 
0 0 −18 0
 1 0 3 0 
B=  0 1

4 0 
0 0 0 3
Veamos como calcular C tal que C −1 AC = B. Aplicamos el Teorema de Descomposición Cı́clica:
R4 = [v1 ] ⊕ [v2 ], donde dim [v1 ] = 3, es decir, buscamos un vector v1 tal que {v1 , Av1 , A2 v1 } sean
L.I. pero {v1 , Av1 , A2 v1 , A3 v1 } sean LD. Se puede comprobar que v1 = e1 = (1, 0, 0, 0) satisface estas
condiciones. Para v2 se puede tomar un vector tal que dim ([v2 ]) = 1 y tal que v2 ∈ / [v1 ], es decir, v2 es
un vector propio correspondiente al valor propio 3 y tal que

rank {v1 , Av1 = (4, −1, 6, −6) , A2 v1 = (15, −6, 11, −11) , v2 } = 4:
   

 0 
 
 0 1 

   
0 −1 −2
eigenvectors : ↔ −2, , ↔3

 −1  
 0 1 

   
1 1 0

Nótese que  
1 4 15 0
 0 −1 −6 −1 
rank 
 0
=4
6 11 0 
0 −6 −11 1
Resulta entonces que
 −1     
1 4 15 0 4 1 1 1 1 4 15 0 0 0 −18 0
 0 −1 −6 −1   −1 2 −1 −1   0 −1 −6 −1   1 0 3 0 
    = 
 0 6 11 0   6 1 −1 1  0 6 11 0   0 1 4 0 
0 −6 −11 1 −6 −1 4 2 0 −6 −11 1 0 0 0 3

6.7. Forma Canónica de Jordan


Iniciamos la última lección del presente capı́tulo con una versión completa del teorema de Hamilton-
Cayley, el cual ya habı́amos considerado antes. Esta nueva versión será usada para la forma canónica de
Jordan que estudiaremos ahora. La forma de Jordan utiliza todo el material estudiado en los capı́tulos
precedentes.
6.7. FORMA CANÓNICA DE JORDAN 107

Teorema 6.7. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita


n ≥ 1. Sean qT (x) y pT (x) los polinomio mı́nimo y polinomio caracterı́stico de T , respectivamente.
Entonces, qT (x) | pT (x). Más exactamente, si

qT (x) = q1 (x)r1 · · · qk (x)rk

es la descomposición irreducible de qT (x), 1 ≤ ri ≤ n, 1 ≤ i ≤ k, 1 ≤ k ≤ n, entonces

pT (x) = q1 (x)d1 · · · qk (x)dk

donde
dim N [qi (T )ri ]
di = ,
gr(qi (x))
para cada 1 ≤ i ≤ k. En otras palabras, qT (x) y pT (x) tienen los mismos factores irreducibles salvo
multiplicidades. Además, si F es un cuerpo que contiene al cuerpo K, entonces

a ∈ F es raı́z de qT (x) si y sólo si a es raı́z de pT (x).

Demostración: Según el Teorema de Descomposición Cı́clica, existen vectores no nulos v1 , . . . , vr ∈ V


con polinomios anuladores qv1 (x), . . . , qvr (x) tales que

V = [v1 ] ⊕ · · · ⊕ [vr ]

qv1 (x) = qT (x), qvi+1 (x) | qvi (x) para cada 1 ≤ i ≤ r − 1. Sea Ti la restricción de T a [vi ]. Sabemos
que para cada i, qTi (x) = pTi (x) = qvi (x) (véase el Corolario 5); además, pT (x) = qT1 (x) · · · qTr (x), de
donde qT (x) | pT (x).

Sea ahora s(x) un divisor irreducible de qT (x), entonces s(x) es también un factor de pT (x). De
otro lado, sea r(x) un factor irreducible de pT (x) = qT1 (x) · · · qTr (x), entonces existe un i tal que
r(x) | qTi (x), luego r(x) | qT1 (x), es decir, r(x) | qT (x).

Consideremos ahora la descomposición irreducible (véase el Teorema 4):

V = W1 ⊕ · · · ⊕ Wk , Wi = N (qi (T )ri ), 1 ≤ i ≤ k.

Sea Si la restriccion de T al subespacio Wi ; sabemos entonces que qSi (x) = qi (x)ri , luego pSi (x) =
qi (x)di con algún di ≥ ri . Esto garantiza que pT (x) = q1 (x)d1 . . . qk (x)dk . Se tiene además que

gr(qi (x)di ) gr(pSi (x)) dim(Wi ) dim N [qi (T )ri ]


di = = = =
gr(qi (x)) gr(qi (x)) gr(qi (x)) gr(qi (x))
La última afirmación del teorema es consecuencia directa de lo que hemos probado.

Definición 6.8. Pasamos ahora a definir las celdas, bloques y matrices de Jordan. Sea K un cuerpo
cualquiera y a un elemento de K, la matriz
 
a 0 ··· 0 0
 1 a ··· 0 0 
 
 .. .. . . .. .. 
Ja,r = 
 . . . . . 

 . . .. . .. 
.
 . . . . .. . 
0 0 ··· 1 a
de orden r ≥ 1 se denomina celda o bloque elemental de Jordan de orden r correspondiente al elemento
a. El caso r = 1 debe entenderse como la matriz [a] de tamaño 1 × 1. La matriz Ja con t ≥ 1 celdas
de Jordan, Ja,r1 , Ja,r2 , . . . , Ja,rt de órdenes r1 ≥ r2 ≥ · · · ≥ rt ,
108 CAPÍTULO 6. FORMAS CANÓNICAS
 
Ja,r1 ··· 0
 .. .. .. 
Ja =  . . . ,
0 Ja,rt

se denomina bloque de Jordan correspondiente al elemento a. Sean a1 , . . . , ak elementos diferentes


pertenecientes al cuerpo K, k ≥ 1, la matriz
 
Ja1 ··· 0
 .. .. ..  ,
 . . . 
0 ··· Jak

donde Jai es un bloque de Jordan correspondiente al valor ai se denomina matriz de Jordan corres-
pondiente a los elementos a1 , . . . , ak .

Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita n ≥ 1. Se dice


que T es diagonalizable en bloques de Jordan si existe una base X en el espacio V tal que mX (T ) es
una matriz de Jordan. Finalmente, decimos que una matriz cuadrada A de orden n ≥ 1 es diagonali-
zable en bloques de Jordan si A es similar a una matriz de Jordan.

Corolario 6.9. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita


n ≥ 1 y X una base de V . Entonces, T es diagonalizable en bloques de Jordan si y sólo si mX (T ) es
diagonalizable en bloques de Jordan.

Nuestro objetivo ahora es demostrar que toda transformación (matriz) sobre un cuerpo algebraicamente
cerrado es diagonalizable en bloques de Jordan. Podemos comenzar demostrando este resultado para
matrices y transformaciones nilpotentes sobre cualquier cuerpo K. Una transformación T (matriz A)
es nilpotente si existe un entero positivo m ≥ 1 tal que T m = 0 (Am = 0); el menor entero positivo m
con esta condición se denomina red ı́ndice de nilpotencia de T (de A).

Proposición 6.13. Sea N : W → W una transformación lineal nilpotente de un espacio W de


dimensión finita d ≥ 1. Entonces existe una base X en W tal que
 
M1 · · · 0
 ..  ,
mX (N ) =  ... ..
. . 
0 ··· Mt

donde
 
0 0 ··· 0 0
 1 0 ··· 0 0 
 
 .. .. .. .. .. 
Mi =  . . . . . 
 
 0 0 ··· 0 0 
0 0 ··· 1 0

es un bloque elemental de Jordan de orden si perteneciente al valor 0 de tal manera que se cumplen
las siguientes propiedades: s1 ≥ s2 ≥ · · · ≥ st ≥ 1, s1 + · · · + st = d y s1 = ı́ndice de nilpotencia de N .

Demostración: Nótese si s1 es el ı́ndice de nilpotencia de la transformación N , entonces el polinomio


mı́nimo de N es xs1 . Podemos aplicar entonces el Teorema de Descomposición Cı́clica y encontrar
vectores no nulos w1 , . . . , wt con polinomios anuladores qwi (x) = xsi , 1 ≤ i ≤ t de tal forma que
s1 ≥ s2 ≥ · · · ≥ st ≥ 1 y W tiene la descomposición

W = [w1 ] ⊕ · · · ⊕ [wt ].
6.7. FORMA CANÓNICA DE JORDAN 109

La matriz compañera de qwi (x) = xsi es un bloque elemental de Jordan Mi de orden sSi perteneciente
t
al valor 0, además si Xi es una base de [wi ], entonces la matriz de N en la base X = i=1 Xi es
 
M1 ··· 0
 .. .. ..  .
mX (N ) =  . . . 
0 ··· Mt

De acuerdo al Teorema de descomposición cı́clica, s1 ≥ s2 ≥ · · · ≥ st ≥ 1, s1 + · · · + st = d y s1 =


ı́ndice de nilpotencia de N. Esto completa la prueba de la proposición.

El Teorema de descomposición cı́clica garantiza que el valor t esúnico para N ; veamos que

t = dim(ker(N )).

La idea es probar que {N s1 −1 (w1 ), · · · , N st −1 (wt )} es una base del núcleo de N . Si w ∈ ker(N ),
entonces w = u1 + · · · + ut donde ui es un elemento de [wi ], 1 ≤ i ≤ t. Entonces,

w = g1 (N )(w1 ) + · · · + gt (N )(wt )

donde el grado de gi (x) se puede tomar inferior a si . Entonces, N (w) = 0, y por la invariancia de [wi ]
y la suma directa, se concluye que gi (N )N (wi ) = 0. Esto implica que xsi divide a gi (x)x, pero por la
escogencia del grado de gi (x) se tiene que gi (x)x = bi xsi , bi ∈ K. Por lo tanto, gi (x) = bi xsi −1 , y en
consecuencia,

w = b1 N s1 −1 (w1 ) + · · · + bt N st −1 (wt ).

La independencia lineal es consecuencia de la invariancia de [wi ], de la suma directa y de que xsi es el


polinomio anulador de wi . 

Teorema 6.8. Sea T : V → V una transformación lineal de un espacio V de dimensión finita n ≥ 1


tal que el polinomio caracterı́stico de T se descompone completamente en K en producto de factores
lineales (este es el caso cuando K es algebraicamente cerrado). Entonces, T es diagonalizable en bloques
de Jordan. Recı́procamente, si T es diagonalizable en bloques de Jordan, entonces pT (x) se descompone
completamente en K en producto de factores lineales.

Demostración: Sea

pT (x) = (x − a1 )d1 · · · (x − ak )dk

la factorización completa en el cuerpo K del polinomio caracterı́stico de T , donde a1 , . . . , ak son


elementos diferentes en K, 1 ≤ di ≤ n, 1 ≤ i ≤ k, 1 ≤ k ≤ n. Según el Teorema de Hamilton-Cayley el
polinomio mı́nimo de T tiene la siguiente descomposición:

qT (x) = (x − a1 )r1 · · · (x − ak )rk ,

donde 1 ≤ ri ≤ di , 1 ≤ i ≤ k. Por el Teorema de Descomposición Irreducible se tiene para V la


siguiente descomposición:

V = W 1 ⊕ · · · ⊕ Wk ,

donde Wi = ker [(T − ai I)ri ] , 1 ≤ i ≤ k. Consideremos las transformaciones lineales inducidas Ti =


T |Wi ; recuérdese que el polinomio mı́nimo de Ti es (x − ai )ri . Para cada 1 ≤ i ≤ k considérese la
transformación
110 CAPÍTULO 6. FORMAS CANÓNICAS

Ni = Ti − ai I : Wi → Wi .

Nótese que Ni es nilpotente de ı́ndice ri y el polinomio mı́nimo de Ni es xri . Por el Teorema de


Hamilton-Cayley, dim(Wi ) = di , para cada 1 ≤ i ≤ k.

Podemos ahora aplicar la Proposición 13 y encontrar una base Xi en Wi para la cual se tiene la
siguiente presentación:
 
Mi1 · · · 0
 .. .. .. 
mXi (Ni ) =  . . . ,
0 ··· Miti

donde Mij es un bloque elemental de Jordan de tamaño sij correspondiente al valor 0 y de tal forma
que

si1 ≥ si2 ≥ · · · ≥ siti ≥ 1 , si1 + si2 + · · · + siti = di , si1 = ri . (1)


Sk
La reunión X = i=1 Xi es una base de V para la cual se tiene la siguiente representación de V :
 
mX1 (T1 ) · · · 0
 .. .. .. 
mX (T ) =  . . . .
0 ··· mXk (Tk )

Pero mXi (Ti ) = mXi (Ni ) + mXi (ai I), con lo cual mXi (Ti ) es un bloque de Jordan correspondiente
al valor ai de tamaño di y dividido en ti bloques elementales de Jordan correspondientes al valor ai
con tamaños que satisfacen la condición (1). Esto completa la prueba de la diagonalización de T en
bloques de Jordan.

Podemos complementar el resultado del teorema mostrando que el número ti de bloques elementa-
les de Jordan correspondientes al valor ai viene dado por

ti = dim(E(ai )).

En efecto, según la demostración de la Proposición 13,

ti = dim(ker(Ni )) = dim(ker(Ti − ai I)) ,

pero se puede probar facilmente que ker(Ti − ai I) = ker(T − ai I).

La última afirmación del teorema es cierta ya que matrices similares tienen el mismo polinomio carac-
terı́stico. 

Como consecuencia directa del teorema anterior, del Teorema de Hamilton-Cayley y del Teorema 2, se
obtiene en forma inmediata el siguiente corolario.
Corolario 6.10. Sea T : V → V una transformación lineal de un K-espacio V de dimensión finita
n ≥ 1. Entonces, T es diagonalizable en bloques de Jordan si, y sólo si, T es triangulable.
Ejemplo 6.1. En este ejemplo mostramos una matriz invertible C tal que C −1 AC es una matriz de
Jordan, donde
 
4 1 1 1
 −1 2 −1 −1 
A=  6

1 −1 1 
−6 −1 4 2
6.7. FORMA CANÓNICA DE JORDAN 111

Solución: Determinemos en primer lugar el polinomio caracterı́stico y el polinomio mı́nimo de A :


pA (x) = (x+2)(x−3)3 , qA (x) = (x+2)(x−3)2 . De acuerdo a la prueba del Teorema 8, el número de blo-
ques de Jordan es 2, uno correspondiente al valor propio −2 y otro correspondiente al valor propio 3. El
número de bloques elementales de Jordan correspondiente a −2 viene dado por dim(E(−2)) y el núme-
ro correspondiente a 3 es dim(E(3)). Pero E(−2) = h(0, 0, −1, 1)i y E(3) = h(0, −1, 0, 1) , (1, −2, 1, 0)i,
luego dim(E(−2)) = 1 y dim(E(3)) = 2. Para el valor propio 3 se tiene que el tamaño del primer
bloque elemental de Jordan viene dado por la multiplicidad de 3 en el polinomio mı́nimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:
 
−2 0 0 0
 0 3 0 0 
J =  0 1 3 0 

0 0 0 3

Queremos ahora calcular la matriz C. Para esto consideramos a la matriz A como una transformación L
lineal de R4 en la base canónica. De acuerdo a la prueba del Teorema 8 se tiene que R4 = W1 W2 ,
donde W1 = ker(A + 2E) = h(0, 0, −1, 1)i y W2 = ker[(A − 3E)2 ] = h(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)i;
debemos encontrar bases X1 en W1 y X2 en W2 de tal forma que C es la matriz de cambio de la base
canónica de R4 a la base X = X1 ∪ X2 . Consideremos las transformaciones N1 = A + 2E : W1 → W1
y N2 = A − 3E : W2 → W2 . Nótese que N1 es nilpotente de ı́ndice 1y N2 es nilpotente de ı́ndice 2.
Según la prueba de la Proposición 13 debemos descomponer W1 y W2 en suma directa de subespacios
cı́clicos. Como W1 = E(−2) = h(0, 0, −1, 1)i, entonces la descomposición de W1 es trivial: W1 = [v1 ]
con v1 = (0, 0, −1, 1), y en consecuencia, X1 = {(0, 0, −1, 1)}. Para W2 se tiene que: existe un vector
v2 ∈ W2 tal que su polinomio anulador es x2 y {v2 , N2 (v2 )} es una base de L [v2 ], también debe tenerse
un vector v3 ∈ W2 tal que su polinomio anulador divide a x2 y W2 = [v2 ] [v3 ]. Nótese que en calidad
de v2 podemos tomar a (0, 0, 0, 1) de tal forma que N2 (v2 ) = (1, −1, 1, −1); puesto que dim[v3 ] = 1,
entonces el polinomio anulador de v3 es x y en consecuencia v3 pertenece al núcleo de N2 , luego
v3 ∈ E(3). Tomando v3 = (0, −1, 0, 1) se tiene que {(0, 0, 0, 1) , (1, −1, 1, −1) , (0, −1, 0, 1)} es una base
de W2 . La matriz C es entonces
   
0 0 1 0 1 0 −1 0
 0 0 −1 −1   1 1 
C=  , C −1 =  1 1 ,
 −1 0 1 0   1 0 0 0 
1 1 −1 1 −1 −1 0 0
     
1 0 −1 0 4 1 1 1 0 0 1 0 −2 0 0 0
 1 1 1 1   −1 2 −1 −1   0 0 −1 −1   0 3 0 0 
   = .
 1 0 0 0  6 1 −1 1   −1 0 1 0   0 1 3 0 
−1 −1 0 0 −6 −1 4 2 1 1 −1 1 0 0 0 3
Álgebra Lineal
Capı́tulo 6. Formas Canónicas
Ejercicios.
1. Sea T : V → V una transformación lineal de un espacio K-espacio V de dimensión
finita n ≥ 1. Demostrar que T es invertible si y sólo si el término independiente q0 del
polinomio mı́nimo qT (x) es no nulo.
2. Determinar la forma canónica de Jordan de la matriz:
 
0 0 1 0
 0 0 0 −1 
 
 1 0 0 0 
0 −1 0 0

3. Calcular la forma de Jordan de la matriz


 
5 −10 10 −5 1
 1 0 0 0 0 
 
 0 1 0 0 0 
 
 0 0 1 0 0 
0 0 0 1 0
4. Sean T1 , T2 : V → V transformaciones diagonalizables de un espacio V de dimensión
finita n ≥ 1 tales que T1 T2 = T2 T1 . Demostar que existe una base X en V tal que mX (T1 )
y mX (T2 ) son diagonales.
5. Sea T : V → V una transformación lineal de un espacio K-espacio V de dimensión
finita n ≥ 1 tal que T tiene n valores propios diferentes. Calcular el número de subespacios
invariantes de T .
6. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 tal que su número de entradas nulas
es superior a n2 − n. Demostar que el determinante de A es igual a cero.
7. Sea A = [aij ] una matriz cuadrada invertible de orden n ≥ 1. Demostrar que

pA−1 (x) = (−x)n (det(A))−1 pA (x−1 ),

donde pA (x) denota el polinomio caracterı́stico de la matriz A.


8. Sea T : V −→ V una transformación lineal de un K-espacio de dimensión finita n.
Supongamos que T es diagonalizable y que α1 , . . . αk son los distintos valores propios de
T , 1 ≤ k ≤ n. Demostrar que existen transformaciones lineales T1 , . . . , Tk de V tales que:
(i) T = α1 T1 + · · · + αk Tk

(ii) IV = T1 + · · · + Tk

(iii) Ti Tj = 0, para i 6= j

(iv) Ti2 = Ti

1
(v) Ti (V ) = E(αi ), 1 ≤ i ≤ k.
Demostrar también el recı́proco de esta afirmación, es decir, si existen k escalares distintos
α1 , . . . αk y k transformaciones lineales T1 , . . . , Tk de V , con k ≤ n, que satisfacen (i)-(iii),
entonces T es diagonalizable, α1 , . . . αk son los valores propios distintos de T y (iv)-(v)
también se cumplen.
9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT .
10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un número natural
m para el cual se tiene que Am = E . Demostrar que A es diagonalizable (E denota la
matriz idéntica de tamaño n).
11. Sean S, T : V → V transformaciones tales que ST = T S. Demostrar que ker(S) e
Im(S) son subespacios T -invariantes.
12. Sea T : V → V una transformación lineal de un espacio V de dimensión finita.
Demostrar que existe un entero k tal que:
(a) Para j ≥ k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y además V = Im(T k ) ⊕ N (T k ).
13. Calcular, usando los resultados del presente capı́tulo, una matriz invertible C tal que
C −1 BC sea una matriz de Jordan, donde
 
7 1 2 2
 1 4 −1 −1 
 
 −2 1 5 −1 
1 1 2 8
14. Sea T : C2 → C2 una transformación lineal con un solo valor propio λ. Demostrar que
T − λI es nilpotente.
15. Sea T : V → V una transformación lineal invertible en un espacio V complejo de
dimensión finita. Demostrar que existe una transformación S : V → V tal que S 2 = T
(sugerencia: use la forma canónica de Jordan). Se dice que S es la raı́z cuadrada de T .
16. Encontrar la raı́z cuadrada de la siguiente matriz

 
2 −1 1
 −1 2 −1 
−1 −1 2
17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una
matriz C triangulante:

 
1 1 0 0
 −1 −1 0 0 
 
 −2 −2 2 1 
1 1 −1 0

2
18. Calcular la forma canónica racional de la transformación T : R3 → R3 definida por
T (x, y, z) = (4z, y − x + 2z, 3x − z).
19. Para la matriz real
 
−1 −1 0 −8
 1 1 0 4 
A=  0

1 0 −5 
0 0 1 4
determinar:
(a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante.
(b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante.
(c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la con-
vierta en matriz diagonal en bloques.
(d) La forma racional de A y una matriz racionalizante.
(e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz
que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
20. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que la forma racional de A es la compañera del polinomio mı́nimo de A (en
consecuencia, la forma racional de A tiene un solo bloque racional).
21. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que A no es diagonalizable en bloques.

3
Álgebra Lineal
Capı́tulo 6. Formas Canónicas
Ejercicios.
1. Sea T : V → V una transformación lineal de un espacio K-espacio V de dimensión
finita n ≥ 1. Demostrar que T es invertible si y sólo si el término independiente q0 del
polinomio mı́nimo qT (x) es no nulo.
Solución. Sea pT (x) = p0 + p1 x + · · · + xn el polinomio caracterı́stico de T , entonces
p0 = (−1)n det(T ), luego Si T es invertible entonces p0 es no nulo, pero según el Teorema
de Hamilton-Cayley qT (x) divide a pT (x) y esto implica que p0 = q0 s0 , con s0 ∈ K, por
lo tanto q0 es no nulo.
Recı́procamente, sea q0 no nulo, esto indica que 0 no es raı́z de qT (x), y nuevamente por
la versión general del Teorema de Hamilton-Cayley, 0 no puede ser raı́z de pT (x), luego
p0 es no nulo y entonces T es invertible.
2. Calcular la forma de Jordan de la matriz
 
0 0 1 0
 0 0 0 −1 
 
 1 0 0 0 
0 −1 0 0
3. Determinar la forma canónica de Jordan de la matriz:
 
5 −10 10 −5 1
 1 0 0 0 0 
 
 0 1 0 0 0 
 
 0 0 1 0 0 
0 0 0 1 0

4. Sean T1 , T2 : V → V transformaciones diagonalizables de un espacio V de dimensión


finita n ≥ 1 tales que T1 T2 = T2 T1 . Demostar que existe una base X en V tal que mX (T1 )
y mX (T2 ) son diagonales.
Solución. Realizamos la prueba por inducción sobre n. Para n = 1 no hay nada que
demostrar. Supongamos que la afirmación es cierta para espacios de dimensión < n y sea
V de dimensión n. Sean λ1 , . . . , λs los valores propios distintos de T1 . Podemos suponer
que s ≥ 2 ya que si s = 1, entonces el polinomio mı́nimo de T1 es x − λ1 , con lo cual
T1 = λ1 I, y la matriz de T1 en una base X para la cual T2 es diagonal es también
diagonal. Sea Wi = ker(T1 − λi I), 1 ≤ i ≤ s, fijemos el ı́ndice i; Wi es T1 -invariante,
veamos que también es T2 -invariante: si v ∈ Wi y u = T2 (v), entonces (T1 − λi I)(u) =
T1 T2 (v) − λi T2 (v) = T2 T1 (v) − λi T2 (v) = T2 (T1 (v) − λi v) =T2 (0) = 0, por lo tanto u ∈ Wi .
Consideremos las transformaciones inducidas T1i , T2i sobre el subespacio Wi . Puesto que el
polinomio mı́nimo de T1i divide al polinomio mı́nimo de T1 , entonces T1i es diagonalizable,
de igual manera, T2i es diagonalizable. Notemos también que T1i T2i = T2i T1i , como s ≥ 2,
entonces dim(Wi ) < dim(V ), y por inducción, existe una base común Xi en Wi tal que

1
mXi (T1i ) y mXi (T2i ) son matrices diagonales. Tenemos entonces que V = W1 ⊕ · · · ⊕ Ws y
X = ∪si=1 Xi es una base de V , pero como Wi es T1 , T2 -invariante, entonces
 
mX1 (T11 ) 0
 .. 
mX (T1 ) =  . 
0 mXs (T1s )
 
mX1 (T21 ) 0
 .. 
mX (T2 ) =  . 
0 mXs (T2s )

5. Sea T : V → V una transformación lineal de un espacio K-espacio V de dimensión


finita n ≥ 1 tal que T tiene n valores propios diferentes. Calcular el número de subespacios
invariantes de T .
Solución. Sean a1 , . . . , an los valores propios de T . Es claro que cada subespacio pro-
pio E(ai ) es invariante y que la suma de subespacios invariantes es invariante. De esta
manera tenemos garantizados al menos 2n subespacios invariantes diferentes: todos los
subconjuntos diferentes de {a1 , . . . , an }.
Veamos ahora que cada subespacio invariante W de V es una suma directa finita de
subespacios propios y por lo tanto determina un subconjunto de {a1 , . . . , an }. Si W =
0 entonces no hay nada que probar: el subconjunto es el vacı́o. Sea W 6= 0,sabemos
que el polinomio caracterı́stico de la transformación inducida TW divide al polinomio
caracterı́stico de T , es decir,

pTW (x) | pT (x) = (x − a1 ) · · · (x − an ),

luego pTW (x) = (x − ai1 ) · · · (x − ais ) , y de esta forma TW determina el conjunto


{ai1 , . . . , ais }, y debido a que TW es diagonalizable, se determina la descomposición
W = E(ai1 ) ⊕ · · · ⊕ E(ais ).
El último detalle que falta probar para concluir la demostración es que subespacios difer-
entes W1 6= W2 determinan conjuntos diferentes {ai1 , . . . , ais } 6= {aj1 , . . . , ajt } y por lo
tanto descomposiciones diferentes E(ai1 )⊕· · ·⊕E(ais ) 6= E(aj1 )⊕· · ·⊕E(ajt ). Razonamos
por contrarecı́proca, si {ai1 , . . . , ais } = {aj1 , . . . , ajt }, entonces

W1 = E(ai1 ) ⊕ · · · ⊕ E(ais ) = W .

6. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 tal que su número de entradas nulas
es superior a n2 − n. Demostar que el determinante de A es igual a cero.
7. Sea A = [aij ] una matriz cuadrada invertible de orden n ≥ 1. Demostrar que

pA−1 (x) = (−x)n (det(A))−1 pA (x−1 ),

2
donde pA (x) denota el polinomio caracterı́stico de la matriz A.
8. Sea T : V −→ V una transformación lineal de un K-espacio de dimensión finita n.
Supongamos que T es diagonalizable y que α1 , . . . αk son los distintos valores propios de
T , 1 ≤ k ≤ n. Demostrar que existen transformaciones lineales T1 , . . . , Tk de V tales que:
(i) T = α1 T1 + · · · + αk Tk

(ii) IV = T1 + · · · + Tk

(iii) Ti Tj = 0, para i 6= j

(iv) Ti2 = Ti

(v) Ti (V ) = E(αi ), 1 ≤ i ≤ k.
Demostrar también el recı́proco de esta afirmación, es decir, si existen k escalares distintos
α1 , . . . αk y k transformaciones lineales T1 , . . . , Tk de V , con k ≤ n, que satisfacen (i)-(iii),
entonces T es diagonalizable, α1 , . . . αk son los valores propios distintos de T y (iv)-(v)
también se cumplen.
9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT .
10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un número natural
m para el cual se tiene que Am = E . Demostrar que A es diagonalizable (E denota la
matriz idéntica de tamaño n).
Solución. Si m = 1, no hay nada que demostrar. Sea m ≥ 1, existe C compleja e
invertible de orden n tal que C −1 AC = J, donde J es la forma de Jordan de A. Entonces,
(C −1 AC)m = J m = C −1 Am C = E, luego para cada celda Ja,r de J también se tiene que
m
Ja,r = Er , donde Er denota la idéntica de tamaño r. Supongamos que alguna celda es
m
de orden r > 1, entonces por sobre la diagonal principal de Ja,r tenemos am = 1 y en la
m−1
segunda diagonal por debajo de la principal tenemos ma = 0, lo cual es contradictorio.
Por lo tanto, r = 1 y J es una matriz diagonal, es decir, A es diagonalizable.
11. Sean S, T : V → V transformaciones tales que ST = T S. Demostrar que ker(S) e
Im(S) son subespacios T -invariantes.
12. Sea T : V → V una transformación lineal de un espacio V de dimensión finita.
Demostrar que existe un entero k tal que:
(a) Para j ≥ k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y además V = Im(T k ) ⊕ N (T k ).
Solución. Considérense las siguientes cadenas de subespacios:

V = Im(T 0 ) ⊇ Im(T 1 ) ⊇ · · · ⊇ Im(T m ) ⊇ · · · ⊇ 0


0 = ker(T 0 ) ⊆ ker(T 1 ) ⊆ · · · ⊆ ker(T m ) ⊆ · · · ⊆ V

Estas cadenas se deben estabilizar ya que V es de dimensión finita, esto quiere decir que
existen py qenteros tales que Im(T j ) = Im(T p )si j ≥ py ker(T j ) = ker(T q )si j ≥ q. Siendo
k = máx{p, q}se cumple la parte (a).

3
Según la Lección 2 del Capı́tulo 6, Im(T k )y ker(T k )son subespacios T -invariantes. Veamos
ahora que V es suma directa de ellos. Sea x ∈ Im(T k ) ∩ ker(T k ), entonces x =T k (v), y
T k (x) = 0, luego 0 = T k (x) = T 2k (v), es decir, v ∈ ker(T 2k ) = ker(T k ), es decir,
T k (v) = 0, o sea que x = 0. Para la transformación T k : V → V se tiene que dim(V ) =
dim N (T k ) + dim(Im(T k )), pero como estos subespacios están en suma directa, entonces
V = Im(T k ) ⊕ ker(T k ).
13. Calcular, usando los resultados del presente capı́tulo, una matriz invertible C tal que
C −1 BC sea una matriz de Jordan, donde
 
7 1 2 2
 1 4 −1 −1 
 
 −2 1 5 −1 
1 1 2 8
Solución. El primer paso es calcular el polinomio caracterı́stico y el polinomio mı́nimo
de B, para esto usamos el SWP: pB (x) = (x − 6)4 , qB (x) = (x − 6)3 . Esto indica que la
matriz de Jordan de B tiene un solo bloque de Jordan. El número de bloques elementales
de Jordan correspondientes al valor propio 6 es igual a la dimensión de E(6), y el primer
bloque elemental de Jordan es la multiplicidad de 6 en el polinomio mı́nimo, o sea 3. Con
esta información podemos asegurar que dim(E(6)) = 2 y también ya tenemos la forma de
Jordan para la matriz B:
 
6 0 0 0
 1 6 0 0 
J =  0 1 6 0 

0 0 0 6
Debemos ahora calcular la matriz C. Vamos a asumir que B representa una transfor-
mación lineal B : R4 → R4 (no necesitamos considerarla sobre C ya que su polinomio
caracterı́stico se factoriza completamente en R). Se tiene entonces que R4 = ker((B−6I)3 ).
Debemos encontrar una base X en ker((B − 6I)3 ) de tal forma que la matriz C será la
matriz de cambio de la canónica de R4 a esta nueva base X. Consideremos para es-
to la transformación N = B − 6I : R4 → R4 ; N es nilpotente de ı́ndice 3 y según la
Proposición 13, R4 se descompone en suma directa de 2 subespacios cı́clicos (recuérdese
que 2 = dim(ker(N )) = dim ker(B − 6I) = dim(E(6))). Sea pues R4 = [w1 ] ⊕ [w2 ],
donde w1 tiene como polinomio anulador a x3 y {w1 , N w1 , N 2 w1 } es una base de [w1 ]
y, w2 es tal que su polinomio anulador divide a x3 . Pero como dim([w2 ]) = 1 el poli-
nomio anulador de w2 es x, esto indica que N (w2 ) = 0, es decir, w2 debe pertenecer al
núcleo de N y no estar en la envolvente lineal de {w1 , N w1 , N 2 w1 } (debido a que la suma
es directa). Pasemos entonces a encontrar los vectores w1 y w2 con estas condiciones.
En calidad de w1 ∈N ((B − 6I)3 ) = R4 tomamos el vector w1 = (0, 0, 0, 1), entonces
N w1 = (2, −1, −1, 2) y N 2 w1 = (3, 3, −6, 3); nótese que estos tres vectores son LI. Ahora

4
w2 ∈ N (B − 6I) = E(6) =< (−1, −1, 1, 0), (−1, −1, 0, 1) > y {w1 , N w1 , N 2 w1 , w2 } deben
ser LI. En calidad de C entonces tomamos
 
0 2 3 −1
 0 −1 3 −1 
 
 0 −1 −6 1 
1 2 3 0
     
0 1 1 1 7 1 2 2 0 2 3 −1 6 0 0 0
 1 −1  
0 0   1 4 −1 −1   0 −1  
3 −1   1 6  0 0 
y de esta forma: 3 3
 − 2 − 1 − 1 0   −2 1   0 −1 −6 = 
9 9 3
5 −1 1   0 1 6 0 
−1 −1 −1 0 1 1 2 8 1 2 3 0 0 0 0 6
14. Sea T : C → C una transformación lineal con un solo valor propio λ. Demostrar que
2 2

T − λI es nilpotente.
15. Sea T : V → V una transformación lineal invertible en un espacio V complejo de
dimensión finita. Demostrar que existe una transformación S : V → V tal que S 2 = T
(sugerencia: use la forma canónica de Jordan). Se dice que S es la raı́z cuadrada de T .
16. Encontrar la raı́z cuadrada de la siguiente matriz

 
2 −1 1
 −1 2 −1 
−1 −1 2

17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una


matriz C triangulante:

 
1 1 0 0
 −1 −1 0 0 
 
 −2 −2 2 1 
1 1 −1 0

18. Calcular la forma canónica racional de la transformación T : R3 → R3 definida por


T (x, y, z) = (4z, y − x + 2z, 3x − z).
19. Para la matriz real
 
−1 −1 0 −8
 1 1 0 4 
A=  0

1 0 −5 
0 0 1 4
determinar:
(a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante.

5
(b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante.
(c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la con-
vierta en matriz diagonal en bloques.
(d) La forma racional de A y una matriz racionalizante.
(e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz
que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
Solución. (a) Calculamos el polinomio mı́nimo de A: para esto podemos realizar opera-
ciones elementales sobre la matriz xE − A y obtenemos
 2 
(x + 1)(x − 2)2 0 0 0
 0 1 0 0 
 ,
 0 0 1 0 
0 0 0 1
por lo tanto para la matriz A se encuentra que PA (x) = (x2 + 1)(x − 2)2 = qA (x). Se tiene
que A no es una matriz diagonalizable.
(b) A no es una matriz triangulable (considerada como matriz real).
(c) Puesto que qA (x) tiene dos factores, entonces A es diagonalizable en bloques (si qA (x)
tuviera solo un factor irreducible, no podrı́amos todavı́a decidir nada respecto a la diag-
onalización en bloques). Calculamos
ker(A2 + E) =< (8, −4, 1, 0), (28, −12, 0, 1) >
ker[(A − 2E)2 ] =< (1, 0, 1, 0), (−1, 1, 0, 1) >
La matriz que diagonaliza en loques es
 
8 28 1 −1
 −4 −12 0 1 
C=
 1
,
0 1 0 
0 1 0 1
y se puede comprobar que
 
−4 −17 0 0
 1 4 0 0 
C −1 AC = 
 0
.
0 0 −4 
0 0 1 4
(d) La forma racional de A se calcula con los factores invariantes. Según la parte (a), solo
hay un factor invariante, el polinomio mı́nimo qA (x) = x4 − 4x3 + 5x2 − 4x + 4. Por lo
tanto, la forma racional de A es
 
0 0 0 −4
 1 0 0 4 
R=  0 1 0 −5  .

0 0 1 4

6
Puesto que pA (x) = qA (x), entonces A tiene un vector cı́clico v, y para él se tiene que
{v, Av, A2 v, A3 v} es una base de R4 de tal forma que R4 = [v]. Se puede verificar que v se
puede tomar como uno cualquiera de los 4 vectores canónicos de R4 . Si tomamos v = e1 ,
entonces la matriz que racionaliza es
 
1 −1 0 0
 0 1 0 0 
C = [v Av A2 v A3 v] = 
 0
,
0 1 0 
0 0 0 1

y se comprueba que C −1 AC = R.
(e) A no es diagonalizable en bloques de Jordan ya que su polinomio caracterı́stico no
puede factorizar completamente en factores lineales reales.
(f) Vamos a considerar ahora la matriz A sobre el cuerpo de números complejos. Entonces,
A no es diagonalizable pero si es triangulable. En efecto, qA (x) = (x − i)(x + i)(x − 2)2 .
Calculemos una matriz C que triangule a la matriz A. Elegimos un vector propio v1 de A.
Primero calculemos E(i) =< (−4 + 8i, 4 − 4i, −4 + i, 1) >,E(−i) =< (−4 − 8i, 4 + 4i, −4 −
i, 1) > y E(2) =< (−3, 1, −2, 1) >. Escogemos v1 = (−3, 1, −2, 1) y buscamos ahora un
vector v2 ∈<
/ v1 > pero tal que (A − λE)v2 ∈< v1 >, siendo λ algún valor propio de A.
Tomemos λ = 2, debemos entonces resolver el siguiente sistema:
    
−3 −1 0 −8 a −3
 1 −1 0 4     
  b  = θ 1 
 0 1 −2 −5   c   −2 
0 0 1 2 d 1

para algún θ. Tomando θ = 1, encontramos que a = 1 − 3d, b = d, c = 1 − 2d, podemos


entonces elegir d = 0, con lo cual v2 = (1, 0, 1, 0). Necesitamos ahora un vector v3 tal que
v3 ∈<
/ v1 , v2 > pero (A−αE)v3 ∈< v1 , v2 >, para algún valor propio α. Ya hemos utilizado
el valor propio 2 en dos ocasiones, por lo tanto, elegimos otro valor propio, digamos α = i.
Entonces, debemos resolver el sistema

−(1 + i)a − b − 8d = −3θ + δ


a + (1 − i)b + 4d = θ
b − ic − 5d = −2θ + δ
c + (4 − i)d = θ

escogemos θ = 0 y δ = 1, resulta a = −(4 − 8i)d − (1 − i), b = (4 − 4i)d + 1, c = −(4 − i)d.


Tomando d = 0, encontramos que v3 = (−1 + i, 1, 0, 0). El vector v3 satisface las dos
condiciones requeridas ya que el rango de {v1 , v2 , v3 } es 3. Finalmente, buscamos un
cuarto vector v4 tal que v4 ∈<
/ v1 , v2 , v3 > pero (A − τ E)v4 ∈< v1 , v2 , v3 >. Debemos

7
ahora elegir al valor τ = −i, con lo cual debemos resolver el sistema

−(1 − i)a − b − 8d = −3θ + δ + (−1 + i)ρ


a + (1 + i)b + 4d = θ + ρ
b + ic − 5d = −2θ + δ
c + (4 + i)d = θ

Escogemos θ = 0, δ = 0, ρ = 1 y obtenemos a = 1 − (4 + 8i)d, b = (4 + 4i)d, c = −(4 + i)d.


Tomando d = 0 encontramos v4 = (1, 0, 0, 0), donde el rango de v1 , v2 , v3 , v4 es 4. La
matriz triangulante es  
−3 1 −1 + i 1
 1 0 1 0 
C=  −2 1
,
0 0 
1 0 0 0
y se comprueba que  
2 1 0 0
 0 2 1 0 
C −1 AC = 
 0
.
0 i 1 
0 0 0 −i
La diagonalización en bloques real que obtuvimos es válida, pero en el caso complejo
podemos refinar los bloques con la descomposición qA (x) = (x − i)(x + i)(x − 2)2 . Obten-
emos entonces tres bloques, y podemos usar los cálculos ya realizados para determinar
una matriz C que permita esta nueva diagonalización en bloques:
 
−4 + 8i −4 − 8i 1 −1
 4 − 4i 4 + 4i 0 1 
C=  −4 + i −4 − i 1
,
0 
1 1 0 1

se comprueba que  
i 0 0 0
 0 −i 0 0 
C −1 AC =  
 0 0 0 −4  .
0 0 1 4
La forma racional para A es única, y no depende si extendemos el cuerpo de escalares.
En efecto, sea A ∈ Mn (K) y sea F ⊇ K, si R es la forma racional de A relativa a K,
entonces existe una matriz C ∈ GLn (K) tal que C −1 AC = R. Teniendo en cuenta que
GLn (K) ⊆ GLn (F ), entonces R es la forma racional de A considerada como matriz de
Mn (F ). Por lo tanto, la matriz que obtuvimos en el caso real es la misma que en el caso
complejo.

8
Para terminar, notemos que los cálculos ya realizados nos permiten obtener en forma
inmediata la forma de Jordan para A: el número de bloques de Jordan es 3, para el valor
i el bloque es de orden 1 × 1, lo mismo ocurre para el valor −i. Para el valor 2 el bloque
es de tamaño 2 × 2, además el número de celdas para este bloque es la dimensión de
E(2) = 1, luego la forma es  
i 0 0 0
 0 −i 0 0 
J = 0 0 2 0 .

0 0 1 2
Para el cálculo de la matriz C se tiene: C4 = ker(A − iE) ⊕ ker(A + iE) ⊕ ker[(A − 2E)2 ].
Ya sabemos que ker(A−iE) =< (−4+8i, 4−4i, −4+i, 1) >, ker(A+iE) =< (−4−8i, 4+
4i, −4−i, 1) >. Sea W = ker[(A−2E)2 ] =< (1, 0, 1, 0), (−1, 1, 0, 1) >. Consideremos ahora
la transformación nilpotente de ı́ndice 2, N = A − 2E : W −→ W , debemos encontrar
un vector w ∈ W tal que W = [w] =< w, N w >, escogemos el vector w = (1, 0, 1, 0) de
tal forma que N w = (−3, 1, −2, 1). Notemos que estos dos vectores son LI, luego son una
base de W . Se comprueba entonces que para la matriz
 
−4 + 8i −4 − 8i 1 −3
 4 − 4i 4 + 4i 0 1 
C=  −4 + i −4 − i 1 −2  .

1 1 0 1

se tiene que  
i 0 0 0
 0 −i 0 0 
C −1 CJ =  
 0 0 2 0 .
0 0 1 2
Una observación final: notemos que la matriz racional de A tiene un solo bloque, pero la
matriz de Jordan tiene tres bloques. Por lo tanto, un solo bloque racional no garantiza
una sola celda de Jordan. Además, este ejemplo muestra que la forma de bloques de una
matriz no es única.
20. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que la forma racional de A es la compañera del polinomio mı́nimo de A (en
consecuencia, la forma racional de A tiene un solo bloque racional).
Solución. Sea J la forma canónica de Jordan de A, la cual es una celda de Jordan
correspondiente al valor a . Sabemos que A es similar a J, por lo tanto, la forma racional de
A y J coinciden. Pero una celda de Jordan tiene como vector cı́clico a e1 , y en consecuencia,
la forma racional de J es la compañera de su polinomio mı́nimo qA (x) = pA (x) = (x − a)n .
21. Sea A ∈ Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demostrar que A no es diagonalizable en bloques.

9
Solución. Supongamos que A es diagonalizable en dos bloques A1 , A2 , de tamaños mi <
n, i = 1, 2. Sabemos que qA (x) = m.c.m(qA1 (x)qA2 (x)), pero esto es contradictorio con los
resultados del problema anterior ya que qA (x) = (x − a)n , para un cierto a.

10
Capı́tulo 7

Espacios Duales

Introducción
La colección de transformaciones lineales de un K-espacio vectorial V en K constituye un nuevo espacio
vectorial con propiedades similares a las de V, y es muy útil para el estudio geométrico de los espacios
con producto interno que serán abordados en lo que resta del curso.

7.1. El Dual de un Espacio Vectorial


Sea V un espacio vectorial sobre un cuerpo K. Puesto que K es un K-espacio vectorial, tiene sentido
considerar transformaciones lineales de V en K. El presente capı́tulo estudia tales transformaciones
lineales.

Definición 7.1. Una transformación lineal T : V → K se dice que es un funcional del espacio V .
Algunos ejemplos de funcionales son los siguientes.

Ejemplo 7.1. Sea Mn (K) el espacio de matrices cuadradas de orden n ≥ 1 sobre el cuerpo K. La
función traza definida por

tr : Mn (K) −→ K Pn
A = [aij ] 7−→ tr(A) = k=1 akk
es un funcional sobre el espacio Mn (K). De otra parte, sea K[x] es espacio de los polinomios con
coeficientes en K y sea a un elemento fijo de K. Entonces, la función que evalua cada polinomio de
K[x] en el punto a es un funcional. Finalmente, sea C[a, b] el espacio de funciones continuas en el
Rb
intervalo cerrado [a, b], la integral definida a f (x)dx establece un funcional sobre el espacio C[a, b].

En el Capı́tulo 3 estudiamos el espacio LK (V, W ) de transformaciones lineales del espacio V en el


espacio W ; tomando W = K se obtiene el espacio de funcionales de V en K el cual denotamos por V ∗
y se conoce con el nombre de espacio dual del espacio V . Si V es de dimensión finita n ≥ 1, entonces
según el Corolario1 del Capı́tulo 3 se tiene que dim(V ∗ ) = n, y en consecuencia, V ∗ ∼
= V. La siguiente
proposición muestra de manera explı́cita una base de V ∗ a partir de una base de V .

Proposición 7.1. Sea V un espacio de dimensión finita n ≥ 1 y sea X = {v1 , . . . , vn } una base de
V . Entonces, existe una única base X ∗ = { v1∗ , . . . , vn∗ } en V ∗ tal que

1, si j = i
vi∗ (vj ) =
0, si j 6= i

125
126 CAPÍTULO 7. ESPACIOS DUALES

Además, para cada funcional f ∈ V ∗ se cumple que


Pn
f = k=1 f (vk ).vk∗ ,
y para cada v = a1 .v1 + · · · + an .vn ∈ V se tiene que
Pn Pn
v = k=1 vk∗ (v).vk , f (v) = k=1 f (vk )ak .
X ∗ se conoce como la base dual de X.
Ejericicio 7.1. Sea X = {v1 , v2 , v3 } la base de R3 definida por v1 = (1, 0, −1), v2 = (1, 1, 1), v3 =
(2, 2, 0). Si v = (a, b, c) es un vector cualquiera de R3 , demostrar que v1∗ (v) = a − b, v2∗ (v) = a − b + c,
v3∗ (v) = b − 21 (a + c).
Solución: Sabemos que v = v1∗ (v).v1 + v2∗ (v).v2 + v3∗ (v).v3 , luego

(a, b, c) = v1∗ (v). (1, 0, −1) + v2∗ (v). (1, 1, 1) + v3∗ (v).(2, 2, 0)
de donde

v1∗ (v) + v2∗ (v) + 2v3∗ (v) = a (1)


v2∗ (v) + 2v3∗ (v) =b (2)
−v1∗ (v) + v2∗ (v) =c (3)
Sumando (1) con el opuesto de (2) se obtiene que v1∗ (v) = a − b. De (3) resulta entonces que
v2∗ (v) = c + a − b. Finalmente, v3∗ (v) = b − 12 (a + c). 
Ejericicio 7.2. Sea V = R2 [x] el espacio de polinomios de grado ≤ 2. Probar que los funcionales
Z 1 Z 2 Z −1
f1 (p(x)) = p(z)dz, f2 (p(x)) = p(z)dz, f3 (p(x)) = p(z)dz
0 0 0

conforman una base del dual de R2 [x].


Solución: La base canonica de R2 [x] es {1, x, x2 }, la cual tiene dimension 3, con lo cual la base del
espacio dual de R2 [x] también tiene dimension 3. Por lo tanto, basta determinar si los funcionales
f1 (p(x)), f2 (p(x)) y f3 (p(x)) son linealmente independientes.

Sea af1 + bf2 + cf3 = 0 , aplicamos esta relación a los vectores dela base canonica {1, x, x2 }:
af1 (1) + bf2 (1) + cf3 (1) = 0 af1 (x) + bf2 (x) + cf3 (x) = 0 af1 (x2 ) + bf2 (x2 ) + cf3 (x2 ) = 0
Para el polinomio 1 tenemos:
R1 R2 R −1
f1 (1) = 0
dz = 1 f2 (1) = 0
dz = 2 f3 (1) = 0
dz = −1
Para el polinomio x tenemos:
R1 1
R2 R −1 1
f1 (x) = 0 zdz = 2 f2 (x) = 0
zdz = 2 f3 (x) = 0
zdz = 2

Para el polinomio x2 tenemos:


R1 1
R2 8
R −1
f1 (x2 ) = 0 z 2 dz = 3 f2 (x2 ) = 0
z 2 dz = 3 f3 (x2 ) = 0
z 2 dz = − 31
A partir de lo anterior podemos construir el sistema matricial
  
1 2 −1 a
 1 2 1 
b =0
2 2
1 8 1
3 3 −3 c
El rango de la matriz de este sistema es igual a 3 con lo cual a = b = c = 0 y entonces los funcionales
f1 , f2 y f3 son linealmente independientes y conforman una base para el espacio dual de R2 [x]. 
7.2. EL SUBESPACIO ANULADOR 127

7.2. El Subespacio Anulador


En esta lección queremos establecer una relación entre algunos subespacios del espacio V y ciertos
subespacios del espacio dual V ∗ .
Definición 7.2. Sea V un espacio vectorial y sea S un subconjunto no vacı́o de V , se denomina
anulador de S al conjunto
S ◦ = {f ∈ V ∗ | f (x) = 0, para cada x ∈ S}.
Proposición 7.2. Es muy fácil probar que S ◦ tiene las siguientes propiedades:
a) S ◦ es un subespacio de V ∗
b) 0 ◦ = V ∗

c) V =0
d) Si S1 ⊆ S2 , entonces S1◦ ⊇ S2◦
e) Si V es de dimensión finita y W es un subespacio de V , entonces

dim(W ) + dim( W ◦ ) = dim(V ) V ∗ / W ◦ ∼


= W∗

f ) Si V es de dimensión finita y W1 , W2 son subespacios de V , entonces W1 = W2 si y sólo si


W1◦ = W2◦ .
Demostración: Las cuatro primeras propiedades son evidentes. Veamos la prueba de las dos restantes.

e) Sea V de dimensión finita n. Si W = 0, entonces W 0 = V ∗ y en este caso dim(V ) = dim(W ) +


dim(W 0 ).

Sea pues W no nulo y {w1 , ..., wk } una base de W . Entonces, completamos esta base hasta una base
de V : X = {w1 , ..., wk , z1 , ..., zr } de tal forma que k + r = n. Definimos ahora la transformación lineal

α : V ∗ → W∗
α (f ) = f (w1 ) .w1∗ + · · · + f (wk ) .wk∗
Nótese que N (α) = W 0 . (En forma complementaria podemos demostrar que z1∗ , ..., zr∗ es una base de
W 0 : la independencia lineal es clara ya que estos funcionales son parte de la base dual X ∗ . Sea f ∈
W 0 , entonces el funcional f se puede expresar en la forma f = f (w1 ) w1∗ + · · · + f (wk ) wk∗ + f (z1 ) z1∗ +
· · · + f (zr ) z1∗ =
0 + f (z1 ) z1∗ + · · · + f (zr ) z1∗ = f (z1 ) z1∗ + · · · + f (zr ) z1∗ . Esto garantiza que la envolvente lineal de
z1∗ , ..., zr∗ coincide con W 0 ).

Además, α es sobreyectiva. En efecto, sea h ∈ W ∗ , entonces h = h (w1 ) .w1∗ + · · · + h (wk ) .wk∗ ,


definimos f ∈ V ∗ por f (wi ) = h (wi ) , i = 1, 2, ..., k y f (zj ) = 0, j = 1, 2, ..., r. Es claro que
α (f ) = h. Podemos ahora aplicar el teorema fundamental de homomorfismo del álgebra lineal (ver
el Problema 13 de la Sección de Ejercicios
 del Capı́tulo 2), de tal manera que V ∗ /W 0 ∼ = W ∗ , pero
∗ 0 ∗ 0 ∗
dim V /W = dim (V ) − dim W = dim (W ). Esto completa la prueba de la parte e).

f) La condición necesaria es evidente. Ahora, si W10 = W20 , entonces según la parte e) dim (W1 ) =
dim (W2 ). Basta entonces demostrar que W2 ⊆ W1 . Supongamos lo contrario, entonces existe un vector
no nulo v ∈ W2 pero v ∈ / W1 . Sea {w1 , ..., wk } una base de W1 , entonces {w1 , ..., wk , v} es LI y pode-
mos completar este conjunto hasta una base de V : {w1 , ..., wk , v, wk+2 , ..., wn }; consideremos la dual
de esta base. Para cada vector x = a1 .w1 + · · · + ak .wk ∈ W1 se tiene que v ∗ (a1 .w1 + · · · + ak .wk ) = 0
/ W20 , es decir, W10 6= W20 . 
y v ∗ (v) = 1, de donde v ∗ ∈ W10 y v ∗ ∈
128 CAPÍTULO 7. ESPACIOS DUALES

Ejericicio 7.3. Sea W la envolvente lineal de los vectores w1 = (2, −2, 3, 4, −1), w2 = (−1, 1, 2, 5, 2),
w3 = (0, 0, −1, −2, 3), w4 = (1, −1, 2, 3, 0). Calcular W ◦ .

Solución: Solución. Primero calculemos la dimensión de W :


 
2 −2 3 4 −1
 −1 1 2 5 2 
 
 0 0 −1 −2 3 
1 −1 2 3 0
 
1 −1 0 −1 0
 0 0 1 2 0 

row echelon form :  
0 0 0 0 1 
0 0 0 0 0

Por tanto, dim (W ) = 3 y X = {v1 =(1, −1, 0, −1, 0) , v2 = (0, 0, 1, 2, 0) , v3 = (0, 0, 0, 0, 1)} es una
base de W . Esto implica que dim W 0 = 2. La base X se puede completar hasta una base de R5 :
Y = X ∪{v4 = (0, 1, 0, 0, 0) , v5 = (0, 0, 0, 1, 0)}. Según se vió en la demostración de la propiedad e) en la
Lección 2 del Capı́tulo 7, {v4∗ , v5∗ } es una base de W 0 . Ası́ pues, un elemento f de W 0 es de la forma f =
av4∗ + bv5∗ . Queremos ahora calcular en forma explı́cita la imagen de un vector (x1 , x2 , x3 , x4 , x5 ) ∈ R5
a través de f : f (x1 , x2 , x3 , x4 , x5 ) = av4∗ (x1 , x2 , x3 , x4 , x5 ) + bv5∗ (x1 , x2 , x3 , x4 , x5 ). Debemos entonces
expresar (x1 , x2 , x3 , x4 , x5 ) a través de la base Y , es decir, expresar los vectores canónicos e1 , ..., e5 a
través de la base Y . Para esto debemos calcular la inversa de la matriz
 
1 0 0 0 0
 −1 0 0 1 0 
 
 0 1 0 0 0 
 
 −1 2 0 0 1 
0 0 1 0 0
 
1 0 0 0 0
 0 0 1 0 0 
 
inverse : 
 0 0 0 0 1 

 1 1 0 0 0 
1 0 −2 1 0

entonces

e 1 = v1 + v4 + v5
e 2 = v4
e3 = v2 − 2v5
e 4 = v5
e 5 = v3

Con esto completamos el ejercicio:

f (x1 , x2 , x3 , x4 , x5 ) = av4∗ (x1 , x2 , x3 , x4 , x5 ) + bv5∗ (x1 , x2 , x3 , x4 , x5 ) =


ax1 v4∗ (e1 ) + ax2 v4∗ (e2 ) + ax3 v4∗ (e3 ) + ax4 v4∗ (e4 ) + ax5 v4∗ (e5 ) +
bx1 v5∗ (e1 ) + bx2 v5∗ (e2 ) + bx3 v5∗ (e3 ) + bx4 v5∗ (e4 ) + bx5 v5∗ (e5 ) =
ax1 + ax2 + bx1 − 2bx3 + bx4 = (a + b) x1 + ax2 − 2bx3 + bx4 . 
7.3. EL DOBLE DUAL 129

7.3. El Doble Dual


Dado un espacio V sobre un cuerpo K hemos definido el espacio dual V ∗ , al cual a su vez se le define
su dual V ∗∗ ; queremos conocer la relación de V ∗∗ con V . Por otro lado, cada base de V determina una
base en V ∗ , deseamos ahora saber si cada base de V ∗ es la dual de alguna base de V .

Si V es de dimensión finita n ≥ 1, entonces vimos en la Proposición 7.2 que V ∼


=V∗ ∼
= V ∗∗ ; queremos
∗∗
enseguida presentar de manera directa el isomorfismo entre V y V para identificar cada elemento de
V ∗∗ con un elemento de V . El espacio V ∗∗ se conoce como el doble dual de V .
Proposición 7.3. Sea V un espacio de dimensión finita n ≥ 1. Entonces la función
F
V −→ V ∗∗
v 7−→ F (v) = Fv
donde
F
V∗ v
−−→ K
f 7−→ Fv (f ) = f (v)
es un isomorfismo.
Corolario 7.1. Sea V un espacio de dimensión finita n ≥ 1. Entonces
a) Dado t ∈ V ∗∗ existe un único vt ∈ V tal que t(f ) = f (vt ) para cada f ∈ V ∗ .
b) Cada base de V ∗ es dual de alguna base de V .
Demostración: La parte a) es consecuencia directa de la Proposición 2. Veamos la prueba de la parte b).

Sea {f1 , . . . , fn } una base de V ∗ y sea {t1 = f1∗ , . . . , tn = fn∗ } su base dual, entonces ti (fj ) = 1
si i = j y ti (fj ) = 0 si i 6= j . Sea v1 , . . . , vn los vectores definidos en la parte a), es decir, tales que
ti (fj ) = fj (vi ). Usando la notación de la Proposición 2, vi = F −1 (ti ), con lo cual {v1 , . . . , vn } es una
base de V . Resulta entonces que {f1 , . . . , fn } es la base dual de {v1 , . . . , vn }. En efecto, vi∗ = fi para
cada 1 ≤ i ≤ n, ya que

fi (vi ) = Fvi (fi ) = F (vi )(fi ) = ti (fi ) = fi∗ (fi ) = 1


fi (vj ) = Fvj (fi ) = F (vj )(fi ) = tj (fi ) = fj∗ (fi ) = 0. 

Según lo anterior podemos identificar los funcionales de V ∗∗ con los vectores de V , ası́: t ∈ V ∗∗
se identifica con el vector vt ∈ V tal que t(f ) = f (vt ) para cada f ∈ V ∗ ; de esta manera podrı́amos
reemplazar t por vt y escribir que vt (f ) = f (vt ) para cada f ∈ V ∗ .
Corolario 7.2. Sea V un espacio de dimensión finita n ≥ 1 y sea S 6= ∅ un subconjunto de V .
Entonces, S ◦◦ = hSi. En particular, si W es un subespacio de V , entonces W ◦◦ = W.
Demostración: Por definición
S ◦ = {f ∈ V ∗ | f (x) = 0 para cada x ∈ S}, S ◦◦ = {T ∈ V ∗∗ | T (f ) = 0 para cada f ∈ S ◦ },
pero de acuerdo a la identificación acordada podemos escribir que
S ◦◦ = {v ∈ V | f (v) = 0 para cada f ∈ S ◦ }.
En este orden de ideas, veamos que hSi ⊆ S ◦◦ : sea v = a1 .x1 +· · ·+an .xn ∈ hSi, donde ai ∈ K y xi ∈ S
para cada 1 ≤ i ≤ n, entonces para cada f ∈ S ◦ se tiene que f (v) = a1 .f (x1 ) + · · · + an .f (xn ) = 0, es
decir, v ∈ S ◦◦ .

De otra parte, nótese que hSi◦ = S ◦ ; por la propiedad e) en Lección 2 se tiene entonces que
130 CAPÍTULO 7. ESPACIOS DUALES

dim(hSi◦ ) + dim(hSi) = dim(V ) = dim(V ∗ ) = dim(S ◦ ) + dim(S ◦◦ ),

con lo cual dim(hSi) = dim(S ◦◦ ) y, por lo probado arriba, hSi = S ◦◦ . 

7.4. Traspuesta de una Transformación Lineal


Sean V y W dos K-espacios y sea T : V → W una transformación lineal. Entonces T induce una
función T t : W ∗ → V ∗ definida por

Tt : W∗ −→ V∗
f 7−→ T t (f ) = Tft
donde

Tft : V −→ K
v 7−→ Tft (v) = f (T (v))
Se puede probar muy facilmente que T t es una transformación lineal la cual se conoce con el nombre
de transpuesta de T . Algunas propiedades de la transpuesta son las siguientes.

Proposición 7.4. Sea T : V → W una transformación lineal y sea T t : W ∗ → V ∗ la transpuesta de


T . Entonces,

a) N (T t ) = Im(T )◦

b) Si V y W son de dimensión finita, entonces rank(T t ) = rank(T ).

c) Im(T t ) = N (T )◦ .

Demostración: a) f ∈ N (T t ) si y sólo Tft = 0 si y sólo si f (T (v)) = 0 para cada v ∈ V si y sólo si


f ∈ Im(T )◦ .

b) rank(T t ) = dim(Im(T t )) = dim(W ∗ ) − dim(N (T t )) = dim(W ∗ ) − dim(Im(T )◦ ) = dim(W ∗ ) −


(dim(W ∗ ) − dim(Im(T )∗ ) = dim(Im(T )) = rank(T ).

c) dim(Im(T t )) = rank(T t ) = rank(T ) = dim(Im(T )) = dim(V ) − dim(N (T )) = dim(N (T )◦ ). Solo


resta probar que Im(T t ) ⊆ N (T )◦ : sea g ∈ Im(T t ), entonces g = T t (f ), y por lo tanto, para cada
v ∈ N (T ) se tiene que g(v) = Tft (v) = f (T (v)) = 0, es decir, g ∈ N (T )◦ . 

La siguiente proposición justifica el nombre que hemos dado a la transformación T t .

Proposición 7.5. Sean V y W dos K-espacios de dimensión n y m respectivamente, con bases X =


{v1 , . . . , vn }, Y = {w1 , . . . , wm }. Sean X ∗ y Y ∗ sus bases duales respectivas. Sea T : V → W una
transformación lineal y sea A la matriz de T en las bases X, Y (véase el Teorema 1 del Capı́tulo 3).
Entonces la matriz de T t en las bases Y ∗ , X ∗ es la transpuesta AT de la matriz A.

Demostración: Sea B = mY ∗ ,X ∗ (T t ), entonces


Pm
T (vj ) = Pk=1 akj .wk ≤j≤n
n
T t (wi∗ ) = ∗
k=1 bki .vk = Tw
t
∗ ≤i≤m
t ∗ ∗
P i
m
Twi∗ (vj ) = wi (T (vj )) = wi ( k=1 akj .wk ) = aij
P n
Twt i∗ (vj ) = ( k=1 bki .vk∗ )(vj ) = bji .

7.4. TRASPUESTA DE UNA TRANSFORMACIÓN LINEAL 131

Corolario 7.3. Sean V y W dos K-espacios de dimensión n y m respectivamente, sean LK (V, W ) y


LK (W ∗ , V ∗ ) los respectivos espacios de transformaciones lineales. Entonces
a) (T1 + T2 )t = (T1t + T2t ), para cualesquiera T1 , T2 ∈ LK (V, W ).

b) (a.T )t = a.T t , para cada a ∈ K y cada T ∈ LK (V, W ).


c) LK (V, W ) ∼
= LK (W ∗ , V ∗ ).
d) Sea U un espacio de dimensión finita y T : V → W , S : W → U transformaciones lineales,
entonces (ST )t = T t S t

Ejemplo 7.2. Sea V = R[x] el espacio de polinomios reales y a, b elementos fijos de R. Sea f el
funcional
Rb
f (p(x)) = a p(z)dz.

Si D : V → V es el operador derivación, entonces Dft (p(x)) = p(b) − p(a).

Solución: Sea p(x) = p0 + p1 x + p2 x2 + · · · + pn xn . La transpuesta del operador derivación viene dada


Rb 
por Dft (p(x)) = f (D(p(x)) = a p1 + 2p2 x + · · · + npn xn−1 dx =

p1 x + p2 x2 + · · · + pn xn |ba = p1 b + p2 b2 + · · · + pn bn − p1 a − p2 a2 − · · · − pn an =
p(b) − p(a). 
Ejemplo 7.3. Sea V = Rn [x] el espacio de polinomios reales de grado ≤ n y sea D el operador
derivación sobre V. Entonces (xn )∗ es una base del núcleo de Dt , además, (xn )∗ (a0 +a1 x+· · ·+an xn ) =
an .
Solución: Solución. La imagen del operador derivación es Im (D) = Rn−1 [x] = h1, x, ..., xn−1 i. Esta
0 ∗
base puede ser completada {1, x, ..., xn−1 , xn } y sabemos que una base de Im (D) es (xn ) . Pero
 según
n ∗
la Proposición 3, esta es una base para N (D ) y además (x ) a0 + a1 x + a2 x + · · · + an xn = an .
t 2


Álgebra Lineal
Capı́tulo 7. Espacios Duales
Ejercicios.
1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, −2) , v3 = (−1, −1, 0)} una base de R3 . Calcular
vi∗ (a, b, c), para cada i = 1, 2, 3, donde (a, b, c) ∈ R3 .
2. Sea V un espacio de dimensión finita y sean W1 , W2 subespacios de V . Demostrar que
(W1 + W2 )0 = W10 ∩ W20 , (W1 ∩ W2 )0 = W10 + W20 .
3. Sea K un cuerpo. Demostrar que cada elemento de (K n )∗ es de la forma f (x1 , ..., xn ) =
a1 x1 + · · · + an xn , para ciertos escalares fijos ai ∈ K, i = 1, 2, ..., n.
4. Sea W =< (1, 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) >. Hallar una base de W 0 y calcular
la acción de cada uno de los funcionales de dicha base sobre un vector (a, b, c, d, e).
5. Sean f, g ∈ V ∗ . Demostrar que g es múltiplo escalar de f si y sólo si N (f ) ⊆ N (g).
6. Sean f1 , ..., fr ∈ V ∗ . Demostrar que el funcional g ∈ V ∗ es combinación lineal de
f1 , ..., fr si y sólo si N (f1 ) ∩ · · · ∩ N (fr ) ⊆ N (g).
7. Sean V y W espacios de dimensión finita y sea T : V → W una transformación lineal.
Demostrar que Im(T ) = N (T t )0 , N (T ) = Im(T t )0 .
8. Sea V = W1 ⊕ · · · ⊕ Wr . Si Vi = W1 + · · · + Wi−1 + Wi+1 + · · · + Wr , demostrar que
V ∗ = V10 ⊕ · · · ⊕ Vr0 .

1
Álgebra Lineal
Capı́tulo 7. Espacios Duales
Ejercicios.
1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, −2) , v3 = (−1, −1, 0)} una base de R3 . Calcular
vi∗ (a, b, c), para cada i = 1, 2, 3, donde (a, b, c) ∈ R3 .
2. Sea V un espacio de dimensión finita y sean W1 , W2 subespacios de V . Demostrar que
(W1 + W2 )0 = W10 ∩ W20 , (W1 ∩ W2 )0 = W10 + W20 .
3. Sea K un cuerpo. Demostrar que cada elemento de (K n )∗ es de la forma f (x1 , ..., xn ) =
a1 x1 + · · · + an xn , para ciertos escalares fijos ai ∈ K, i = 1, 2, ..., n.
4. Sea W =< (1, 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) >. Hallar una base de W 0 y calcular
la acción de cada uno de los funcionales de dicha base sobre un vector (a, b, c, d, e).
5. Sean f, g ∈ V ∗ . Demostrar que g es múltiplo escalar de f si y sólo si N (f ) ⊆ N (g).
Solución. ⇐) Si N (g) = V , entonces g = 0 y de esta forma g = 0.f . Sea pues N (g) 6= V , y
sea x0 ∈ / N (g), entonces por hipótesis x0 ∈ / N (f ); sea f (x0 ) 6= 0; entonces f (f (x0 )−1 .x0 ) =
1, es decir, existe x1 ∈ / N (f ) tal que f (x1 ) = 1; para cada x ∈ V se tiene que x−f (x) .x1 ∈
N (f ), en efecto, f (x − f (x) .x1 ) = f (x) − f (x)f (x1 ) = 0. Nuevamente por hipótesis, x −
f (x) .x1 ∈ N (g), luego g (x − f (x) .x1 ) = 0, de donde, g(x) = f (x) g (x1 ) = g(x1 ).f (x),
es decir, g = g (x1 ) .f .
⇒) Si g = a.f , entonces claramente N (f ) ⊆ N (g).
6. Sean f1 , ..., fr ∈ V ∗ . Demostrar que el funcional g ∈ V ∗ es combinación lineal de
f1 , ..., fr si y sólo si N (f1 ) ∩ · · · ∩ N (fr ) ⊆ N (g).
7. Sean V y W espacios de dimensión finita y sea T : V → W una transformación lineal.
Demostrar que Im(T ) = N (T t )0 , N (T ) = Im(T t )0 .
Solución. Veamos la prueba de la primera igualdad. Tenemos el isomorfismo

F : W −→ W ∗∗

definido por F (w) = Fw ∈ W ∗∗ , donde Fw : W ∗ −→ K se define a su vez por Fw (f ) =


f (w), para cada funcional f ∈ W ∗ . En este isomorfismo identificamos los elementos de
W con los de W ∗∗ , de tal forma que dado t ∈ W ∗∗ existe un único vector wt ∈ W tal que
F (wt ) = t, es decir, t(f ) = f (wt ) para cada f ∈ W ∗ . La identificación es entonces t ≡ wt .
De otra parte, recordemos que si T : V −→ W es una transformación lineal entonces su
transpuesta se define por T t : W ∗ −→ V ∗ , T t (f ) = Tft , y Tft (v) = f (T (v)) para cada v ∈ V .
En este orden de ideas, lo que probaremos realmente es la igualdad F (Im(T )) = ker(T t )0 .
Comencemos con la inclusión F (Im(T )) ⊆ ker(T t )0 . Sea T (v) ∈ Im(T ), con v ∈ V , y
sea F (T (v)) = FT (v) , la idea es mostrar que FT (v) ∈ ker(T t )0 . Sea f ∈ ker(T t ), entonces
FT (v) (f ) = f (T (v)), pero como T t (f ) = 0, entonces Tft (v) = 0 = f (T (v)). Ası́ pues,
FT (v) (f ) = 0 para cada f ∈ ker(T t ). La otra inclusión la probamos por la igualdad
de las dimensiones. Es claro que dim F (Im(T )) = dim Im(T ), pero dim(ker(T t )0 ) =
dim W ∗ − dim ker(T t ) = dim W − dim Im(T )0 = dim Im(T ). Esto completa la prueba de
la primera identidad del problema.

1
Pasemos a la segunda igualdad. Sea ahora F : V −→ V ∗∗ , probemos que F (ker(T )) =
Im(T t )0 . Mostramos en primer lugar que F (ker(T )) ⊆ Im(T t )0 : sea v ∈ ker(T ), veamos
que Fv ∈ Im(T t )0 , sea f ∈ Im(T t ), entonces f = T t (h), con h ∈ W ∗ , y de esta forma
f = Tht . Se tiene, Fv (f ) = Fv (T t (h)) = T t (h)(v) = h(T (v)) = h(0) = 0. Para com-
pletar la prueba de la igualdad podemos razonar como en la primera parte en térmi-
nos de las dimensiones. Notemos que dim F (ker(T )) = dim ker(T ), y de otra parte,
dim Im(T t )0 = dim V ∗ − dim Im(T t ) = dim V − dim ker(T )0 = dim ker(T ). Esto com-
pleta todo el problema.
8. Sea V = W1 ⊕ · · · ⊕ Wr . Si Vi = W1 + · · · + Wi−1 + Wi+1 + · · · + Wr , demostrar que
V ∗ = V10 ⊕ · · · ⊕ Vr0 .

2
Capı́tulo 8

Producto Interno

Introducción
El producto interno en espacios reales y complejos permite manejar conceptos geométricos tales como
distancia, ángulo, perpendicularidad, etc. Las transformaciones lineales actuando sobre tales espacios
ocupan un lugar importante en el estudio de la geometrı́a ortogonal y simpléctica.

8.1. Espacios Euclidianos


En el espacio R2 se define un producto interno entre sus vectores a través del cual se establece la
longitud de cada vector, el ángulo entre dos vectores, la distancia entre vectores, etc. En efecto, en
geometrı́a vectorial se define el producto interno entre dos vectores u p
= (u1 , u2 ), p
v = (v1 , v2 ) en la forma
(u, v) = u1 v1 + u2 v2 , la longitud del vector u de define por kuk = (u, u) = u21 + u22 , la distancia
entre los vectores u, v viene dada por ku − vk y el ángulo entre dos vectores no nulos u, v se define
(u,v)
por cos θ = kukkvk . En el presente capı́tulo estudiamos estos conceptos geométricos y las propiedades
derivadas de ellos en espacios vectoriales reales y complejos de dimensión finita. La primera lección
está dedicada a repasar el caso real el cual seguramente ya conocen la mayorı́a de nuestros visitantes.
Definición 8.1. Sea V un espacio vectorial real, un producto interno en V es una función

( , ) : V × V −→ R
que asigna a cada par de vectores u, v ∈ V un real denotado por (u, v) y que satisface las siguientes
propiedades:
a) (u, v + w) = (u, v) + (u, w)
b) (a.u, v) = a(u, v)
c) (u, v) = (v, u)
d) Si u 6= 0, entonces (u, u) > 0
para cualesquiera vectores u, v, w ∈ V y cualquier escalar a ∈ R. Un espacio vectorial real se dice
que es euclidiano si en V está definido un producto interno. Veamos algunos ejemplos de espacios
euclidianos.
Ejemplo 8.1. El producto interno de R2 se generaliza a Rn de la siguiente manera: si x = (x1 , . . . , xn ),
y = (y1 , . . . , yn ) ∈ Rn , entonces (x, y) = x1 y1 + · · · + xn yn . Este se conoce como el producto interno
canónico. Existen otros productos internos sobre Rn , por ejemplo, en R2 se puede probar fácilmente
que la relación (x, y) = 2x1 y1 + x1 y2 + x2 y1 + 2x2 y2 define un producto interno.

135
136 CAPÍTULO 8. PRODUCTO INTERNO

Ejemplo 8.2. Sea C[a, b] el espacio de funciones continuas en el intervalo [a, b] y sean f (x), g(x) ∈
Rb
C[a, b], entonces (f, g) = f (x)g(x)dx define un producto interno.
a

Ejemplo 8.3. En el espacio Mn (R) de matrices cuadradas reales de orden n ≥ 1 está definido un
P
n
producto interno canónico dado por (A, B) = aij bij donde A, B ∈ Mn (R).
i,j=1

Ejemplo 8.4. Sea V un espacio vectorial real y W un espacio euclidiano, sea T : V −→ W una trans-
formación lineal inyectiva. Entonces, V es un espacio euclidiano con el producto (u, v) = (T (u), T (v)),
con u, v ∈ V .
Algunas propiedades de un producto interno en un espacio euclidiano son las siguientes:

1) (0, v) = 0, para cada v ∈ V.


2) (v, v) = 0 si y sólo si v = 0.
3) u = 0 si y sólo si (u, v) = 0 para cada v ∈ V.
4) Desigualdad de Cauchy-Schwartz: (u, v)2 ≤ (u, u)(v, v) para cualesquiera vectores u, v ∈ V.
Además, la igualdad se da si y sólo si u, v son LD.

Demostración: La prueba se puede realizar para el caso unitario que veremos en la Lección
4 del presente capı́tulo y observar que el conjugado de un número real c coincide con c y que
además | c |2 = c2 , donde | c | denota el módulo del complejo c.
Sea V un espacio unitario, u, v ∈ V y sean a, b ∈ C. Nótese que si v = 0 entonces la desigualdad
(igualdad!) se cumple trivialmente. En este caso se tiene que u, v son LD.

Sea v 6= 0, entonces, (au + bv, au + bv) = aa (u, u) + ab (u, v) + ba (v, u) + bb (v, v) ≥ 0. To-
2
memos a = (v, v) y b = − (u, v), entonces (v, v) (u, u) − (v, v) (u, v) (u, v) − (u, v) (v, v) (v, u) +
2
(u, v) (u, v) (v, v) ≥ 0, y entonces (v, v) (u, u) − 2 (v, v) | (u, v) |2 + | (u, v) |2 (v, v) ≥ 0. Puesto que
a = (v, v) 6= 0, entonces (v, v) (u, u) − | (u, v) |2 ≥ 0, por tanto (v, v) (u, u) ≥| (u, v) |2 .

Nótese que si la igualdad se da entonces al devolvernos se tiene que (au + bv, au + bv) = 0,
es decir, au + bv = 0, o sea que u y v son LD. Supóngase recı́procamente que u, v son LD. Sea
2 2
u = kv, donde k ∈ C, entonces (u, v) =| (kv, v) |2 =| k(v, v) |2 =| k |2 (v, v) ; (u, u) (v, v) =
(kv, kv) (v, v) =| k | (v, v) . 
2 2

Definición 8.2. Se dice que el espacio vectorial real V es normado si existe una función norma

k · k : V −→ R+ ∪ {0}

que satisface las siguientes condiciones:

a) Si u 6= 0 entonces kuk > 0


b) ka · uk = |a| kuk
c) Desigualdad triangular: ku + vk ≤ kuk + kvk

donde u, v son vectores de V y a ∈ R. En un espacio normado V se define la distancia entre dos


vectores u, v por d(u, v) = ku − vk.
Proposición 8.1. Todo espacio euclidiano V es normado con norma canónica dada por
p
kuk = (u, u).
8.1. ESPACIOS EUCLIDIANOS 137
p
Ejemplo 8.5. En el espacio euclidiano Rn la norma viene dada por kuk = u21 + · · · + u2n , donde
u = (u1 , . . . , un ). La desigualdad de Cauchy-Schwartz en este caso toma la forma

(u1 v1 + · · · + un vn )2 ≤ (u21 + · · · + u2n )(v12 + · · · + vn2 )


y la desigualdad triangular se escribe como
p q q
(u1 + v1 )2 + · · · + (un + vn )2 ≤ u21 + · · · + u2n + v12 + · · · + vn2 .
s
Rb
Ejemplo 8.6. En el espacio C[a, b] la norma viene dada por kf (x)k = f (x)2 dx, la desigualdad de
a
Cauchy-Schwartz toma la forma
 b 2  b  b 
Z Z Z
 f (x)g(x)dx ≤  f (x)2 dx  g(x)2 dx
a a a

y la desigualdad triangular es
v v v
u b u b u b
uZ uZ uZ
u u u
t (f (x) + g(x))2 dx ≤ t f (x)2 dx + t g(x)2 dx.
a a a

Los conceptos de vectores ortogonales y base ortonormal del espacio R2 pueden extenderse a espacios
euclidianos arbitrarios. Sea V un espacio euclidiano con producto interno (, ), dos vectores u, v se dicen
ortogonales si (u, v) = 0. Un subconjunto no vacı́o S de V se dice que es un conjunto ortogonal de
vectores si (u, v) = 0 para cada par de vectores u 6= v en S. El conjunto S se dice que es ortonormal
si S es ortogonal y además kuk = 1 para cada u ∈ S. Por último, sean u, v vectores no nulos de V , se
define el ángulo entre u y v como el único número real θ ∈ [0, π] que satisface la ecuación.

(u, v)
cos θ = .
kuk kvk
Nótese que dos vectores no nulos en V son ortogonales si y sólo si el ángulo entre ellos es π/2. Además,
en V se cumple el teorema de Pitágoras, es decir, si u1 , . . . , un son vectores ortogonales, entonces

2 2 2
ku1 + · · · + un k = ku1 k + · · · + kun k

Proposición 8.2. Sea V un espacio euclidiano y S un conjunto ortogonal de vectores no nulos.


Entonces, S es LI. En particular, si V es de dimensión finita n ≥ 1 entonces cada conjunto de n
vectores ortogonales no nulos conforman una base de V .

A cada producto interno en un espacio euclidiano podemos asignar una matriz invertible con ciertas
condiciones de simetrı́a y positividad, como veremos a continuación.

Proposición 8.3. Sea V un espacio euclidiano de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn }


una base de V . Entonces la matriz A = [aij ] definida por aij = (xi , xj ) se conoce como la matriz del
producto interno ( , ) y tiene las siguientes propiedades:

P
n
a) Si u = b1 · x1 + · · · + bn · xn , v = c1 · x1 + · · · + cn · xn , entonces (u, v) = aij bi cj .
i,j=1

b) AT = A.
138 CAPÍTULO 8. PRODUCTO INTERNO

c) Para cada vector no nulo Y = (y1 , . . . , yn ) ∈ Rn se cumple que

Y AY T > 0.

d) A es invertible.

e) Si la base X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X vienen


dadas por
(u, xi )
bi =
(xi , xi )
P
n
f ) Si X es ortonormal, entonces (u, v) = bi c j .
i,j=1

Con una matriz real que cumpla b) y c) de la proposición anterior podemos definir un producto interno
en un espacio real V de dimensión finita.

Proposición 8.4. Sea V un espacio de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn } una base de V .
Sea A = [aij ] una matriz real de tamaño n × n que satisface las condiciones b) y c) de la proposición
anterior. Entonces V es un espacio euclidiano con producto interno dado por

(u, v) = Y AZ T ,
donde Y = (y1 , . . . , yn ) ∈ Rn , Z = (z1 , . . . , zn ) ∈ Rn son las coordenadas de los vectores u y v en la
base X, respectivamente.

Ejericicio 8.1. Sea C[−1, 1] con producto interno definido como en el Ejemplo 2, calcular el ángulo
entre las funciones f (x) = x y g(x) = 1 + x

Ejericicio 8.2. Sea Rn [x] el espacio de polinomios reales de grado ≤ n. Se define en este espacio el
producto interno entre dos polinomios f (x) = a0 + a1 x + · · · + an xn , g(x) = b0 + b1 x + · · · + bn xn por
P
n
(f (x), g(x)) = ak bk . Determinar un polinomio h(x) de grado ≤ 2 que este a igual distancia de los
k=0
polinomios f1 (x) = 3x2 + 2x + 1, f2 (x) = −x2 + 2x + 1, f3 (x) = 3x2 + 2x + 5 y f4 (x) = 3x2 + 5x + 2
en el espacio R2 [x]

Solución: Sea h(x) = ax2 + bx + c. La distancia entre este polinomio y los polinomios f1 (x), f2 (x),
f3 (x) y f4 (x) es:


d(h(x), f1 (x)) = (a − 3)x2 + (b − 2)x + (c − 1)

d(h(x), f2 (x)) = (a + 1)x2 + (b − 2)x + (c − 1)

d(h(x), f3 (x)) = (a − 3)x2 + (b − 2)x + (c − 5)

d(h(x), f4 (x)) = (a − 3)x2 + (b − 5)x + (c − 2)

en donde se debe cumplir que d(h(x), f1 (x)) = d(h(x), f2 (x)) = d(h(x), f3 (x)) = d(h(x), f4 (x)).

Estas ecuaciones pueden resolverse de la siguiente forma:

(a − 3)2 + (b − 2)2 + (c − 1)2 = (a + 1)2 + (b − 2)2 + (c − 1)2


a2 − 6a + 9 = a2 + 2a + 1
a=1
8.2. SISTEMAS DE VECTORES ORTOGONALES 139

(a + 1)2 + (b − 2)2 + (c − 1)2 = (a − 3)2 + (b − 2)2 + (c − 5)2


4 + c2 − 2c + 1 = 4 + c2 − 10c + 25
c=3

(a − 3)2 + (b − 2)2 + (c − 5)2 = (a − 3)2 + (b − 5)2 + (c − 2)2


b2 − 4b + 4 + 4 = b2 − 10b + 25 + 1
b=3

De acuerdo a esto, el polinomio obtenido es h(x) = x2 + 3x + 3 y la distancia común es


d(h(x), f1 (x)) = −2x2 + x + 2 = 9 = 3

d(h(x), f2 (x)) = 2x2 + x + 2 = 9 = 3

d(h(x), f3 (x)) = −2x2 + x − 2 = 9 = 3

d(h(x), f4 (x)) = −2x2 − 2x + 1 = 9 = 3

a partir de lo cual se determina que los polinomios f1 (x), f2 (x), f3 (x) y f4 (x) se encuentran a la misma
distancia del polinomio h(x). 

8.2. Sistemas de Vectores Ortogonales


En la lección anterior definimos las bases ortonormales de un espacio euclidiano V, nos proponemos
ahora demostrar la existencia de dichas bases para espacios de dimensión finita. El algoritmo que
permite la construcción de tales bases se conoce como el método de ortogonalización de Gram-Schmidt.
Este método se puede sin embargo aplicar para la construcción de conjuntos ortogonales de tamaño
infinito enumerable.
Teorema 8.1. Sea V un espacio euclidiano y sea u1 , u2 , . . . , un , . . . una sucesión de elementos de V .
Entonces existe en V una sucesión de vectores v1 , v2 , . . . , vn , . . . que satisface las siguientes propiedades:
a) Para cada k ≥ 2 el vector vk es ortogonal a cada vector de la envolvente lineal hv1 , . . . , vk−1 i.
b) Para cada k ≥ 1 hv1 , . . . , vk i = hu1 , . . . , uk i.
c) La sucesión v1 , v2 , . . . , vn , . . . es única salvo factores escalares.
Demostración: La construcción de la sucesión {v1 , v2 , . . .} se realiza en forma recurrente.

Paso 1 Si la sucesión dada tiene un solo vector u1 entonces se toma v1 = u1 y las condiciones
a)∼ c) se cumplen trivialmente.

Paso 2 . Supóngase que ya han sido construidos k vectores v1 , . . . , vk que cumplen a)∼ c). Para
construir el vector vk+1 hacemos
(
Pk (uk+1 ,vi )
si vi 6= 0
vk+1 = uk+1 − i=1 ai .vi , ai = (vi ,vi )
0, si vi = 0

Veamos entonces que a) se cumple: sea j ≤ k, entonces


140 CAPÍTULO 8. PRODUCTO INTERNO

Pk (uk+1 ,vj )
(vk+1 , vj ) = (uk+1 , vj ) − ( i=1 ai .vi , vj ) = (uk+1 , vj ) − aj (vj , vj ) = (uk+1 , vj ) − (vj ,vj ) (vj , vj ) =0

en el caso en que vj 6= 0, si vj = 0 entonces también (vk+1 , vj ) = 0. Hemos probado la condición a).

Paso 3 Veamos que hv1 , . . . , vk+1 i = hu1 , . . . , uk+1 i. Sea v ∈ hv1 , . . . , vk+1 i, existen b1 , . . . , bk+1 ∈ R
tales que v = b1 .v1 + · · · + bk .vk + bk+1 .vk+1 , pero por construcción vk+1 ∈ huk+1 , v1 , . . . , vk i =
huk+1 , u1 , . . . , uk i.

Sea ahora v ∈ hu1 , . . . , uk+1 i, entonces existen c1 , . . . , ck+1 ∈ R tales que v = (c1 .u1 + · · · + ck .uk ) +
ck+1 .uk+1 , pero por construcción uk+1 ∈ hvk+1 , v1 , . . . , vk i, luego v ∈ hu1 , . . . , uk , v1 , . . . , vk+1 i =
hv1 , . . . , vk+1 i. Hemos probado b).

Paso 4 Por recurrencia suponemos que los k vectores construidos satisfacen c). Sean w1 , . . . , wk+1
vectores que también satisfacen a) y b). Entonces, hw1 , . . . , wk+1 i = hu1 , . . . , uk+1 i = hv1 , . . . , vk+1 i,
luego wk+1 = z + e.vk+1 , donde z ∈ hv1 , . . . , vk i = hw1 , . . . , wk i; según a), hwk+1 , zi = 0 = hvk+1 , zi,
luego hwk+1 − e.vk+1 , zi = 0 = hz, zi, de donde z = 0 y wk+1 = e.vk+1 . Esto completa la prueba de c)
y del teorema. 

Los vectores v1 , v2 , . . . , vn , . . . se construyen de manera recurrente en la siguiente forma:

v 1 = u1
k
X
vk+1 = uk+1 − ai · vi
i=1

Donde,
(
(uk+1 ,vi )
(vi ,vi ) si vi 6= 0
ai =
0 si vi = 0

Corolario 8.1. Sea V un espacio euclidiano de dimensión finita n ≥ 1 y sea X = {u1 , . . . , un } una
base de V . Entonces, el conjunto de vectores {v1 , . . . , vn } definido por el teorema anterior conforma
una base ortogonal de V . Una base ortonormal de V se obtiene normalizando ésta: definimos wi =
vi
kvi k , 1 ≤ i ≤ n.

Ejemplo 8.7 (Polonomios de Legendre). Sea R[x] el espacio de polinomios reales y considérese el
producto interno dado por

Z 1
(p(x), q(x)) = p(t)q(t)dt.
−1

Sea X = {1, x, x2 , x3 , . . .} la base canónica de R[x], entonces la sucesión de polinomios {v0 , v1 , v2 , . . .}


construida en el teorema anterior viene dada por
8.2. SISTEMAS DE VECTORES ORTOGONALES 141

v0 (x) = 1
v1 (x) = x
1
v2 (x) = x2 −
3
3 3
v3 (x) = x − x
5
6 3
v4 (x) = x − x2 +
4
7 35
10 5
v5 (x) = x5 − x3 + x
9 21
..
.
n! dn 2
vn (x) = (x − 1)n , n ≥ 0,
(2n)! dxn

La sucesión anterior de polinomios se conoce como los polinomios de Legendre, y la fórmula dada
por

(2n)! 1 dn n
Pn (x) = 2 v n (x) = n n! dxn
x2 − 1
n
2 (n!) 2

se conoce como la fórmula de Rodrı́guez.

Ejericicio 8.3. Construir una base ortonormal en el espacio R4 del subespacio hu1 , u2 , u3 , u4 i, donde
u1 = (2, 3, −4, −6), u2 = (1, 8, −2, −16), u3 = (12, 5, −14, 5) y u4 = (3, 11, 4, −7)

Solución: Usamos el método de Gram-Schmidt: v1 = u1 = (2, 3, −4, −6),


 
v1 2√ 3√ 4√ 6√
w1 = = 65, 65, − 65, − 65 .
k v1 k 65 65 65 65

Ahora, v2 = u2 − (u 2 ,v1 )
(v1 ,v1 ) v1 = (1, 8, −2, −16) −
(1,8,−2,−16)·(2,3,−4,−6)
(2,3,−4,−6)·(2,3,−4,−6) (2, 3, −4, −6) = (−3, 2, 6, −4), es
decir, v2 = (−3, 2, 6, −4); de donde
 
v2 3√ 2√ 6√ 4√
w2 = = − 65, 65, 65, − 65
k v2 k 65 65 65 65

(u3 , v1 ) (u3 , v2 )
v3 =u3 − v1 − v2
(v1 , v1 ) (v2 , v2 )
(12, 5, −14, 5) · (2, 3, −4, −6) (12, 5, −14, 5) · (−3, 2, 6, −4)
= (12, 5, −14, 5) − (2, 3, −4, −6) − (−3, 2, 6, −4)
(2, 3, −4, −6) · (2, 3, −4, −6) (−3, 2, 6, −4) · (−3, 2, 6, −4)
= (4, 6, 2, 3)

es decir, v3 = (4, 6, 2, 3). Por tanto


 
v3 4√ 6√ 2√ 3√
w3 = = 65, 65, 65, 65
k v3 k 65 65 65 65
142 CAPÍTULO 8. PRODUCTO INTERNO

(u4 , v1 ) (u4 , v2 ) (u4 , v3 )


v4 =u4 − v1 − v2 − v3
(v1 , v1 ) (v2 , v2 ) (v3 , v3 )
(3, 11, 4, −7) · (2, 3, −4, −6)
= (3, 11, 4, −7) − (2, 3, −4, −6)
(2, 3, −4, −6) · (2, 3, −4, −6)
(3, 11, 4, −7) · (−3, 2, 6, −4)
− (−3, 2, 6, −4)
(−3, 2, 6, −4) · (−3, 2, 6, −4)
(3, 11, 4, −7) · (4, 6, 2, 3)
− (4, 6, 2, 3)
(4, 6, 2, 3) · (4, 6, 2, 3)
= (0, 0, 0, 0)
es decir, v4 = (0, 0, 0, 0). En este caso no definimos w4 .

Lo anterior indica que dim(hu1 , u2 , u3 , u4 i) = 3 y {w1 , w2 , w3 } es una base ortonormal de esta en-
volvente lineal.

De otra parte, y como complemento a este ejercicio, el SWP produce la descomposición QR de una ma-
triz cuyos vectores columna son los vectores dados de tal forma que la matriz Q tiene en sus columnas
la base ortonormal buscada:

   2√ 3
√ 4
√ 6
√  √
√ √ √ 
2 1 12 3 65 √65 − 65√ 65 65 √65 65 √65 2√ 6565 √65 √65
 3 8 5 11   3 65 2
65 6  4
− 65 −2 
  =  65 √ 65 √ 65 √65  √ 65 65 0 √ 65 √65 .
 −4 −2 −14 4   − 65 4 6 2 3 
√65 65 √ 65 65 √65 65 √65 0 0 65 65
−6 −16 5 −7 6
− 65 65 4
− 65 65 3
65 65
2
− 65 65 0 0 0 0
6
√ 4
√ 3
√ 2
√ 
Nótese que en la matriz Q aparece un cuarto vector columna 65 65, − 65 65, 65 65, − 65 65 que
también es ortogonal a los otros 3 vectores: las cuatro columnas constituyen una base ortonormal de
R4 . La pregunta que surge es, cómo se calcula este cuarto vector? En otras palabras, dado un sistema
de m vectores ortogonales en un espacio euclidiano (unitario) V de dimensión n > m, como se completa
este sistema hasta una base ortonormal de V ?

En el presente ejercicio, buscamos un vector w4 = (a, b, c, d) tal que w4 ∈ hw1 , w2 , w3 i⊥ y k w4 k= 1.


Entonces,

 
2√ 3√ 4√ 6√ 2 √ 3 √ 4 √ 6 √
(a, b, c, d) · 65, 65, − 65, − 65 = a 65 + b 65 − c 65 − d 65 =0
65 65 65 65 65 65 65 65
 
3 √ 2 √ 6 √ 4 √ 2 √ 3 √ 6 √ 4 √
(a, b, c, d) · − 65, 65, 65, − 65 = b 65 − a 65 + c 65 − d 65 =0
65 65 65 65 65 65 65 65
 
4 √ 6 √ 2 √ 3 √ 4 √ 6 √ 2 √ 3 √
(a, b, c, d) · 65, 65, 65, 65 = a 65 + b 65 + c 65 + d 65 =0
65 65 65 65 65 65 65 65
(a, b, c, d) · (a, b, c, d) = a2 + b2 + c2 + d2 = 1

2
√ 3
√4
√ 6

65 a√ 65 + − 65 c√65 − 65
65 b√65 d√65 = 0
2 3 6 4
65 b √65 − c√65 − 65
65 a√65
+ 65 d√65 = 0
4 6 2 3
65 a 65 + 65 b 65
+ 65 c 65 + 65 d 65 = 0
a + b + c2 + d2 = 1
2 2
 6
√ 4
√ 3
√ 2
√ 
Con el SWP la solución es: a = 65 65, b = − 65 65, c = 65 65, d = − 65 65 , que es exactamente la
cuarta columna dada por el SWP en la descomposición QR. 
8.3. COMPLEMENTO ORTOGONAL Y PROYECCIONES 143

8.3. Complemento Ortogonal y Proyecciones


Definición 8.3. Sea V un espacio euclidiano y S un subconjunto no vacı́o de V . Se dice que el vector
v ∈ V es ortogonal al conjunto S si (v, u) = 0 para cada u ∈ S. Se define el ortogonal de S por

S ⊥ = {v ∈ V | (v, u) = 0, para cada u ∈ S}.

Proposición 8.5. Sea V un espacio euclidiano y S un subconjunto no vacı́o de V . Entonces

a) S ⊥ es un subespacio de V . Además, S ⊆ (S ⊥ )⊥ .

b) Si W es un subespacio de V de dimensión finita con base ortonormal X = {w1 , . . . , wm }, entonces


V = W ⊕ W ⊥ , cada vector v ∈ V tiene una representación única en la forma ⊥
⊥ 2v = w + w , donde
Pm ⊥ ⊥ 2 2
w = i=1 (v, wi ).wi ∈ W, w = v − w ∈ W y tal que kvk = kwk + w .

Además, W = (W ⊥ )⊥ . El subespacio W ⊥ se denomina el complemento ortogonal de W .

La proposición anterior permite definir las proyecciones. Sea V un espacio euclidiano y sean u, w ∈ V
(u,w)
con w 6= 0. El vector p = (w,w) ·w se denomina la proyección de u sobre w. Sea W un subespacio de V
Pm
de dimensión finita y sea X = {w1 , . . . , wm } una base ortonormal de W. El vector p = i=1 (u, wi ).wi
se denomina la proyección ortogonal de u sobre W y el vector p⊥ = u − p ∈ W ⊥ se denomina la
perpendicular de u al subespacio W .

Proposición 8.6. Sea V un espacio euclidiano y W un subespacio de V de dimensión finita. Sea


u ∈ V , entonces el vector más próximo de W a u es la proyección ortogonal p de u sobre W. Mas
exactamente, ku − pk ≤ ku − wk para cada w ∈ W. Además, ku − pk = ku − wk si y sólo si w = p.

Demostración: Sea p⊥ la perpendicular de u sobre W de tal forma que u = p + p⊥ ; sea w un vector


cualquiera de W , entonces u − w = (u − p) + (p − w) y se tiene que u − p = p⊥ ∈ W ⊥ y p − w ∈ W .
De acuerdo a la Proposición 5 ku − wk2 = ku − pk2 + kp − wk2 , luego ku − pk2 ≤ ku − wk2 , es decir,
ku − pk ≤ ku − wk. La igualdad se da si y sólo si kp − wk2 = 0, es decir, si y sólo si w = p. 

Ejericicio 8.4. Determinar la función polinómica de primer grado más próxima a la función f (x) = ex
en el intervalo [−1, 1].

Z1
Solución: Consideremos el producto interno canónico hf (x), g(x)i = f (x)g(x)dx, y sea W el subes-
n o −1

pacio de funciones polinómicas de grado ≤ 1 y X = √1 , √3 x una base ortonormal para W . Según


2 6
la Proposición 6, la función más próxima de W a f (x) es la proyección ortogonal p(x) de f (x) sobre
W definida de la siguiente manera:

1 1 3 3
p(x) = (ex , √ ) · √ + (ex , √ x) · √ x
2 2 6 6
Z1 Z1
1 1 3
=√ √ ex dx + x xex dx
2 2 2
−1 −1
1 2 
= e − 1 e−1 + 3e−1 x.
2

144 CAPÍTULO 8. PRODUCTO INTERNO

8.4. Espacios Unitarios


Esta lección está dedicada a estudiar los espacios complejos dotados con un producto interno. Las
propiedades de estos espacios son similares a las de los espacios euclidianos que consideramos en las
Lecciones 1,2 y 3. La diferencia más importante radica en el cambio de la simetrı́a corriente a la
simetrı́a de Hermite.

Definición 8.4. Sea V un espacio vectorial sobre el cuerpo de números complejos C, se dice que V
es un espacio unitario si existe en V un producto interno ( , ) que asigna a cada par de elementos
u, v ∈ V un número complejo (u, v) de tal forma que se cumplen las siguientes propiedades:

a) (u, v + w) = (u, v) + (u, w)

b) (a.u, v) = a(u, v)

c) (u, v) = (v, u) (simetrı́a de Hermite)

d) Si u 6= 0, entonces (u, u) > 0

para cualesquiera vectores u, v ∈ V y cada escalar a ∈ C.

En los espacios unitarios se tiene que (u, a.v) = a(u, v), donde la barra indica conjugación compleja.

Ejemplo 8.8. El producto interno canónico en Cn se define de la siguiente manera: si x = (x1 , . . . , xn ), y =


(y1 , . . . , yn ) ∈ Cn , entonces (x, y) = x1 y1 + · · · + xn yn .

Ejemplo 8.9. Sea C∗ [a, b] el espacio de las funciones continuas definidas en el intervalo real [a, b] y
con valores complejos, es decir, cada función f (t) ∈ C∗ [a, b] es de la forma f (t) = f1 (t) + if2 (t), donde
Rb
f1 (t), f2 (t) ∈ C[a, b]. En C∗ [a, b] se define el producto interno canónico por (f, g) = a f (t)g(t)dt.

Ejemplo 8.10. En el espacio Mn (C) de matrices cuadradas complejas de orden n ≥ 1 está definido
P
n
el producto interno canónico dado por (A, B) = aij bij donde A, B ∈ Mn (C).
i,j=1

La gran mayorı́a de las propiedades de los espacios euclidianos se mantienen para los espacios unitarios.
A continuación presentamos un resumen de las propiedades estudiadas en las lecciones anteriores pero
un su versión compleja.

1) (0, v) = 0, para cada v ∈ V .

2) (v, v) = 0 si y sólo si v = 0.

3) u = 0 si y sólo si (u, v) = 0 para cada v ∈ V.

4) Desigualdad de Cauchy-Schwartz: |(u, v)|2 ≤ (u, u)(v, v) para cualesquiera vectores u, v ∈ V . Las
barras indican el módulo de un complejo. Además, la igualdad se da si y sólo si u, v son LD.

5) Todo espacio unitario es normado.

6) Los conceptos de ortogonalidad y ortonormalidad se definen como en el caso euclidiano.

7) Se cumple el teorema de Pitágoras.

8) La Proposición 2 se cumple.

9) El método de Gram-Schmidt para la construcción de bases ortonormales se mantiene.

10) Los conceptos y propiedades de la Lección anterior se mantienen.


8.5. TRANSFORMACIONES Y MATRICES ADJUNTAS 145

11) Las Proposiciones 3 y 4 toman la siguiente forma:

Definición 8.5. Sea V un espacio unitario de dimensión finita n ≥ 1 y sea X = {x1 , . . . , xn } una
base de V . Entonces la matriz A = [aij ] definida por aij = (xi , xj ) se conoce como la matriz del
producto interno ( , ) y tiene las siguientes propiedades:
P
n
a) Si u = b1 .x1 + · · · + bn .xn , v = c1 .x1 + · · · + cn .xn , entonces (u, v) = aij bi cj .
i,j=1

b) AT = A.
c) Para cada vector no nulo Y = (y1 , . . . , yn ) ∈ Cn se cumple que

Y AY T > 0.

d) A es invertible.
e) Si la base X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X vienen
dadas por
(u, xi )
bi = .
(xi , xi )
P
n
f ) Si X es ortonormal, entonces (u, v) = bi c j .
i,j=1

Con una matriz compleja A que cumpla b) y c) podemos definir un producto interno en un espacio com-
plejo V de dimensión finita mediante (u, v) = Y AZ T , donde Y = (y1 , . . . , yn ) ∈ Rn , Z = (z1 , . . . , zn ) ∈
Rn son las coordenadas complejas respectivas de los vectores u y v en una base ortonormal X.

Para terminar, veamos como se puede definir el ángulo entre dos vectores no nulos u, v de un es-
pacio unitario V : Nótese que (u,v)+(v,u)
2 = (u,v)+(u,v)
2 ∈ R, luego | (u,v)+(u,v)
2 | ≤ |(u, v)| ≤ kuk kvk (por
|(u,v)+(v,u)|
la desigualdad de Cauchy-Schwartz). Por lo tanto, 2kukkvk ≤ 1, es decir, −1 ≤ (u,v)+(v,u) 2kukkvk ≤ 1. Se
define entonces el ángulo entre u y v como el único real 0 ≤ θ ≤ π tal que

(u, v) + (v, u)
cos(θ) = .
2 kuk kvk

8.5. Transformaciones y Matrices Adjuntas


Para el estudio de los espacios con producto interno, ya sean euclidianos o complejos, es importante
considerar la adjunta de una transformación lineal. Veremos en esta lección que en bases ortonormales
la adjunta de una transformación lineal corresponde a la matriz adjunta. Denotaremos por V un
espacio euclidiano o unitario de tal manera que K será el cuerpo de números reales o complejos. Nos
referiremos entonces a V como un espacio con producto interno.
Proposición 8.7. Sea V un espacio con producto interno y sea v un vector fijo de V . Entonces la
función

fv : V −→ K
u 7−→ fv (u) = (u, v)
es un funcional de V , es decir, fv ∈ V ∗ . Si V es de dimensión finita, entonces es válido el recı́proco, es
decir, dado f ∈ V ∗ existe un único vector v ∈ V tal que f = fv , luego f (u) = (u, v) para cada u ∈ V .
146 CAPÍTULO 8. PRODUCTO INTERNO

Demostración: Claramente fv es una transformaciónP lineal. Sea X = {v1 , . . . , vn } una base ortonormal
n
de V , entonces dado f ∈ V ∗ definimos el vector v = i=1 f (vi ).vi ; se tiene pues que fv (vj ) = (vj , v) =
Pn
(vj , i=1 f (vi ) · vi ) = f (vj ) = f (vj ) para cada 1 ≤ j ≤ n. Esto implica que f = fv . Sea w otro vector
tal que f = fw , entonces fv (u) = f (u) = (u, v) = fw (u) = (u, w) para cada u ∈ V , luego v = w. 
Proposición 8.8. Sea V un espacio con producto interno de dimensión finita n ≥ 1. Entonces,
para cada transformación lineal T : V → V existe una única transformación T ∗ : V → V tal que
(T (u), v) = (u, T ∗ (v)) para cualesquiera vectores u, v ∈ V .
Demostración: Cada vector v ∈ V define un funcional hv ∈ V ∗ dado por hv (u) = (T (u), v) para cada
u ∈ V ; según la Proposición 7 existe un único vector w ∈ V tal que hv (u) = (u, w) para cada u ∈ V .
Se define entonces la aplicación

T∗ : V −→ V
v 7−→ w
Ası́ pues, T ∗ (v) = w ⇔ (T (u), v) = (u, w) para cada u ∈ V . Veamos que T ∗ es una transformación
lineal: sean u, v1 , v2 ∈ V , entonces

(u, T ∗ (v1 + v2 )) = (T (u), v1 + v2 ) = (T (u), v1 ) + (T (u), v2 ) = (u, T ∗ (v1 )) + (u, T ∗ (v2 )) =


(u, T ∗ (v1 ) + T ∗ (v2 )).

Según la propiedad 3) de la Lección 1 T ∗ (v1 + v2 ) = T ∗ (v1 ) + T ∗ (v2 ); de manera similar se demuestra


que T ∗ (a.v) = a.T ∗ (v) para cada a ∈ K y cada v ∈ V . Sea S otra transformación lineal de V tal que
(T (u), v) = (u, S(v)) para cada u, v ∈ V , entonces (u, T ∗ (v)) = (u, S(v)) para cada u, v ∈ V , luego
T ∗ (v) = S(v), para cada v ∈ V , es decir, S = T ∗ .

La proposición anterior induce la siguiente definición.


Definición 8.6. Sea T : V → V una transformación lineal de un espacio V con producto interno de
dimensión finita n ≥ 1, la única transformación T ∗ : V → V definida anteriormente se denomina la
adjunta de T . De otra parte, sea A una matriz cuadrada de orden n ≥ 1 sobre el cuerpo K, la matriz
A∗ = AT se denomina la adjunta de la matriz A (la barra indica conjugación compleja; en el caso real
la adjunta de A coincide con su transpuesta).
Corolario 8.2. Sea V un espacio con producto interno de dimensión finita n ≥ 1. Entonces para cada
base ortonormal X de V se tiene que mX (T ∗ ) = mX (T )∗ .
Demostración: Sea B = [bij ] = mX (T ∗ ), entonces por la ortonormalidad de X se tiene que aji =
(T (vi ), vj ) = (vi , T ∗ (vj )) = bij , luego B = AT . .

La demostración del corolario anterior muestra que si T : V → V es una transformación lineal de un


espacio V con producto interno de dimensión finita n ≥ 1 y X = {v1 , . . . , vn } es una base ortonormal
de V , entonces para la matriz A = [aij ] = mX (T ) se cumple que aij = (T (vj ), vi ). Otras consecuencias
directas de este corolario son las siguientes propiedades para la adjunta. Sean T, U : V → V trans-
formaciones lineales de un espacio V con producto interno de dimensión finita n ≥ 1 y sea a ∈ K,
entonces

1) (T + U )∗ = T ∗ + U ∗
2) (a.T )∗ = a.T ∗
3) (T U )∗ = U ∗ T ∗
4) (T ∗ )∗ = T .
8.6. TRANSFORMACIONES HERMITIANAS Y SIMÉTRICAS 147

Ejericicio 8.5. Sea T : C2 → C2 la transformación lineal definida por T (x, y) = (x − iy, 2ix) y
considérese en C2 el producto interno canónico. Calcular T ∗ . Además, sea X = {(1, 1), (−2, 2)} una
base ortogonal no ortonormal de C2 . Demostrar que mX (T ∗ ) 6= mX (T )∗ .

Solución: Sea Y la base canónica de C2 , la cual es obviamente ortonormal. Entonces, T (1, 0) =


(1, 2i) , T (0, 1) = (−i, 0) y ası́
 
1 −i
mY (T ) =
2i 0
Se tiene entonces que
 ∗  
∗ 1 −i 1 −2i
mY (T ) = = = mY (T ∗ ).
2i 0 i 0
Esto implica que
    
∗ 1 −2i x x − 2iy
T (x, y) = = = (x − i2y, ix) .
i 0 y ix
De otra parte, sea C la matriz de cambio de Y a X, entonces
 −1   
1 −2 1 −i 1 −2
mX (T ) = C −1 mY (T ) C = =
1 2 2i 0 1 2
 1

2 + 12 i −1 − 3i
1
−4 + 34 i 1 1
2 − 2i

luego
 1

∗ − 12 i − 14 − 34 i
2
(mX (T )) = 1 1
−1 + 3i 2 + 2i

De otro lado,
 −1  
1−2 1 −2
mX (T ∗ ) = mY (T ∗ ) =
1 2 1 2
 −1     1

1 −2 1 −2i 1 −2 2 − 12 i −1 − 3i
= .
1 2 i 0 1 2 − 41 + 34 i 1 1
2 + 2i

Esto muestra que mX (T ∗ ) 6= (mX (T )) .

8.6. Transformaciones Hermitianas y Simétricas


Consideraremos en esta lección transformaciones lineales que coinciden con su adjunta, las cuales se
conocen con el nombre de autoadjuntas. En espacios unitarios estas transformaciones se denominan
también hermitianas, y en espacios euclidianos se conocen como transformaciones simétricas.

Definición 8.7. Sea T : V → V una transformación lineal de un espacio unitario V , se dice que T
es hermitiana si

hT (u), vi = hu, T (v)i


para cualesquiera vectores u, v ∈ V . En otras palabras, T es hermitiana si T ∗ = T . La transformación
T se dice antihermitiana si
148 CAPÍTULO 8. PRODUCTO INTERNO

hT (u), vi = −hu, T (v)i


para cualesquiera vectores u, v ∈ V . En otras palabras, T es antihermitiana si T ∗ = −T .

Sea T : V → V una transformación lineal de un espacio euclidiano V , se dice que T es simétri-


ca si

hT (u), vi = hu, T (v)i


para cualesquiera vectores u, v ∈ V . En otras palabras, T es simétrica si T ∗ = T. La transformación
T se dice antisimétrica si

hT (u), vi = −hu, T (v)i


para cualesquiera vectores u, v ∈ V . En otras palabras, T es antisimétrica si T ∗ = −T .

Si V es de dimensión finita n ≥ 1 con base {v1 , . . . , vn }, entonces las condiciones anteriores se pueden
expresar de la siguiente manera:

T es hermitiana (simétrica) ⇔ hT (vi ), vj i = hvi , T (vj )i


T es antihermitiana (antisimétrica) ⇔ hT (vi ), vj i = −hvi , T (vj )i

para 1 ≤ i, j ≤ n.
La siguiente proposición muestra como se comportan los valores propios de las transformaciones intro-
ducidas.
Proposición 8.9. Sea V un espacio con producto interno (unitario o euclidiano) y T : V → V una
transformación lineal con valor propio α. Entonces
a) Si T es hermitiana, entonces α ∈ R
b) Si T es simétrica, entonces α ∈ R
c) Si T es antihermitiana, entonces α es imaginario puro
d) Si T es antisimétrica, entonces α = 0
Demostración: Sea v un vector propio correspondiente al valor propio α. Entonces, hT (v), vi = hα.v, vi =
αhv, vi, de donde

hT (v), v)i
α=
hv, vi
Si T es hermitiana, entonces

hT (v), v)i hv, T (v)i hT (v), v)i


α= = = = α,
hv, vi hv, vi hv, vi
con lo cual α es un número real. Si T es simétrica, entonces T actua por definición en un espacio
euclidiano y α es un número real. Supóngase que T es antihermitiana, entonces

hT (v), v)i hv, T (v)i hT (v), v)i


α= = =− = −α,
hv, vi hv, vi hv, vi
y en consecuencia la parte real de α es nula. Si T es antisimétrica α es por definición real y además
α = −α, es decir, α = 0. 
8.6. TRANSFORMACIONES HERMITIANAS Y SIMÉTRICAS 149

Sabemos que vectores propios correspondientes a valores propios diferentes son LI. Para transfor-
maciones hermitianas, antihermitianas y simétricas los vectores propios son además ortogonales.

Proposición 8.10. Sea T una transformación lineal hermitiana, antihermitiana o simétrica. Sean
α, β valores propios de T diferentes con vectores propios u, v respectivamente. Entonces, hu, vi = 0.

Demostración: Se tiene que hT (u), vi = hα.u, vi = αhu, vi y hu, T (v)i = hu, βvi = βhu, vi. Si T es
hermitiana o simétrica, entonces αhu, vi = βhu, vi = βhu, vi ya que β es real (Proposición 9). Esto
implica que hu, vi = 0. Si T es antihermitiana, entonces β = −β y entonces αhu, vi = −(−βhu, vi) y
nuevamente hu, vi = 0. 

A continuación veremos como son las matrices de las transformaciones definidas en la presente lección
relativas a bases ortonormales arbitrarias.

Proposición 8.11. Sea V un espacio con producto interno (unitario o euclidiano) , T : V → V una
transformación lineal y X = {v1 , . . . , vn }una base ortonormal de V . Sea A = [aij ] la matriz de T en
la base X. Entonces,

a) T es hermitiana si y sólo si aij = aji

b) T es antihermitiana si y sólo si aij = −aji

c) T es simétrica si y sólo si aij = aji

d) T es antisimétrica si y sólo si aij = −aji

para cada 1 ≤ i, j ≤ n.

Demostración: Se tiene que


* n
+
X
hT (vj ), vi i = akj .vk , vi = aij .
k=1

Analogamente, hT (vi ), vj i = aji . Entonces, T es hermitiana si y sólo si hT (vj ), vi i = hvj , T (vi )i =


hT (vi ), vj i = aij = aji (para el caso simétrico la conjugación sobra). Los casos antihermitiano y anti-
simétrico se demuestran de manera análoga. 

La proposición anterior define los siguientes tipos de matrices: Sea A = [aij ] una matriz con en-
tradas complejas, se dice que A es hermitiana siA∗ = A, cuando A∗ = −A se dice entonces que
A es antihermitiana. Sea A = [aij ] una matriz con entradas reales, se dice que A es simétrica si
AT = A, cuando AT = −A se dice entonces que A es antisimétrica. Una consecuencia directa de
estas definiciones y de la proposición inmediatamente anterior es el siguiente corolario.

Corolario 8.3. Sea T : V → V una transformación de un espacio con producto interno de dimensión
finita. Entonces, T es hermitiana (antihermitiana) si y sólo si la matriz de T en cualquier base orto-
normal es hermitiana (antihermitiana). También, T es simétrica (antisimétrica) si y sólo si la matriz
de T en cualquier base ortonormal es simétrica (antisimétrica).

Ejemplo 8.11. Algunos ejemplos de las matrices definidas anteriormente son los siguientes:
 
0 i 2
 i 0 3  es antihermitiana pero no es hermitiana
−2 −3 4i
La matriz nula es hermitiana y antihermitiana
150 CAPÍTULO 8. PRODUCTO INTERNO

 
2 i
es hermitiana pero no es antihermitiana
−i 4
 
0 i 2
 −i 0 3  no es hermitiana ni tampoco antihermitiana
−2 −3 0
 
1 2
es simétrica pero no es antisimétrica
2 3
La matriz nula es simétrica y antisimétrica
 
0 1
es antisimétrica pero no es simétrica
−1 0
 
0 2
no es simétrica ni antisimétrica
4 0
En una matriz hermitiana los elementos diagonales son reales, en una antihermitiana son imaginarios
puros y en una antisimétrica son nulos.

8.7. Diagonalización
Ahora estudiaremos la diagonalización de matrices y transformaciones hermitianas y simétricas.

Teorema 8.2. Sea T : V → V una transformación lineal hermitiana , antihermitiana (simétrica)


de un espacio unitario (euclideano) V de dimensión finita n ≥ 1. Entonces, T es diagonalizable. Mas
exactamente, V tiene una base ortonormal de vectores propios de T .

Demostración: La prueba se hace por inducción sobre n. Si n = 1 entonces V = hvi, con v 6= 0. Sea
v
w = kvk , entonces V = hwi y T (w) = a.w con a ∈ C (a ∈ R). De esta manera, w es un vector propio
de T y {w} es una base ortonormal de V .

Supóngase que el teorema ha sido demostrado para espacios de dimensión n, y sea V de dimen-
sión n + 1. Si V es unitario, entonces podemos garantizar la existencia de valores y vectores propios
para T . Sea V euclidiano y T simétrica. Sea X una base ortonormal de V , entonces A = mX (T ) es
simétrica (véase el Corolario 3 ). Podemos considerar la matriz A como hermitiana, de donde, A tiene
al menos un valor propio a1 ∈ C, sin embargo sabemos que a1 es necesariamente real (proposición 9).
Sea Z ∈ Cn+1 el vector propio asociado al valor a1 de tal forma que (A−a1 .E)Z = 0; el vector Z puede
escribirse en la forma Z = Z1 + iZ2 , donde Z1 , Z2 ∈ Rn+1 . Se tiene entonces que (A − a1 .E)Zi = 0,
i = 1, 2. Además, Z1 6= 0 ó Z2 6= 0. Ası́ pues, Z1 ó Z2 es un vector propio real de A con valor propio
real a1 .

Ası́ pues, en cualquiera de los tres casos T tiene al menos un vector propio u1 con valor propio
a1 . Sea v1 = kuu11 k , entonces T (v1 ) = a1 .v1 , es decir v1 es un vector propio de T de norma 1.

Sea W = hv1 i, sabemos que V = W ⊕ W ⊥ (Proposición 5), de donde dim(W ⊥ ) = n. Notemos que
W ⊥ es T -invariante: en efecto, sea x ∈ W ⊥ , entonces (T (x), v1 ) = (x, T ∗ (v1 )) = (x, T (v1 )) en el caso
en que T sea Hermitiana o simétrica. En el caso antihermitiano (T (x), v1 ) = −(x, T (v1 )). Entonces,
(T (x), v1 ) = ±(x, a1 .v1 ) = 0, lo cual indica que T (x) ∈ W ⊥ . Podemos entonces definir la restricción T0
de T al subespacio W ⊥ . Es obvio que T0 es Hermitiana (antihermitiana, simétrica, respectivamente).
Por inducción, existen v2 , . . . , vn+1 vectores propios ortonormales que conforman una base de W ⊥ .
Resulta entonces que v1 , v2 , . . . , vn+1 es una base ortonormal de vectores propios de T . 
8.7. DIAGONALIZACIÓN 151

El teorema anterior no es válido para transformaciones y matrices antisimétricas, ya que en caso


contrario todas estas serı́an nulas (ver la Proposición 11).

Las siguientes proposiciones permiten caracterizar las matrices diagonalizantes a que hace referen-
cia el Teorema 2.
Proposición 8.12. Sea A una matriz compleja hermitiana (antihermitiana) de orden n. Entonces
existe una matriz compleja invertible C de orden n tal que
 
a1 0 0
 
C −1 AC =  0 . . . 0 ,
0 0 an
donde a1 , . . . , an son los valores propios de A y para C se tiene que C −1 = C ∗ .
Demostración: Sea X la base canónica de Cn , existe una transformación T : Cn → Cn tal que
mX (T ) = A. Puesto que X es ortonormal entonces T es hermitiana (antihermitiana); existe una
base ortonormal Y de vectores propios de T en Cn tal que mY (T ) = diag(a1 , . . . , an ), donde a1 , . . . , an
los de A. Se tiene entonces que mY (T ) = C −1 AC,
son los valores propios de T, y en consecuencia, P
n
donde C es la matriz de cambio de X a Y : yi = k=1 cki .xk . Resta ver que C −1 = C ∗ .

* n n
+ n
n X
X X X
hyj , yi i = ckj .xk , cki .xk = csi ckj hxk , xs i.
k=1 k=1 s=1 k=1

Para k 6= s se tiene que hxk , xs i = 0. Por lo tanto,


n
X n
X 
1, i=j
hyj , yi i = cki ckj = c∗ik .ckj =
0, i 6= j
k=1 k=1

Entonces, C C = E. De manera análoga se establece que CC ∗ = E.


Proposición 8.13. Sea A una matriz real simétrica de orden n. Entonces existe una matriz real
invertible C de orden n tal que
 
a1 0 0
 
C −1 AC =  0 . . . 0 ,
0 0 an
donde a1 , . . . , an son los valores propios de A y para C se tiene que C −1 = C T .
Ejericicio 8.6. Para  
0 −2
A= ,
2 0
calcular una matriz C tal que C −1 AC sea diagonal.
Solución: A es una matriz antisimétrica no nula, por lo tanto no puede ser diagonalizada por medio
de una matriz real. Si consideramos a la matriz A como una matriz antihermitinana, entonces A
puede ser diagonalizada por medio de una matriz compleja C. Los valores propios de A son 2i y −2i;
E(2i) = {a.(i, 1) | a ∈ C − {0}}, E(−2i) = {a.(−i, 1) | a ∈ C − {0}}. Entonces, los vectores u1 = (i, 1)
y u2 = (−i, 1) son vectores propios correspondientes a valores propios diferentes, luego de acuerdo a la
Proposición 10 estos vectores son LI y ortogonales. Resulta entonces que {w1 = kuu11 k = √12 (i, 1), w2 =
152 CAPÍTULO 8. PRODUCTO INTERNO

u2
= √12 (−i, 1)} es una base ortonormal de C2 de vectores propios de A. La prueba de la Proposición
ku2 k
12 C es la matriz de cambio de base de la canónica a la base {w1 , w2 }, es decir,
" # " #
√1 i − √1 i − √1 i √1
C= 2
√1 √1
2 , C∗ = 2
√1 i √1
2 .
2 2 2 2

Nótese que efectivamente CC ∗ = E y


 
2i 0
C −1 AC = .
0 −2i

8.8. Transformaciones Unitarias y Ortogonales


Estudiaremos es esta lección las transformaciones lineales cuya inversa es su adjunta.

Definición 8.8. Sea T : V → V una transformación lineal de un espacio unitario (euclidiano), se


dice que T es unitaria (ortogonal) si

hT (u), T (v)i = hu, vi


para cada u, v ∈ V.

Proposición 8.14. Sea T : V → V una transformación lineal de un espacio unitario (euclidiano) de


dimensión finita n ≥ 1. Entonces las siguientes condiciones son equivalentes:

(a) T es unitaria (ortogonal)

(b) Para cada base X = {v1 , . . . , vn } de V se cumple que hT (vi ), T (vj )i = hvi , vj i , para cada
1 ≤ i, j ≤ n.

(c) Si {v1 , . . . , vn } es una base de ortonormal de V , entonces {T (v1 ), . . . , T (vn )} es también una
base ortonormal de V.

(d) Existe una base ortonormal {v1 , . . . , vn } de V tal que {T (v1 ), . . . , T (vn )} es también una base
ortonormal de V .

(e) Para cada v ∈ V se cumple que kT (v)k = kvk

(f ) T −1 existe y T −1 = T ∗ .

Demostración: (a) ⇒ (b) es evidente.

(b) ⇒ (c): Basta observar que {T (v1 ), . . . , T (vn )} es un conjunto ortonormal de vectores no nulos.

(c) ⇒ (d): Evidente.

(d) ⇒ (e): Sea v = a1 .v1 + · · · + an .vn , entonces


* n n
+ n X
n
X X X
hT (v), T (v)i = ak .T (vk ), al .T (vl ) = ak al hT (vk ), T (vl )i = hv, vi,
k=1 l=1 k=1 l=1

luego kT (v)k = kvk.

(e) ⇒ (f ): Basta probar que T es inyectiva para garantizar la existencia de T −1 . Si T (v) = 0, en-
tonces kT (v)k = kvk = 0, luego v = 0.
8.8. TRANSFORMACIONES UNITARIAS Y ORTOGONALES 153

Vamos ahora a probar que T preserva productos, usando las siguientes identidades de polarización:
1 2 1 2
hu, vi = ku + vk − ku − vk (caso real)
4 4
1 2 1 2 i 2 i 2
hu, vi = ku + vk − ku − vk + ku + i.vk − ku − i.vk (caso complejo).
4 4 4 4
Entonces en el caso real se tiene que

1 2 1 2
hT (u), T (v)i = kT (u) + T (v)k − kT (u) − T (v)k
4 4
1 2 1 2
= kT (u + v)k − kT (u − v)k
4 4
1 2 1 2
= ku + vk − ku − vk
4 4
= hu, vi .

El caso complejo

se demuestra usando

la segunda
identidad de polarización. De lo anterior resulta,
hT (u), vi = T (u), T (T −1 (v)) = u, T −1 (v) , es decir, T ∗ = T −1 .

(f ) ⇒ (a): Sean u, v ∈ V , entonces hT (u), T (v)i = hu, T ∗ (T (v))i = hu, T −1 (T (v)i = hu, vi.

Algunas de las propiedades expuestas en la proposición anterior son válidas para transformaciones
lineales sobre espacios de dimensión infinita. Sea T : V → V una transformación lineal de un espacio
V , entonces
(i) T es unitaria (ortogonal) si y sólo si T preserva la norma si y sólo si T preserva distancias, es
decir, kT (v) − T (u)k = kv − uk, para cada u, v ∈ V .
(ii) Sea T es unitaria (ortogonal), entonces hT (u), T (v)i = 0 si y sólo si hu, vi = 0.
(iii) Toda transformación unitaria (ortogonal) es inyectiva. Además, T −1 : T (V ) → V preserva el
producto interno. En consecuencia, si T es una transformación unitaria (ortogonal) biyectiva,
entonces T −1 es también unitaria (ortogonal).
(iv) La composición de transformaciones unitarias (ortogonales) es nuevamente una transformación
unitaria (ortogonal). En consecuencia, el conjunto de transformaciones unitarias (ortogonales)
biyectivas es un grupo.
Una matriz compleja C se dice unitaria si CC ∗ = E (es decir, C es invertible y su inversa es igual a
su adjunta). Una matriz real C se dice ortogonal si CC T = E (es decir, C es invertible y su inversa
es su transpuesta).
Corolario 8.4. Sea T : V → V una transformación lineal de un espacio unitario (euclidiano) de
dimensión finita n ≥ 1. Entonces, T es unitaria (ortogonal) si y sólo si la matriz de T en cada base
ortonormal de V es unitaria (ortogonal).
Demostración: Sea X = {v1 , . . . , vn } una base ortonormal de V y sea C = [cij ] = mX (T ). Entonces,
n
X n
X
T (vj ) = clj .vl , T (vi ) = cki .vk ,
l=1 k=1
* n n
+
X X
hT (vj ), T (vi )i = clj .vl , cki .vk =
l=1 k=1
154 CAPÍTULO 8. PRODUCTO INTERNO

n
X 
1, i=j
ckj .cki = hvj , vi i =
0, i 6= j
k=1

Se tiene entonces que CC ∗ = E. La prueba en sentido contrario funciona para probar la afirmación
recı́proca.

La diagonalización de las transformaciones (matrices) unitarias será probada en la próxima lección. El


siguiente ejemplo ilustra que no toda transformación (matriz) ortogonal es diagonalizable.
 
0 1
Ejemplo 8.12. La matriz real A = es ortogonal, sin embargo A no tiene valores propios
−1 0
reales, por lo tanto, A no es diagonalizable.
Ejemplo 8.13. Sea T una transformación unitaria (ortogonal). Sea a un valor propio de T , entonces
|a| = 1. En efecto, T (u) = a.u, con u 6= 0, luego hT (u), T (u)i = hu, ui = ha.u, a.ui = aa hu, ui, por lo
tanto, aa = 1, es decir, |a| = 1.

8.9. Transformaciones Normales


Nótese que las transformaciones Hermitianas, antihermitianas, simétricas, antisimétricas, unitarias
y ortogonales, tienen la propiedad de conmutar con su adjunta. Estudiaremos en esta lección las
transformaciones con tal propiedad.
Definición 8.9. Sea T : V → V una transformación lineal de un espacio unitario (euclidiano). Se
dice que T es normal si T T ∗ = T ∗ T. Una matriz compleja (real) A se dice normal si AA∗ = A∗ A.
Corolario 8.5. Sea T : V → V una transformación lineal de un espacio unitario (euclidiano) de
dimensión finita n ≥ 1 y X una base ortonormal de V . T es normal si y sólo si la matriz de T en la
base X es normal.
Corolario 8.6. Los siguientes tipos de transformaciones son normales: hermitianas, antihermitianas,
simétricas, antisimétricas, unitarias y ortogonales.
Proposición 8.15. Sea T : V → V una transformación normal de un espacio unitario (euclidiano)
de dimensión finita n ≥ 1. u ∈ V es un vector propio de T con valor propio a si y sólo si u es vector
propio de T ∗ con valor propio a.
Demostración: Para cada transformación T normal se tiene que kT (u)k = kT ∗ (u)k, para cada u ∈ V .
2
En efecto, kT (u)k = hT (u), T (u)i=hu, T ∗ (T (u))i = hu, T (T ∗ (u))i = hT (T ∗ (u)), ui = hT ∗ (u), T ∗ (u)i =
2
hT (u), T (u)i = kT ∗ (u)k .
∗ ∗

Sea U = T −a.I, entonces U es también normal (a es cualquier número real o complejo): U ∗ = T ∗ −aI,
entonces U U ∗ = (T − a.I) (T ∗ − a.I) = (T ∗ − a.I) (T − a.I) = U ∗ U .

De lo anterior se tiene entonces que k(T − a.I) (u)k = k(T ∗ − a.I) (u)k, luego (T − a.I) (u) = 0 si
y sólo si (T ∗ − a.I) (u) = 0.
Teorema 8.3. Sea V un espacio unitario de dimensión finita n ≥ 1 y sea T : V −→ V un operador
normal. Entonces, existe una base ortonormal X = {v1 , . . . , vn } de vectores propios de T tal que
mX (T ) es diagonal.
Demostración: La prueba se realiza por inducción sobre n. Para n = 1 sea V = hvi, entonces norma-
v
lizamos el vector v, y obtenemos w = kvk . Es claro que V = hwi y {w} es una base ortonormal de V
tal que la matriz de T en esta base es diagonal.
8.9. TRANSFORMACIONES NORMALES 155

Supongamos que el teorema ha sido probado para n y sea V un espacio de dimensión n + 1. Como
suponemos que estamos en el caso complejo, podemos asegurar la existencia de al menos un vector
u ∈ V y un escalar a ∈ C tal que T (u) = a.u. Sea W = hui y W ⊥ el complemento ortogonal de W .
Veamos que W ⊥ es T -invariante. En efecto, sea x ∈ W ⊥ , entonces (T (x), u) = (x, T ∗ (u)) = (x, a.u),
donde la última igualdad se tiene por la Proposición 15. Se tiene entonces que (x, a.u) = 0, y por lo
tanto, T (x) ∈ W ⊥ . Como V = W ⊕ W ⊥ y dim(W ⊥ ) = n, entonces para aplicar inducción debemos
garantizar que la restricción T0 de T a W ⊥ sea nuevamente un operador normal. En W ⊥ construimos
una base ortonormal, de tal manera que al reunir esta base con {u} obtenemos una base ortonormal
de V y en esta base la matriz de T es normal y tiene dos bloques, uno de tamaño 1 × 1 y el segundo
B de tamaño n × n. Es claro que B es una matriz normal, con lo cual T0 es también normal.

Por inducción, existe una base ortonormal X0 = {u1 , . . . , un } en W ⊥ de vectores propios de T0


tal que la matriz de T0 en esta base es diagonal. Notemos que los vectores de X0 son también vectores
propios para T . Se tiene en total que X = X0 ∪ {u} es una base ortonormal de vectores propios de T
y la matriz de T en esta base es diagonal. 

Corolario 8.7. Toda matriz normal compleja es diagonalizable por medio de una matriz unitaria.
De los resultados del presente capı́tulo se pueden sacar las siguientes conclusiones:

Matrices (transformaciones) diagonalizables por medio de matrices unitarias: Hermitia-


nas, antihermitianas,unitarias.
Matrices (transformaciones) diagonalizables por medio de matrices ortogonales: simétri-
cas.
Matrices (transformaciones) no siempre diagonalizables: antisimétricas, ortogonales.
Cerramos este capı́tulo con un ejemplo y un ejercicio.
Ejemplo 8.14. La siguiente matriz es normal
 
1 i
A=
i 1
Entonces, según el Teorema 3 existe una matriz unitaria C tal que C −1 AC es diagonal. Vamos a
calcular la matriz C. (Notemos que A no es Hermitiana, ni antihermitiana, ni simétrica, ni unitaria).
Se tiene que pA (x) = x2 −2x+2 y sus raı́ces son 1−i, 1+i. Los espacios propios son E(1−i) = h(−1, 1)i,
E(1 + i) = h(1, 1)i. Los vectores propios son ortogonales y debemos normalizarlos: v1 = √12 (−1, 1),
v2 = √12 (1, 1). Entonces la matriz C es
" #
− √12 √12
C= √1 √1
2 2

y satisface
 
1−i 0
C −1 AC = .
0 1+i
Notemos que C es ortogonal, y por lo tanto unitaria.
Ejericicio 8.7. Para cada matriz compleja A existe una matriz unitaria U tal que U −1 AU es triangular
superior.
Solución: Sabemos que toda matriz compleja se puede triangular, es decir, si T : Cn :−→ Cn es la
transformación de A en la base canónica X, entonces existe una base Y en Cn tal que la matriz de T en
esta base es triangular superior. Podemos aplicar el método de Gram-Schmidt a esta base Y y obtener
una nueva base ortonormal Z en la cual la matriz de T es también triangular superior. Notemos que
156 CAPÍTULO 8. PRODUCTO INTERNO

mZ (T ) = U −1 AU ,
donde U es la matriz de cambio de X a Z, por lo tanto, las columnas de U son vectores ortonormales
de Cn , es decir, U es unitaria.
Álgebra Lineal
Capítulo 8. Espacios con Producto Interno
Ejercicios.
Iniciamos esta sección de ejercicios repasando algunos conceptos de geometría vectorial.
a. Sean !
u ;!v vectores no nulos de Rn . Probar que !u ;!v son ortogonales si y sólo si

k!
u +!
v k2 =k !
u k2 + k !
v k2 :
b. Sean !
u ;!
v vectores de Rn . Probar que

k!
u +!
v k2 + k !
u !
v k2 = 2(k !
u k2 + k !
v k2 ):

c. Sean !u ;!v vectores no nulos de Rn . Demostrar que pr! ! !


u , donde
u ( v ) = (k v k cos ) :e!
!
e u es un vector de norma 1 en la dirección de u .
!
d. Sean ! u ;!v vectores no nulos de Rn . Probar que

k!
u !
v k2 =k !
u k2 + k !
v k2 2k!
u kk !
v k cos ;

donde es el ángulo entre u y v.


e. Sean !u ;!v vectores no nulos. Se dice que !
u y!v son paralelos, lo cual denotamos por
!u k v , si el ángulo entre ellos es 0 ó . Demostrar que !
! u k!v ,! u = :! v , donde
es un escalar de R.
! ! ! ! ! ! ! ! !
f. Sean !u = u1 i + u2 j + u3 k ; v = v1 i + v2 j + v3 k 2 R3 , donde i ; j ; k son los
vectores canónicos unitarios. Se de…ne el producto vectorial de !
u con ! v por
2 ! ! ! 3
i j k
!u !
v = det u1 u2 u3 5 :
4
v1 v2 v3

Demostrar que se tienen las siguientes propiedades del producto vectorial:


(!u ! v ;!u ) = 0; (!u ! v ;!
v ) = 0;
! ! ! ! !
u v = (v u ); u !
! u = 0,
: (!
u ! v ) = ( :!u) ! v =! u ( :! v ),
! !
(u + v) w = u ! ! !
w+ v! !w , u (!
! v +! w) = !
u ! v +!u ! w,
! ! ! ! ! ! ! ! !
i j = k; j k = i;k i = j,
k! u ! v k2 =k !u k2 k ! v k2 (! u ;!
2
v) .
g. Sean ! u ;! v vectores no nulos. Demostrar que k ! u !v k=k !
u kk !
v k sen , donde
! !
es el angulo entre u y v . Esto corresponde al área del paralelogramo determinado por
los vectores ! u y! v , cuando éstos no son paralelos
! !
h. Sean u ; v dos vectores de R3 no nulos y no paralelos. Demostrar que el área del
triángulo cuyos lados son estos dos vectores viene dada por
k!
u !
v k
:
2

1
i. Demostrar que el volumen de un paralelepípedo conformado por tres vectores no
coplanares !u ;!v ;!
w 2 R3 viene dado por (! u ! v ;!
w ).
j. Líneas rectas en R3 : en este ejercicio repasamos la de…nición de recta en R3 y algunas
de sus más importantes caracterizaciones y propiedades.

j1. Concepto: la recta que pasa por el punto P = (p1 ; p2 ; p3 ) 2 R3 y tiene


!
como vector director !
a = (a1 ; a2 ; a3 ) 6= 0 se de…ne por
!
L (P; ! a ) = fOP + :! a j 2 Rg =
f(p1 ; p2 ; p3 ) + : (a1 ; a2 ; a3 ) j 2 Rg =
f(p1 + a1 ; p2 + a2 ; p3 + a3 ) j 2 Rg:

Esta se conoce como la caracterización vectorial de la recta. Algunas propiedades


son las siguientes:
! !
j2. L (P; !
a ) = L P; b , ! a = : b , donde es un cierto escalar no nulo,
!
es decir, si y sólo si !a y b son paralelos.
j3. L (P; !a ) = L (Q; ! a ) , Q 2 L (P; !
a ) , P 2 L (Q; !
a)
! !
Decimos que L (P; ! a ) k L Q; b si y sólo si !
a y b son paralelos. Demostrar
que dada una recta L (P; ! = L (P; !
a ) y un punto P 0 2 a ), existe una única recta
! ! !
L Q; b tal que P 2 L Q; b y L Q; b k L (P; !
0
a ).
j4. Dos puntos distintos determinan una única recta, es decir, demostrar que
dados dos puntos P 6= Q existe una única recta que los contiene a ambos. Esta
!
recta es L P; P Q .
j5. Ecuaciones paramétricas de la recta: notemos que un punto (x; y; z) de la
recta L (P; !
a ) satisface

(x; y; z) = (p1 ; p2 ; p3 ) + : (a1 ; a2 ; a3 )

es decir

x = p 1 + a1
y = p 2 + a2
z = p 3 + a3 :

k. Líneas rectas en R2 : una recta en R2 se de…ne en forma similar a como se hizo en el


espacio, la recta que pasa por el punto P = (p1 ; p2 ) 2 R2 y tiene como vector director

2
! !
a = (a1 ; a2 ) 6= 0 se de…ne por
!
L (P; !
a ) = fOP + :! a j 2 Rg =
f(p1 ; p2 ) + : (a1 ; a2 ) j 2 Rg =
f(p1 + a1 ; p2 + a2 ) j 2 Rg:

De manera particular se tienen las ecuaciones paramétricas:

x = p 1 + a1
y = p 2 + a2 :

Eliminando el parámetro se obtiene la ecuación cartesiana de la recta:

a2 x = a2 p 1 + a 1 a2
a1 y = a1 p 2 + a 1 a2

luego

a2 x a2 p1 = a1 y a1 p 2
a1 y = a2 x + a1 p 2 a2 p 1

Si a1 6= 0, entonces obtenemos la ecuación explícita de la recta:


a2 a1 p 2 a2 p 1
y= x+ ;
a1 a1

en donde aa21 es la pendiente y a1 p2a1a2 p1 es el corte con el eje y. Si a1 = 0, entonces la


ecuación en este caso es simplemente x = p1 , es decir, es la recta paralela al eje y que
pasa por el punto (p1 ; p2 ).
Ecuación normal de la recta: notemos que el vector ! n = (a2 ; a1 ) es ortogonal al vector
director !
a = (a1 ; a2 ) de la recta L (P; ! a ), podemos entonces caracterizar la recta como
el conjunto de puntos ! z = (x; y) tales que

! ! !
z OP ; !
n = 0
!
(!
z ;!
n ) = OP ; !
n :

Si utilizamos la notación del producto punto, entonces la ecuación normal de la recta es


! !
z !
n = OP !
n

De aquí resulta a2 x a1 y = a2 p1 a1 p2 , y nuevamente, si a1 6= 0, entonces obtenemos


nuvamente la ecuación punto-pendiente.

3
Distancia de un punto a una recta L (P; ! a ): sea Q un punto que no pertenece a la recta,
! ! !
entonces la distancia d de Q a L (P; a ) es la norma de la proyección del vector OP OQ =
!
QP sobre el vector normal ! n , por lo tanto
! !
! QP ;n
d =k proj n QP k= k
!
! 2
:!
nk =
k n k
! !
QP ; !n j QP ; !
n j
j ! 2 jk! n k= =
k n k k!n k
j ((p1 q1 ; p2 q2 ) ; (a2 ; a1 )) j
p )
a21 + a22
ja2 (p1 q1 ) a1 (p2 q2 ) j
d= p
a21 + a22
!
l. Sean !
a ; b vectores de Rn . Demostrar que
! ! 2 !
k! a + b k2 k ! a b k =4 ! a; b :

m. Demostrar que un paralelogramo es un rectángulo si y sólo si las dos diagonales tienen


la misma longitud.
!
n. Sea ! a = (1; 2) ; b = (3; 4) 2 R2 . Calcular vectores ! p = (p1 ; p2 ) y !
q = (q1 ; q2 ) 2 R2
! !
tales que ! a =! p+! q,!
p k b y! q ? b.
o. Una recta L de R3 contiene al punto P = ( 3; 1; 1) y es paralela al vector ! a =
(1; 2; 3). Cuáles de los siguientes puntos pertenecen a L?
(i) (0; 0; 0) (ii) (2; 1; 4) (iii) ( 2; 1; 4) (iv) ( 4; 3; 2) (v) (2; 9; 16).
!
p. Sean ! a ; b ;!c vectores no nulos de R3 tales que el ángulo entre ! a y!c es igual al
! ! ! ! !
ángulo entre b y c . Demostrar que c es perpendicular al vector k b k : a k !
! a k:b.
! ! ! ! ! ! !
q. Sea ! a = 2i j +2k y ! c = 3i +4j k . Encontrar un vector b tal que
! ! ! !
a b = c y ! a ; b = 1.
r. Ecuaciones del plano : en este ejercicio repasamos la de…nición de plano en R3 y algunas
de sus más importantes caracterizaciones y propiedades.
r1. Descripción vectorial del plano: un plano M en el espacio R3 se de…ne por
medio de un punto P = (p1 ; p2 ; p3 ) que lo contiene y dos vectores directores
!
u = (u1 ; u2 ; u3 ) y !
v = (v1 ; v2 ; v3 ) linealmente independientes (lo cual implica
que son no nulos), en la siguiente forma
!
M (P; !u ;! v ) = fOP + :! u + :! v j ; 2 Rg
= f(p1 ; p2 ; p3 ) + ( u1 ; u2 ; u3 ) + ( v1 ; v2 ; v3 ) j ; 2 Rg
= f(p1 + u1 + v1 ; p2 + u2 + v2 ; p3 + u3 + v3 ) j ; 2 Rg:

4
! !
r2. Dos planos M (P; ! u ;!
v ) y M (P; u0 ; v 0 ) que pasan por el mismo punto P
! !
son iguales si y sólo si < !u ;!
v >=< u0 ; v 0 >: en efecto, si M (P; ! u ;!v) =
!0 !0 !
M (P; u ; v ), entonces dados ; 2 R se tiene que OP + : u + :! ! v 2
! ! ! ! ! !0 !0 !
M (P; u ; v ), luego OP + : u + : v 2 M (P; u ; v ), por lo tanto, OP +
! ! !
:!
u + :! v = OP + 0 : u0 + 0 : v 0 para ciertos escalares 0 ; 0 2 R, en conse-
! ! ! !
cuencia :! u + :! v = 0 : u0 + 0 : v 0 . Esto muestra que < !
u ;!v > < u0 ; v 0 >.
! !
Por la simetría del problema, se tiene también que < u0 ; v 0 > < ! u ;!
v >.
! ! !0 !0
Supongamos ahora que < u ; v >=< u ; v >, entonces claramente
!
M (P; ! v ) = fOP + :!
u ;! u + :!
v j ; 2 Rg =
! !0 !0 ! !
fOP + : u + : v j ; 2 Rg = M (P; u0 ; v 0 ):

r3. M (P; !
u ;!v ) = M (Q; !
u ;!v ) , P 2 M (Q; ! u ;!v ) , Q 2 M (P; ! u ;!v ).
! !
r4. Se dice que dos planos M (P; !u ;!
v ) y M (Q; u0 ; v 0 ) son paralelos si y sólo
! !
si < !
u ;!v >=< u0 ; v 0 >. Se tiene entonces la siguiente propiedad:
r5. Sea M (P; !
u ;! = M (P; !
v ) un plano y Q 2 u ;!
v ) un punto por fuera de dicho
plano. Entonces, existe un único plano M que contiene a Q y es paralelo a M .
Este plano es por supuesto M (Q; ! u ;!
v ).
r6. Sean P; Q:R tres puntos distintos de R3 que no están sobre una misma
recta, es decir, no son colineales. Entonces, existe un único plano que contiene
! ! ! !
a estos tres puntos, dicho plano es M P; : OQ OP + : OR OP .
r7. Tres vectores ! u ;!
v y! w son linealmente dependientes si y sólo si están
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres
vectores son LD, entonces uno de ellos, por ejemplo ! u , está en la envolvente
lineal de !v y ! w , es decir, !u 2< ! v ;!w >. Si ! v y ! w son LI, entonces
tenemos que los tres están en el plano que pasa por el origen y tiene como
vectores directores a ! v y ! w , es decir, los tres vectores están en el plano
M (0; !v ;!
w ). Si por el contrario !v y!w son LD, entonces ! v = :! w , para un
cierto escalar 2 R. Esto hace que los tres vectores estén en la recta L (0; ! w ),
pero esta recta está contenida por ejemplo en el plano M (0; ! w;! z ), siendo
!z cualquier vector LI con ! w . Probemos la a…rmación recíproca. Supongamos
!
que los tres vectores u ; v y !
! ! w están en el plano M 0; ! a ; b , entonces
! ! !
u ;!
v ;!w 2< ! a ; b >, pero sabemos por de…nición que ! a y b son LI, luego
!u ;!
v y! w son LD.
r8. Ecuaciones paramétricas del plano: un punto cualquiera (x; y; z) del plano
M (P; !
u ;!v ) satisface las siguientes ecuaciones

5
x = p1 + u1 + v 1
y = p2 + u2 + v 2
z = p3 + u3 + v 3 :
r9. Ecuación Cartesiana del plano: eliminando los parámetros y de las
ecuaciones parámetricas del plano obtenemos la ecuación cartesiana, veamos
un ejemplo: consideremos el plano M (P; ! u ;!v ), donde P = (1; 2; 3), !
u =
(1; 1; 0) y !
v = (0; 1; 1). Entonces, las ecuaciones paramétricas son

x=1+
y =2+ +
z =3+
luego

y 2 =z 3
con lo cual

y 2 x+1=z 3
es decir, la ecuación cartesiana es

x y + z = 2:
r10. Ecuación normal del plano: sea M (P; !u ;!v ) un plano, un vector ! n 2 R3
se dice perpendicular al plano M (P; u ; v ) si n es perpendicular tanto a !
! ! ! u
como a ! v . Si además ! n es no nulo, entonces se dice que ! n es normal a
M (P; !u ;!v ). Notemos que !n es perpendicular a M (P; ! u ;!v ) si y sólo si !
n
! !
es perpendicular a cada vector de < u ; v >. Se tiene la siguiente propiedad:
!u ! v es normal al plano M (P; ! u ;!
v ) y el plano se puede describir por la
siguiente ecuación normal:

! !
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX OP ; !u !
v = 0g
! !
M (P; !
u ;!
v ) = fX = (x; y; z) 2 R3 j OX; !
u ! v = OP ; !
u !
v g

6
usando la notación de producto punto también podemos escribir

! !
M (P; !u ;!
v ) = fX = (x; y; z) 2 R3 j OX (! u ! v ) = OP (! u ! v )g
En efecto, como !u y! v son LI, entonces ! u !v es no nulo y sabemos que
!
u ! v es perpendicular tanto a ! u como a ! v.
! ! !
Sea ahora X 2 M (P; ! u ;!
v ), entonces OX = OP + :! u + ! v , luego OX
! ! !
OP 2< ! u ;!v >, con lo cual OX OP ; ! u ! v = 0. Recíprocamente, sea
! !
X 2 R3 tal que OX OP ; ! u ! v = 0, sabemos que ! u ;!
v y! u ! v son
! !
LI, luego generan R3 , por lo tanto OX OP = :! u + :!v + : (!u ! v ), luego
el producto interno de este vector con (!u ! v ) es nulo, y en consecuencia,
! ! ! !
= 0. Resulta, OX OP = :! u + :!
v , es decir, OX = OP + :! u + :! v,
! !
de donde X 2 M (P; u ; v ).
1. Sea V un espacio vectorial real tal que V = W1 Wk . Supóngase que cada Wi
es euclidiano con producto interno hi i . De…nir sobre V un producto interno y demostrar
que V es euclidiano.
2. Pruebe que si los vectores vi = (xi1 ; xi2 ; : : : ; xin ), 1 i n conforman una base
n
ortogonal de R , donde xij = 0 para i > j, entonces xij 6= 0 para i = j y xij = 0 para
i 6= j:
2 n
3. De…nir en el espacio Rn [x] un producto interno tal que f1; x; x2! ; : : : ; xn! g sea una base
ortonormal.
4. Sea V un espacio euclidiano y W1 ; W2 subespacios de V de dimensión …nita. Demostrar
que V = W1 W2 si y sólo si V = W1? W2? :
5. Sea V un espacio unitario de dimensión …nita y sea T : V ! V una transformación
lineal. Si T es invertible, entonces T es invertible y (T ) 1 = (T 1 ) :
6. Sea V un espacio unitario de dimensión …nita y sea T : V ! V una transformación
lineal hermitiana. Demostrar que la composición de dos transformaciones hermitianas es
hermitiana si y sólo si ellas conmutan para la composición.
7. Sea V un espacio unitario de dimensión …nita y sea T : V ! V una transformación
lineal tal que T 2 = T: Demostrar que T es hermitiana si y sólo si T T = T T:
8. Demuestre que una matriz compleja A de tamaño n n es unitaria si y sólo si las
columnas de A conforman una base ortonormal de Cn , si y sólo si, las …las de A conforman
una base ortonormal de Cn :
9. Sea Tn+ (C) el conjunto de matrices cuadradas complejas de orden n tales que los ele-
mentos diagonales son números reales positivos y los elementos por encima de la diagonal
son nulos. Demostrar que Tn+ (C) es un grupo respecto al producto.
10. Sea T : V ! V una transformación lineal de un espacio unitario. Entonces T se
puede descomponer en la forma T = U1 +iU2 , donde U1 ; U2 : V ! V son transformaciones
hermitianas.

7
11. En el espacio R2 [x] de polinomios reales de grado 2 se de…ne el producto interno
R1
(f; g) = 1
p(x)q(x)dx

Si D es el operador derivación de…nido sobre R2 [x], encontrar matriz del operador D en


la base canónica de R2 [x].
12. En el espacio Rn [x] de polinomios reales de grado n se de…ne el producto interno
Pn
k=0 p(k)q(k)

Si D es el operador derivación de…nido sobre Rn [x], encontrar un subespacio invariante


de dimensión n respecto del operador D .
13. Sea v un vector propio del operador T con valor propio a y sea u un vector propio de
T con valor propio b de tal forma que b 6= a. Demostrar que v y u son ortogonales.
14. Sea T un operador normal sobre un espacio V . Demostrar que V = N (T ) Im(T ).
15. Ilustrar dos operadores normales T y S tales que ST y T S sean normales y distintos.
16. Sea U = h( 1; i; 0; 1) ; (i; 0; 2; 0)i C4 . Encontrar una base ortonormal de U ? y
extenderla hasta una base ortonormal de C4 .
17. Encontrar una matriz compleja C tal que C 1 AC sea diagonal, donde

2 i
A= .
i 4

Veri…car además que C 1 = C .


18. Determinar los valores de a; b 2 C tales que
2 p p 3
ip 2 (1 + i) 3 a
1
A = p 4 p8 pb 2 5
2 3 2 ( 1 + i) 3 2
sea una matriz unitaria.
19. Encontrar una matriz ortogonal Q tal que
2 p p 3
p25 2 5 5
T 4
Q 2p5 18 14 5 Q
5 14 3
sea diagonal.

8
Álgebra Lineal
Capı́tulo 8. Espacios con Producto Interno
Ejercicios.
Iniciamos esta sección de ejercicios repasando algunos conceptos de geometrı́a vectorial.
a. Sean −

u ,−
→v vectores no nulos de Rn . Probar que − →
u ,−
→v son ortogonales si y sólo si

k−

u +−

v k2 =k −

u k2 + k −

v k2 .
b. Sean →

u ,−

v vectores de Rn . Probar que

k−

u +−

v k2 + k −

u −−

v k2 = 2(k −

u k2 + k −

v k2 ).

c. Sean −
→u ,−
→v vectores no nulos de Rn . Demostrar que pr− →
− →

u ( v ) = (k v k cos θ) .e−
→ u , donde



e u es un vector de norma 1 en la dirección de u .


d. Sean −→u ,−
→v vectores no nulos de Rn . Probar que

k−

u −−

v k2 =k −

u k2 + k −

v k2 −2 k −

u kk −

v k cos θ,

donde θ es el ángulo entre u y v.


e. Sean −
→u ,−
→v vectores no nulos. Se dice que − →u y−→v son paralelos, lo cual denotamos por

−u k v , si el ángulo θ entre ellos es 0 ó π. Demostrar que −

− →
u k− →v ⇔− →u = λ.−
→v , donde λ
es un escalar de R.

− →
− →
− →
− →
− →
− → −
− → −→
f. Sean −
→u = u1 i + u2 j + u3 k , v = v1 i + v2 j + v3 k ∈ R3 , donde i , j , k son los
vectores canónicos unitarios. Se define el producto vectorial de − →
u con − →v por
 −
→ − → − → 
i j k

−u ×− →v = det  u1 u2 u3  .
v1 v2 v3

Demostrar que se tienen las siguientes propiedades del producto vectorial:


(−
→u ×− →v ,−
→u ) = 0, (−
→u ×− →v ,−

v ) = 0,

− →

u × v = −( u × v ), u × −

− →
− →
− −
→ →u = 0,
λ. (−
→u ×− →v ) = (λ.−
→u)×− →
v =− →u × (λ.−
→v ),
( u + v ) × w = u × w + v × w , u × (−

− →
− →
− →
− →
− →
− →
− →
− →
v +− →w) = −
→u ×−
→v +−
→u ×−→
w,
→ −
− → − → − → − → − → −→ − → − →
i × j = k, j × k = i , k × i = j ,
k−→u ×− →v k2 =k −→
u k2 k −→v k2 − (−→
u ,−
→ 2
v) .
g. Sean − →
u ,−→v vectores no nulos. Demostrar que k − →
u ×−→
v k=k −

u kk −

v k senθ, donde θ

− →

es el angulo entre u y v . Esto corresponde al área del paralelogramo determinado por
los vectores − →
u y− →v , cuando éstos no son paralelos

− →

h. Sean u , v dos vectores de R3 no nulos y no paralelos. Demostrar que el área del
triángulo cuyos lados son estos dos vectores viene dada por
k−

u ×−→
v k
.
2

1
i. Demostrar que el volumen de un paralelepı́pedo conformado por tres vectores no
coplanares − →
u ,−
→v ,−

w ∈ R3 viene dado por (− →
u ×−→v ,−

w ).
j. Lı́neas rectas en R3 : en este ejercicio repasamos la definición de recta en R3 y algunas
de sus más importantes caracterizaciones y propiedades.

j1. Concepto: la recta que pasa por el punto P = (p1 , p2 , p3 ) ∈ R3 y tiene




como vector director −

a = (a1 , a2 , a3 ) 6= 0 se define por
−→
L (P, − →a ) = {OP + λ.− →
a | λ ∈ R} =
{(p1 , p2 , p3 ) + λ. (a1 , a2 , a3 ) | λ ∈ R} =
{(p1 + λa1 , p2 + λa2 , p3 + λa3 ) | λ ∈ R}.

Esta se conoce como la caracterización vectorial de la recta. Algunas propiedades


son las siguientes:
 −→ →

j2. L (P, −

a ) = L P, b ⇔ − →a = λ. b , donde λ es un cierto escalar no nulo,


es decir, si y sólo si −
→a y b son paralelos.
j3. L (P, −
→a ) = L (Q, − →a ) ⇔ Q ∈ L (P, −

a ) ⇔ P ∈ L (Q, −
→a)
 −→  →

Decimos que L (P, − →a ) k L Q, b si y sólo si −

a y b son paralelos. Demostrar
que
 dada una recta L (P, −

a ) y un
 punto
0
 P− /L (P, −
∈ →
a ), existe una única recta
→
−  →
− →
L Q, b tal que P ∈ L Q, b y L Q, b k L (P, −
0 →
a ).
j4. Dos puntos distintos determinan una única recta, es decir, demostrar que
dados dos puntos
 −→P  6= Q existe una única recta que los contiene a ambos. Esta
recta es L P, P Q .
j5. Ecuaciones paramétricas de la recta: notemos que un punto (x, y, z) de la
recta L (P, −

a ) satisface

(x, y, z) = (p1 , p2 , p3 ) + λ. (a1 , a2 , a3 )

es decir

x = p1 + λa1
y = p2 + λa2
z = p3 + λa3 .

k. Lı́neas rectas en R2 : una recta en R2 se define en forma similar a como se hizo en el


espacio, la recta que pasa por el punto P = (p1 , p2 ) ∈ R2 y tiene como vector director

2

→ →

a = (a1 , a2 ) 6= 0 se define por
−→
L (P, −

a ) = {OP + λ.− →
a | λ ∈ R} =
{(p1 , p2 ) + λ. (a1 , a2 ) | λ ∈ R} =
{(p1 + λa1 , p2 + λa2 ) | λ ∈ R}.

De manera particular se tienen las ecuaciones paramétricas:

x = p1 + λa1
y = p2 + λa2 .

Eliminando el parámetro λ se obtiene la ecuación cartesiana de la recta:

a2 x = a2 p1 + λa1 a2
a1 y = a1 p2 + λa1 a2

luego

a2 x − a2 p1 = a1 y − a1 p2
a1 y = a2 x + a1 p 2 − a2 p 1

Si a1 6= 0, entonces obtenemos la ecuación explı́cita de la recta:


a2 a1 p 2 − a2 p 1
y= x+ ,
a1 a1

en donde aa12 es la pendiente y a1 p2a−a


1
2 p1
es el corte con el eje y.
Ecuación normal de la recta: notemos que el vector − →
n = (a2 , −a1 ) es ortogonal al vector

− →

director a = (a1 , a2 ) de la recta L (P, a ), podemos entonces caracterizar la recta como
el conjunto de puntos − →z = (x, y) tales que
 −→ −  − →

− →
z − OP , n = 0
−→ 
(−
→z ,− →n ) = OP , − →
n .

Si utilizamos la notación del producto punto, entonces la ecuación normal de la recta es



→ −→ →
z ·−

n = OP · −
n

Distancia de un punto a una recta L (P, − →


a ): sea T un punto que no pertenece a la recta,

− −→ −→
entonces la distancia d de T a L (P, a ) es la norma de la proyección del vector OP − OT

3
sobre el vector normal →

n , por lo tanto
−→ −→ 
−→ −→ OP − OT , −

n
n OP − OT
d =k proj−
→ k= k .−

nk =
k−→
n k2
−→ −→  −→ −→ 


OP − OT , n →

| OP − OT , n |
| | k →

n k=


k n k2 k−→
n k


l. Sean →

a , b vectores de Rn . Demostrar que

− →
−  −→
k−

a + b k2 − k −

a − b k2 = 4 −

a, b .

m. Demostrar que un paralelogramo es un rectángulo si y sólo si las dos diagonales tienen


la misma longitud.


n. Sea − →a = (1, 2) , b = (3, 4) ∈ R2 . Calcular vectores − →p = (p1 , p2 ) y −

q = (q1 , q2 ) ∈ R2

− →

tales que − →a =− →p+− →q,−→
p k b y− →q ⊥ b.
o. Una recta L de R contiene al punto P = (−3, 1, 1) y es paralela al vector −
3 →a =
(1, −2, 3). Cuáles de los siguientes puntos pertenecen a L?
(i) (0, 0, 0) (ii) (2, −1, 4) (iii) (−2, −1, 4) (iv) (−4, 3, −2) (v) (2, −9, 16).
→ →

p. Sean − →a , b ,−c vectores no nulos de R3 tales que el ángulo entre − →
a y−→c es igual al
→ −
− →
− →

ángulo entre b y c . Demostrar que c es perpendicular al vector k b k . a − k −
→ →
− →
− →a k.b.
→ −
− → → →
− →
− → −
− → −

q. Sea − →a = 2 i − j + 2 k y − c = 3 i + 4 j − k . Encontrar un vector b tal que

− → →
− →

a × b =− c y − →a , b = 1.
r. Ecuaciones del plano : en este ejercicio repasamos la definición de plano en R3 y algunas
de sus más importantes caracterizaciones y propiedades.

r1. Descripción vectorial del plano: un plano M en el espacio R3 se define por


medio de un punto P = (p1 , p2 , p3 ) que lo contiene y dos vectores directores


u = (u1 , u2 , u3 ) y −

v = (v1 , v2 , v3 ) linealmente independientes (lo cual implica
que son no nulos), en la siguiente forma
−→
M (P, −

u ,−
→v ) = {OP + α.− →
u + β.− →
v | α, β ∈ R}
= {(p1 , p2 , p3 ) + (αu1 , αu2 , αu3 ) + (βv1 , βv2 , βv3 ) | α, β ∈ R}
= {(p1 + αu1 + βv1 , p2 + αu2 + βv2 , p3 + αu3 + βv3 ) | α, β ∈ R}.
→ −
− →
r2. Dos planos M (P, − →u ,−

v ) y M (P, u0 , v 0 ) que pasan por el mismo punto P
→ −
− →
son iguales si y sólo si < −
→u ,−
→v >=< u0 , v 0 >: en efecto, si M (P, −→u ,−
→v) =
→0 −
− →0 −→
M (P, u , v ), entonces dados α, β ∈ R se tiene que OP + α. u + β.− →
− →
v ∈

− →
− −→ →
− →
− →0 −
− →0 −→
M (P, u , v ), luego OP + α. u + β. v ∈ M (P, u , v ), por lo tanto, OP +

4
−→ →
− →

α.−

u + β.−→v = OP + α0 . u0 + β 0 . v 0 para ciertos escalares α0 , β 0 ∈ R, en conse-

− →
− → −
− →
cuencia α.−
→u + β.−→
v = α0 . u0 + β 0 . v 0 . Esto muestra que < −
→u ,−

v >⊆< u0 , v 0 >.
→ −
− →
Por la simetrı́a del problema, se tiene también que < u0 , v 0 >⊆< − →u ,−

v >.

− →
− →
− 0

−0
Supongamos ahora que < u , v >=< u , v >, entonces claramente
−→
M (P, −
→u ,−

v ) = {OP + α.− →u + β.−

v | α, β ∈ R} =
−→ →0
− →0
− → −
− →
{OP + α. u + β. v | α, β ∈ R} = M (P, u0 , v 0 ).

r3. M (P, −
→u ,−

v ) = M (Q, −

u ,−
→v ) ⇔ P ∈ M (Q, − →
u ,−
→v ) ⇔ Q ∈ M (P, − →u ,−
→v ).

− →

r4. Se dice que dos planos M (P, −→
u ,−

v ) y M (Q, u0 , v 0 ) son paralelos si y sólo

− →

si < −

u ,−
→v >=< u0 , v 0 >. Se tiene entonces la siguiente propiedad:
r5. Sea M (P, −

u ,−
→v ) un plano y Q ∈/ M (P, −

u ,−

v ) un punto por fuera de dicho
plano. Entonces, existe un único plano M que contiene a Q y es paralelo a M .
Este plano es por supuesto M (Q, − →u ,−

v ).
r6. Sean P, Q.R tres puntos distintos de R3 que no están sobre una misma
recta, es decir, no son colineales. Entonces,
 existe
−→ un −
único plano
−que contiene
→ → −→
a estos tres puntos, dicho plano es M P, α. OQ − OP + β. OR − OP .
r7. Tres vectores − →u ,−

v y− →
w son linealmente dependientes si y sólo si están
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres
vectores son LD, entonces uno de ellos, por ejemplo − →u , está en la envolvente
lineal de v y w , es decir, u ∈< v , w >. Si v y −

− →
− →
− →
− →
− →
− →w son LI, entonces
tenemos que los tres están en el plano que pasa por el origen y tiene como
vectores directores a − →v y −→
w , es decir, los tres vectores están en el plano
M (0, −
→v ,−

w ). Si por el contrario −

v y−→
w son LD, entonces − →v = λ.− →
w , para un
cierto escalar λ ∈ R. Esto hace que los tres vectores estén en la recta L (0, −

w ),

− →

pero esta recta está contenida por ejemplo en el plano M (0, w , z ), siendo

−z cualquier vector LI con − →
w . Probemos la afirmación recı́proca. Supongamos
 →


− →
− →
− →

que los tres vectores u , v y w están en el plano M 0, a , b , entonces

− →
− →

u ,−

v ,−→
w ∈< − →a , b >, pero sabemos por definición que − →
a y b son LI, luego

−u ,−

v y− →
w son LD.
r8. Ecuaciones paramétricas del plano: un punto cualquiera (x, y, z) del plano
M (P, −

u ,−
→v ) satisface las siguientes ecuaciones

x = p1 + αu1 + βv1
y = p2 + αu2 + βv2
z = p3 + αu3 + βv3 .

5
r9. Ecuación Cartesiana del plano: eliminando los parámetros α y β de las
ecuaciones parámetricas del plano obtenemos la ecuación cartesiana, veamos
un ejemplo: consideremos el plano M (P, − →
u ,−
→v ), donde P = (1, 2, 3), −

u =


(1, 1, 0) y v = (0, 1, 1). Entonces, las ecuaciones paramétricas son

x=1+α
y =2+α+β
z =3+β

luego

y−2−α=z−3

con lo cual

y−2−x+1=z−3

es decir, la ecuación cartesiana es

x − y + z = 2.

r10. Ecuación normal del plano: sea M (P, −→


u ,−→v ) un plano, un vector − →n ∈ R3
se dice perpendicular al plano M (P, −
→u ,−
→v ) si −
→n es perpendicular tanto a − →
u

− −
→ →

como a v . Si además n es no nulo, entonces se dice que n es normal a
M (P, −→
u ,−
→v ). Notemos que −
→n es perpendicular a M (P, − →u ,−
→v ) si y sólo si −

n

− →

es perpendicular a cada vector de < u , v >. Se tiene la siguiente propiedad:

−u ×− →
v es normal al plano M (P, − →
u ,−
→v ) y el plano se puede describir por la
siguiente ecuación normal:

−−→ −→ 

→ →
− →
− →

M (P, u , v ) = {X = (x, y, z) ∈ R | OX − OP , u × v = 0}
3

−−→  −→ 
M (P, −

u ,−
→v ) = {X = (x, y, z) ∈ R3 | OX, −

u ×−
→v = OP , −

u ×−

v }

usando la notación de producto punto también podemos escribir

−−→ → − −→ → −
M (P, −

u ,−

v ) = {X = (x, y, z) ∈ R3 | OX · (−
u ×→
v ) = OP · (−
u ×→
v )}

6
En efecto, como −→u y− →
v son LI, entonces − →u ×− →
v es no nulo y sabemos que

− →
− →

u × v es perpendicular tanto a u como a v . →

−−→ −→ −−→
Sea ahora X ∈ M (P, − →u ,−
→v ), entonces OX = OP + α.− →
u + β−
→v , luego OX −
−→ −−→ −→ → −
OP ∈< − →
u ,−
→v >, con lo cual OX − OP , − u ×→ v = 0. Recı́procamente, sea
−−→ −→ 
X ∈ R3 tal que OX − OP , − →u ×− →
v = 0, sabemos que − →
u ,−

v y− →
u ×− →v son
−−
→ −→
LI, luego generan R3 , por lo tanto OX − OP = α.− →u +β.−→
v +γ. (−

u ×− →
v ), luego

− →

el producto interno de este vector con ( u × v ) es nulo, y en consecuencia,
−−→ −→ −−→ −→
γ = 0. Resulta, OX − OP = α.− →u + β.−

v , es decir, OX = OP + α.− →u + β.−→v,

− −

de donde X ∈ M (P, u , v ).

1. Sea V un espacio vectorial real tal que V = W1 ⊕ · · · ⊕ Wk . Supóngase que cada Wi es


euclidiano con producto interno hi i . Definir sobre V un producto interno y demostrar
que V es euclidiano.
2. Pruebe que si los vectores vi = (xi1 , xi2 , . . . , xin ), 1 ≤ i ≤ n conforman una base
ortogonal de Rn , donde xij = 0 para i > j, entonces xij 6= 0 para i = j y xij = 0 para
i 6= j.
2 n
3. Definir en el espacio Rn [x] un producto interno tal que {1, x, x2! , . . . , xn! } sea una base
ortonormal.
4. Sea V un espacio euclidiano y W1 , W2 subespacios de V de dimensión finita. Demostrar
que V = W1 ⊕ W2 si y sólo si V = W1⊥ ⊕ W2⊥ .
5. Sea V un espacio unitario de dimensión finita y sea T : V → V una transformación

lineal. Si T es invertible, entonces T ∗ es invertible y (T ∗ )−1 = (T −1 ) .
6. Sea V un espacio unitario de dimensión finita y sea T : V → V una transformación
lineal hermitiana. Demostrar que la composición de dos transformaciones hermitianas es
hermitiana si y sólo si ellas conmutan para la composición.
7. Sea V un espacio unitario de dimensión finita y sea T : V → V una transformación
lineal tal que T 2 = T. Demostrar que T es Hermitiana si y sólo si T T ∗ = T ∗ T.
Solución. Es claro que si T es Hermitiana, entonces T es normal.
De otra parte, existe una base ortonormal X en V tal que la matriz de T en dicha
base es diagonal, mX (T ) = diag(λ1 , . . . , λn ). Tenemos que T 2 = T , luego mX (T )2 =
mX (T 2 ) = mX (T ), es decir, diag(λ21 , . . . , λ2n ) = diag(λ1 , . . . , λn ). Entonces, λ2i = λi , para
cada 1 ≤ i ≤ n, con lo cual, λi = 1 ó λi = 0. Esto garantiza que mX (T ) tiene solo entradas
reales en su diagonal, con lo cual, mX (T )∗ = mX (T ∗ ) = mX (T ), es decir, T = T ∗ ya que
mX es inyectiva.
8. Demuestre que una matriz compleja A de tamaño n × n es unitaria si y sólo si las
columnas de A conforman una base ortonormal de Cn , si y sólo si, las filas de A conforman
una base ortonormal de Cn .
Solución. Sea A una matriz compleja de tamaño n × n:

7
 
c11 · · · c1n
 .. 
A =  ... ..
. . 
cn1 · · · cnn

Entonces, A es unitaria si y sólo si A−1 = A∗ , es decir, AA∗ = E = A∗ A, donde E es la


idéntica. Estas relaciones se pueden expresar en la siguiente forma:
    
c11 · · · c1n c11 · · · cn1 1 ··· 0
 .. .. ..   .. .. ..  =  .. .. .. 
 . . .  . . .   . . . 
cn1 · · · cnn c1n · · · cnn 0 ··· 1
    
c11 · · · cn1 c11 · · · c1n 1 ··· 0
 .. .. ..   .. .. ..  =  .. .. ..  .
 . . .  . . .   . . . 
c1n · · · cnn cn1 · · · cnn 0 ··· 1

Entonces, A es unitaria si y sólo si ((ci1 , . . . , cin ) , (cj1 , . . . , cjn )) = δij , donde δii = 1 y
δij = 0 para i 6= j. Nótese entonces que A es unitaria si y sólo si las filas de A conforman
un conjuntos ortonormal de n vectores de Cn , es decir, si y sólo si las filas de A conforman
una base ortonormal de Cn . Al considerar la segunda igualdad matricial de arriba se
obtiene la afirmación análoga por columnas.
9. Sea Tn+ (C) el conjunto de matrices cuadradas complejas de orden n tales que los ele-
mentos diagonales son números reales positivos y los elementos por encima de la diagonal
son nulos. Demostrar que Tn+ (C) es un grupo respecto al producto.
10. Sea T : V → V una transformación lineal de un espacio unitario. Entonces T se
puede descomponer en la forma T = U1 +iU2 , donde U1 , U2 : V → V son transformaciones
hermitianas.
11. En el espacio R2 [x] de polinomios reales de grado ≤ 2 se define el producto interno
R1
(f, g) = −1 p(x)q(x)dx.
Si D es el operador derivación definido sobre R2 [x], encuentre la matriz del operador D∗
en la base canónica de R2 [x].
12. En el espacio Rn [x] de polinomios reales de grado ≤ n se define el producto interno
Pn
k=0 p(k)q(k)

Si D es el operador derivación definido sobre Rn [x], encontrar un subespacio invariante


de dimensión n respecto del operador D∗ .
13. Sea v un vector propio del operador T con valor propio a y sea u un vector propio de
T ∗ con valor propio b de tal forma que b 6= a. Demostrar que v y u son ortogonales.
14. Sea T un operador normal sobre un espacio V . Demostrar que V = ker(T ) ⊕ Im(T ).

8
15. Ilustrar dos operadores normales T y S tales que ST y T S sean normales y distintos.
16. Sea U = h(−1, i, 0, 1) , (i, 0, 2, 0)i ⊂ C4 . Encontrar una base ortonormal de U ⊥ y
extenderla hasta una base ortonormal de C4 .
Solución. Inicialmente buscamos vectores (a, b, c, d) , (x, y, z, w) ∈ C4 tales que

(a, b, c, d) · (−1, i, 0, 1) = d − ib − a = 0
(a, b, c, d) · (i, 0, 2, 0) = 2c − ia = 0
(x, y, z, w) · (−1, i, 0, 1) = w − x − iy = 0
(x, y, z, w) · (i, 0, 2, 0) = 2z − ix = 0

Resolvemos

d − ib − a = 0
2c − ia = 0
w − x − iy = 0
2z − ix = 0

Con el SWP la solución es [a = −2ic, b = 2c − id, w = iy − 2iz, x = −2iz]. Podemos en-


tonces dar valores para que los vectores encontrados sean LI: c = 0, d = 1, z = 1, y = 1,
entonces resultan los vectores (0, −i, 0, 1) , (−2i, 1, 1, −i). Comprobemos que estos vectores
efectivamente pertenecen a U ⊥ :
(0, −i, 0, 1) · (−1, i, 0, 1) = 0,
(0, −i, 0, 1) · (i, 0, 2, 0) = 0,
(−2i, 1, 1, −i) · (−1, i, 0, 1) = 0,
(−2i, 1, 1, −i) · (i, 0, 2, 0) = 0.
Ahora veamos que los dos vectores encontrados son LI: la matriz
 
0 −i 0 1
−2i 1 1 −i

es de rango 2. Debemos ahora normalizar esta base de U ⊥ :


u1 = (0, −i, 0, 1) = v1 √ √ 
(0,−i,0,1)
w1 = k(0,−i,0,1)k = 0, − 12 i 2, 0, 12 2
u2 = (−2i, 1, 1, −i) √ √
(−2i,1,1,−i)·(0,− 21 i 2,0, 12 2)
v2 = (−2i, 1, 1, −i) − 0,− 1 i√2,0, 1 √2 · 0,− √ √ = (−2i, 1, 1, −i)
( 2 2 ) ( 12 i 2,0, 12 2)
luego √ √ √ √ 
(−2i,1,1,−i)
w2 = k(−2i,1,1,−i)k = − 27 i 7, 71 7, 17 7, − 17 i 7 .
Se tiene pues que {w1 , w2 } es una base ortonormal de U ⊥ , la cual debemos completar hasta
una base ortonormal de C4 . A partir de los dos vectores dados en U podemos generar los
dos vectores que faltan:

9
z1 = (−1, i, 0, 1) = y1 √ √ √ 
(−1,i,0,1)
t1 = k(−1,i,0,1)k = t1 = − 13 3, 31 i 3, 0, 13 3
z2 = (i, 0, 2, 0)
(i,0,2,0)·(−1,i,0,1) 
y2 = (i, 0, 2, 0) − (−1,i,0,1)·(−1,i,0,1) (−1, i, 0, 1) = 23 i, − 13 , 2, 13 i ,
( 2 i,− 1 ,2, 1 i) 1
√ √ 1
√ √ √ √ √ √ 
t2 = 32 i,− 31 ,2, 31 i = 21 i 3 14, − 42 3 14, 17 3 14, 42 1
i 3 14 .
k( 3 3 3 )k
Veamos finalmente que los 4 vectores son LI:
 √ √ 
0√ − 21√ i 2 √0 1
2 √
2
 −2i 7 1
7 1
7 1
− 7√ i 7 
 7 √ 7 √ 7 
 −1 3 1
i 3 0 1
3 
1
√3 √ 1
3√ √
1
√ √ 1

3 √
21
i 3 14 − 42 3 14 7 3 14 42 i 3 14

esta matriz es de rango 4. Estos 4 vectores son la base ortonormal buscada.


17. Encontrar una matriz compleja C tal que C −1 AC sea diagonal, donde
 
2 i
A= .
−i 4

Verificar además que C −1 = C ∗ .


Solución. Nótese que la matriz A es hermitiana, y por tanto, diagonalizable (Teorema 2
de la Lección 7 del Capı́tulo 8).
Vamos inicialmente a intentar verificar con el Teorema 3 de la Lección 2 del Capı́tulo 6
que A es efectivamente diagonalizable:
 
2 i
−i 4
 √ 
2 3√− 2
minimum polynomial: X − 6X + 7, roots:
2+3
eigenvectors:
 √   √ 
i 2−i √ −i 2 − i √
↔ 2 + 3, ↔3− 2
1 1

Los dos valores propios son diferentes y son por supuesto las dos raı́ces distintas del
mı́nimo. Esto garantiza que A es diagonalizable. La diagonalización del Capı́tulo 6 se
hace a través de la base de vectores propios disponiendo estos vectores en las columnas
de una matriz C y calculando C −1 AC:
 √ √ −1   √ √ 
−i 2 − i i 2 − i 2 i −i 2 − i i 2 − i
1 1 −i 4 1 1

10
Usando el SWP para este cálculo se obtiene una matriz F = [fij ] con entradas suficien-
temente complicadas, sin embargo estas entradas se pueden simplificar con el comando
Simplify y obtenemos lo siguiente :
√ √ 
2 i
f11 = 4 √ + √ i 2 + 2i +
4 2+4 4 2+4
√ !
 √  2 2 √ 
−i 2 − i −i √ + √ i 2 + 2i
4 2+4 4 2+4

= 3 − 2.

√ √ 
2 i
f12 = 4 √ + √ i 2 + 2i +
4 2+4 4 2+4
√ !
√  2 2 √ 
i 2−i −i √ + √ i 2 + 2i
4 2+4 4 2+4
= 0.

5√  √  3 √ 1

f21 = 2 + −i 2 − i − i 2 − i + 2 = 0.
4 4 2

5√ √  3 √ 1


f22 = 2+ i 2−i − i 2 − i + 2 = 2 + 3.
4 4 2

Con lo cual,
 √ 
−1 3− 2 √ 0
C AC = .
0 2+3

Vamos ahora a aplicar la Proposición 12 de la Lección 7 del Capı́tulo 8 mediante la cual


se encuentra también una matriz C que diagonaliza a la matriz A, pero esta matriz es
unitaria: las columnas de la matriz C son los vectores propios de A pero normalizados:

11
√  p √ √ 
−i 2 − i, 1 = 2 2 + 4, √ √1 −i 2 − i, 1
2 2+4
√  p √ √ 
i 2 − i, 1 = 4 − 2 2, √ 1 √ i 2 − i, 1
4−2 2

 √  √  −1
√ 1 1
√ −i 2 − i √ √ i 2−i
 2 2+4
1
4−2 2  ×
√ √ √ 1√
2 2+4 4−2 2
 
2 i
×
−i 4
 √  √  
√ 1 1
√ −i 2 − i √ √ i 2−i
 2 2+4
1
4−2 2 
√ √ √ 1√
2 2+4 4−2 2

Al realizar el producto anterior con el SWP obtenemos una matriz cuyas entradas deben
ser simplificadas:

√  p√ √ p√  p√ √ p√ 
1
2
√√ 2 −2 2+2+2 2 i
2 + 2 + 4√2+4 2i 2 + 2 + 2i 2 2+2
2+2
√ √   1 p√ √ p√  p√ √ p√ 
+ 12 √√ 2 −i 2 − i 2 i 1
2 + 2 − 2i 2 2
2 + 2 + 4 2+4 2i
√ 2 + 2 + 2i 2 2+2
2+2

=3− 2;
√  p√ √ p√  p√ √ p√ 
1 √ 2 i
2 √ −2 2+2+2 2 2 + 2 + 4√2+4 2i 2 + 2 + 2i 2 2+2
− 2+2
√ √   p√ √ p√  p√ √ p√ 
+ 21 √ √2 i 2 − i 12 i 2 + 2 − 12 i 2 2 + 2 + 4√22+4 2i 2 + 2 + 2i 2 2+2 =
− 2+2
= 0;
 p √
√ √ p √ 
1
2
√√ 25
− 2+2+2 2 − 2+2 +
2+2 2

1√ 2
√  3 p √ 1
√ p √ 
2 √ −i 2 − i − 2
i − 2 + 2 − 2
i 2 − 2 + 2 = 0;
2+2

√  p √ √ p √ 
1 √2 5
2 √ 2
− 2 + 2 + 2 2 − 2 + 2 +
− 2+2

1√ 2
√  p √ √ p √ 
2 √ i 2 − i − 32 i − 2 + 2 − 12 i 2 − 2 + 2
− 2+2

= 2+3

12
Lo cual coincide con el procedimiento del Capı́tulo 6.
Veamos finalmente que C es unitaria:
 √  √  
√ √1 −i 2 − i √ 1 √ i 2 − i
 2 2+4 4−2 2 
√ √1 √ 1√
2 2+4 4−2 2

trasponemos esta matriz y la conjugamos, para luego multiplicarla con A:


 √ √  √  √  √  
1√ 2 1√ 2 √ 1 √ 1
2 √ i 2 + i 2 √ √ −i 2 − i √ i 2 − i
 √ 2+2 √  1 √2+2   2 2+4 1
4−2 2
1
=
1√ 2
√ −i 2 + i √ √
2 √ √ √ √
2 − 2+2 2 − 2+2 2 2+4 4−2 2

 
1 0
.
0 1

18. Determinar los valores de a, b ∈ C tales que


 √ √ 
i√ 2 (1 + i) 3 a
1
A = √  √8 √b 2 
2 3 2 (−1 + i) 3 −2
sea una matriz unitaria.
Solución. La definición de unitaria implica que AA∗ = E, luego

 √ √   √ √ √ 
i√ 2 (1 + i) 3 a −i 2√ 8 2 √
1 1 
√  √8 √ b 2  √ (1 − i) 3 b (−1 − i) 3 
2 3 2 (−1 + i) 3 −2 2 3 a 2 −2
 1
 √ 
12
aa + 23 √ 1
6
a + 121
+ 121
i b 3 + 13 i − 16 a − 13i √
=  16 a + 121
− 12 1
i b 3 − 13 i 1
12
bb + 1 √ 1
− 12 1
+ 12 i b 3 
1 1 1 1
−6a + 3i − 12 − 12 i b 3 1
 
1 0 0
= 0 1 0 

0 0 1

Entonces,
1
aa + 23 = 1
12
1 1 1
 √
6
a + 12 + 12 i b 3 + 13 i = 0
− 16 a − 13 i = 0

13
1 1
 √
1
6
a + 12 − 12 i b 3 − 13 i = 0
1
bb + 1 = 1, luego b = 0
12
1 1
 √
− 12 + 12 i b 3=0
− 16 a + 31 i = 0, luego a = 2i
1 1
 √
− 12 − 12 i b 3 = 0.
En total, b = 0 y a = −2i.
19. Encontrar una matriz ortogonal Q tal que
 √ √ 
√25 −2 5 − 5
T 
Q −2√5 18 14  Q
− 5 14 −3
sea diagonal.
Solución. Según la Proposición 13 de la Lección 7 del Capı́tulo 8 tal matriz existe y sus
columnas son la base ortonormal de vectores propios de la matriz dada.
 √ √ 
√25 −2 5 − 5
 −2 5 18 14 

− 5 14 −3
   √   √ 
 0   5   − 5 
eigenvectors:  − 1 
↔ −10,  2  ↔ 20,  2  ↔ 30
 2     
1 1 1
 √
k 0, − 21 , 1 k= 12 5
√  √
k 5, 2, 1 k= 10
√  √
k − 5, 2, 1 k= 10

 √ √ −1  √ √  √ √ 
1 1 1
0 2 − 2 25 −2 5 − 5 √0 2 − 12 2
 − 1 √5 √22 2
√2  
√  1
  −5 5
2
√2 √2 
 5√ 10 10  −2√5 18 14 √ 10 10 
2 √1 √1 2 √1 √1
5
5 10 10
− 5 14 −3 5
5 10 10
 
−10 0 0
=  0 20 0 
0 0 30
 √ √ 
√ 0 12 2 − 12 2
 1 2 √2 
Veamos finalmente que la matriz  − 5 √5 √10 10  es ortogonal:
2 √1 √1
5
5 10 10

14
 √ √ −1  √ √ 
1
0 2 − 12 2 0 − 1
5 2
5
 − 1 √5 2
√2 √2 
√ √
5 5√
 5√ 10 10  = 1
2 √
2 5 √10 10 √10 
1 1
2 √1 √1
5
5 10 10
− 2 2 15 10 10
1 1
10
 √ √ T
√ 0 21 2 − 12 2
 1 2 √2 
=  − 5 √5 √10 10 
2 1 1
5
5 √
10

10

15
180 CAPÍTULO 8. PRODUCTO INTERNO
Capı́tulo 9

Formas Bilineales

Introducción
El producto interno en espacios euclidianos y unitarios constituye un caso particular de un concepto
más general como es el de forma bilineal sobre un cuerpo arbitrario. El enfoque generalizado de los
espacios euclidianos que se plantea en el presente capı́tulo permite hacer estudios geométricos sobre
cuerpos arbitrarios.

9.1. Formas Bilineales


Definición 9.1. Sea V un espacio vectorial sobre un cuerpo K cualquiera. Una forma bilineal f
sobre V es una función

f : V × V −→ K
(u, v) 7−→ f (u, v)
tal que

i) f (u1 + u2 , v) = f (u1 , v) + f (u2 , v)

ii) f (a · u, v) = af (u, v)

iii) f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 )

iv) f (u, a · v) = af (u, v)

para cualesquiera u1 , u2 , u, v, v1 , v2 ∈ V, a ∈ K.

El conjunto L(V, V, K) de las formas bilineales sobre el K-espacio vectorial V constituye un espacio
vectorial con las operaciones siguientes:

Adición: (f + g)(u, v) = f (u, v) + g(u, v)


Producto: (a.f )(u, v) = af (u, v)

Definición 9.2. Sea V un K-espacio de dimensión finita y X = {v1 , . . . , vn } una base ordenada de
V . Sea f una forma bilineal sobre V , la matriz de f en la base X se define por:

A = mX (f ) = (aij ), aij = f (vi , vj )

181
182 CAPÍTULO 9. FORMAS BILINEALES

Teorema 9.1. Sea V un K-espacio de dimensión finita n. Entonces

L(V, V, K) ∼
= Mn (K)

Demostración: Fijemos una base ordenada cualquiera X = {v1 , . . . , vn } en V y consideremos al función

mX : L(V, V, K) −→ Mn (K)
f 7−→ mX (f )

mX es K-lineal ya que (f + g)(vi , vj ) = (f )(vi , vj ) + (g)(vi , vj ) y mX (a · f ) = a · mX (f ).

Nótese que la forma f puede escribirse matricialmente con ayuda de su matriz A = mX (f ). En


efecto, sean Y = [a1 , . . . , an ], Z = [b1 , . . . , bn ], las coordenadas de u, v respectivamente en la base X.
Entonces,

f (u, v) = f (a1 .v1 + · · · + an .vn , b1 .v1 + · · · + bn .vn )


Xn X n
= ai bj f (vi , vj )
i=1 j=1

es decir,

f (u, v) = Y AZ T

mX es sobreyectiva: Sea A ∈ Mn (K) y f definida como antes. Entonces,

f (u + u0 , v) = (Y + Y 0 )AZ T = Y AZ T + Y 0 AZ T = f (u, v) + f (u0 , v);


T
f (u, v + v 0 ) = Y A(Z + Z 0 )T = Y AZ T + Y AZ 0 = f (u, v) + f (u, v 0 );
f (a.u, v) = (aY )AZ T = a(Y AZ T ) = af (u, v),
f (u, a.v) = Y A(a.Z)T = a(Y AZ T ) = af (u, v)

Además, claramente mX (f ) = A.

mX es inyectiva: Si mX (f ) = 0, entonces f (vi , vj ) = aij = 0 para cada 1 ≤ i, j ≤ n. Entonces


f (u, v) = 0 para cada u, v ∈ V, es decir, f = 0.

Corolario 9.1. Sea V un K-espacio de dimensión finita n. Entonces, dim(L(V, V, K)) = n2

9.2. Rango
En la lección anterior asignamos una matriz a una forma bilineal. Esto permitirá en la presente lección
desarrollar una noción de rango para formas bilineales.

Proposición 9.1. Sea V un K-espacio de dimensión finita n y f ∈ L(V, V, K). Sean X = {v1 , . . . , vn }, X 0 =
{u1 , . . . , un } bases ordenadas de V . Entonces

mX 0 (f ) = C T mX (f )C,

donde C es la matriz de cambio de X a X 0 .


9.2. RANGO 183

Pn
Demostración: Sea C = (cij ), con uj = i=1 cij· vi . Entonces,
n n
! n X
n
X X X
f (ui , uj ) = f cki · vk , clj · vl = cki clj f (vk , vl )
k=1 l=1 k=1 l=1

entonces,
n X
X n
bij = cki clj akl ,
k=1 l=1
Pn Pn
donde B = mX 0 (f ) y A = mX (f ). Resulta bij = l=1 ( t
k=1 cik akl ) clj , es decir, B = C T AC. 

Teniendo en cuenta que las matrices de cambio de base son invertibles, se tiene entonces el siguiente
corolario de la proposición anterior.

Corolario 9.2. rank mX 0 (f ) = rank mX (f ).

Notemos sin embargo que mX 0 (f ) y mX (f ) no son necesariamente matrices similares (no po-
demos asegurar que C −1 = C T )

Definición 9.3. Sea f una forma bilineal sobre un espacio V de dimensión finita. Se llama rango de
f al rango de su matriz (en cualquier base ordenada).

La siguiente proposición permitirá definir una noción de forma bilineal no degenerada.

Proposición 9.2. Sea f una forma bilineal sobre un espacio V de dimensión n. Entonces las siguientes
condiciones son equivalentes:

(i) rank(f ) = n

(ii) f (u, v) = 0 para cada v ∈ V si y sólo si u = 0.

(iii) f (u, v) = 0 para cada u ∈ V si y sólo si v = 0.

Demostración: Sean Lf y Rf las funciones definidas por

Lf : V −→ V∗
u 7−→ Luf :V −→ K
v 7−→ f (u, v);

Rf : V −→ V∗
v 7−→ Rfv : V −→ K
u 7−→ f (u, v)
Evidentemente Luf , Rfv ∈ V ∗ ∀u, v ∈ V , y Lf y Rf son transformaciones lineales.

En este lenguaje, nótese que la parte (ii) del enunciado de la proposición es equivalente a que N (Lf ) =
0, al igual que la parte (iii) es equivalente a que N (Rf ) = 0. La proposición estarı́a probada si logramos
establecer que

rank(Lf ) = rank(Rf ) = rank(A) = rank(f )


o lo que es lo mismo,

dimN (Lf ) = dimN (Rf ) = dimN (A).


184 CAPÍTULO 9. FORMAS BILINEALES

Sea X una base ordenada de V , Z = [a1 , . . . , an ], Y = [b1 , . . . , bn ] las coordenadas de los vectores
u, v ∈ V en la base X; y A = mX (f ). Entonces u ∈ N (Lf ) ⇔ f (u, v) = 0, ∀v ∈ V ⇔ ZAY T = 0 para
todo vector Y ∈ K n ⇔ ZA = 0 ⇔ AT Z T = 0 ⇔ Z T ∈ N (At ), entonces

dimN (Lf ) = dimN (AT ) = dimN (A).


Análogamente, v ∈ N (Rf ) ⇔ f (u, v) = 0 ∀u ∈ V ⇔ ZAY T = 0 para todo vector z ∈ K n ⇔ AY T = 0
⇔ Y T ∈ N (A); entonces

dimN (Rf ) = dimN (A).


Definición 9.4. Sea f una forma bilineal sobre un espacio V . f se dice no degenerada (o no
singular) si f cumple alguna de las condiciones (ii) o (iii) de la proposición anterior. En el caso de
dimensión finita esto es equivalente a que la matriz de f en cualquier base ordenada sea invertible, es
decir, que det(A) 6= 0, con A la matriz de f en cualquier base.
Ejemplo 9.1. Sea V un espacio vectorial real con producto interno ( , ). Entonces

f : V × V −→ R
(u, v) −→ f (u, v) = (u, v)
es claramente una forma bilineal tal que f (u, v) = f (v, u) para todo u, v ∈ V y además f (u, u) > 0 para
cada u 6= 0. Recı́procamente, cada forma bilineal f sobre V que cumpla las dos condiciones anteriores,
define un producto interno.
Ejemplo 9.2. En el espacio V = R2 consideremos la forma bilineal definida por el producto interno
y las bases X = {(1, 0), (0, 1)}, X 0 = {(1, −1), (1, 1)}, X 00 = {(1, 2), (3, 4)}. Entonces se tiene que
     
1 0 2 0 5 11
mX (f ) = , mX 0 (f ) = , mX 00 (f ) =
0 1 0 2 11 25

9.3. Formas Bilineales Simétricas


Definición 9.5. Una forma bilineal f sobre un espacio V se dice simétrica si f (u, v) = f (v, u) para
cualesquiera u, v ∈ V . Una matriz A ∈ Mn (K) se dice simétrica si AT = A.
Corolario 9.3. Sea V un K-espacio de dimensión finita n y X una base ordenada cualquiera de V .
Sea f una forma sobre sobre V , entonces f es simétrica si y sólo si mX (f ) es simétrica.
Demostración: Sean u, v ∈ V y Y, Z sus coordenadas en la base X (Ver la demostración del Teo-
rema 9.1). f (u, v) = Y AZ T . Ası́ pues, f es simétrica si y sólo si Y AZ T = ZAY T para cualesquiera
Y, Z ∈ K n . Teniendo en cuenta que Y AZ T es de orden 1 × 1, entonces (Y AZ T )T = Y AZ T , es de-
cir, ZAT Y T = Y AZ T . Por lo tanto, f es simétrica si y sólo si ZAT Y T = ZAY T para cualesquiera
Z, Y ∈ K n , lo cual significa que A = AT . .

Presentamos ahora uno de los teoremas centrales del presente capı́tulo acerca de la diagonlización
de las formas bilineales simétricas en cuerpos de caracterı́stica diferente de 2.
Teorema 9.2. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma bilineal
simétrica sobre V , entonces existe una base X en V tal que mX (f ) es diagonal.
Demostración: Si f = 0 ó n = 1 no hay nada que probar. Sea f 6= 0 y n > 1. Si f (u, u) = 0 para cada
u ∈ V , entonces f = 0. En efecto, como char(K) 6= 2, 4 = 1 + 1 + 1 + 1 6= 0 en K y por lo tanto existe
4−1 = 1/4. Se tiene la siguiente identidad de polarización:
1 1
f (u, v) = f (u + v, u + v) − f (u − v, u − v).
4 4
9.3. FORMAS BILINEALES SIMÉTRICAS 185

De esta identidad se desprende entonces lo afirmado.

Se puede entonces asumir la existencia de u 6= 0 en V tal que f (u, u) 6= 0. Sea W = hui y

W ⊥ = {v ∈ V | f (u, v) = 0} .
Claramente W ⊥ ≤ V . Veamos que V = W ⊥ ⊕ W . Sea v ∈ V . Hagamos

f (v, u)
z=v− · u.
f (u, u)
Entonces

 
f (v, u)
f (u, z) = f (u, v) − f u, ·u
f (u, u)
f (v, u)
= f (u, v) − f (u, u)
f (u, u)
= f (u, v) − f (v, u) = 0.

Entonces, z ∈ W ⊥ , luego v ∈ W ⊥ + W , ası́, V = W ⊥ + W .

Sea ahora a · u ∈ W tal que a · u ∈ W ⊥ . Entonces f (u, a · u) = af (u, u). Pero como f (u, u) 6= 0,
entonces a = 0 y ası́ W ⊥ ∩ W = 0.

f restringida a W ⊥ es una forma bilineal simétrica. Como dim W ⊥ = n − 1, podemos aplicar in-
ducción y suponer que existe una base {u2 , . . . , un } en W ⊥ tal que f (ui , uj ) = 0 para i 6= j e i, j ≥ 2.
Sea X = {u1 = u, u2 , . . . un }, X es pues la base buscada. 

El resultado anterior se puede especificar más para el caso complejo.


Corolario 9.4. Si dimC V = n y f es una forma bilineal simétrica sobre V con rank(f ) = r, entonces
existe una base ordenada X = {v1 , . . . vn } en V tal que

(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 ≤ i ≤ r, f (vi , vi ) = 0 para i > r.

Demostración: Según el Teorema 9.2, existe una base X 0 = {u1 , . . . , un } en V tal que mX 0 (f ) es
diagonal. Como rank(f ) = r, entonces rank (mX 0 (f )) = r. Reordenando la base X 0 podemos suponer
que f (uj , uj ) 6= 0 para 1 ≤ j ≤ r y f (uj , uj ) = 0 para j > r. Resta definir
(
√ 1 · uj , 1 ≤ j ≤ r
vj = f (uj ,uj )
uj , j>r
p
donde f (uj , uj ) es una cualquiera de las raı́ces cuadradas de f (uj , uj ). 

La última parte de la demostración anterior no puede ser aplicada al caso real. Por eso en su lu-
gar tenemos:
Corolario 9.5. Si dimR V = n y f una forma bilineal simétrica sobre V con rank(f ) = r. Entonces,
existe una base ordenada X = {v1 , v2 , ..., vn } en V tal que

(a) mX (f ) es diagonal.
(b) f (vi , vi ) = ±1 para 1 ≤ i ≤ r, y f (vi , vi ) = 0 para i > r.
186 CAPÍTULO 9. FORMAS BILINEALES

(c) El número de vectores de la base X para los cuales en (b) se da el signo positivo es independiente
de dicha base.

Demostración: Existe una base X 0 = {u1 , u2 , ..., un } en V tal que f (ui , uj ) = 0 para i 6= j. Como
rank(f ) = r, entonces rank(mX 0 (f )) = r y podemos reordenar X 0 de tal manera que f (ui , ui ) 6= 0
para 1 ≤ i ≤ r y f (ui , ui ) = 0 para i > r.

Sea
(
√ 1
.ui 1≤i≤r
vi = | f (ui ,ui )|
ui i > r.
Nótese que entonces X = {v1 , v2 , ..., vn } cumple (a) y (b).

Sea p el número de vectores vi de la base X para los cuales f (vi , vi ) = 1. Se debe probar que p
es independiente de la base X que satisface (a) y (b).

Sean

VX+ = hvi ∈ X | f (vi , vi ) = 1 i ,

VX− = hvi ∈ X | f (vi , vi ) = −1 i .


Ası́, dim(VX+ ) = p. Sea Y otra base de V que satisface (a) y (b). Queremos probar que dim(VY+ ) =
p = dim(VX+ ).

Si v 6= 0 está en VX+ , entonces f (v, v) > 0, es decir, f es definida positivamente sobre VX+ . Análoga-
mente, si v 6= 0 esta en VX− entonces f (v, v) < 0 , es decir, f es definida negativamente en VX− .

Sea ahora VX⊥ = hvi ∈ X | f (vi , vi ) = 0i . Nótese que si v ∈ VX⊥ entonces f (v, x) = 0 para cada
x ∈ V. Teniendo en cuenta que X es una base de V , entonces

V = VX+ ⊕ VX− ⊕ VX⊥ (9.1)


Sea W cualquier subespacio de V en el que f es definida positivamente. Entonces la suma W +VX− +VX⊥
es directa. En efecto, sea u ∈ W, v ∈ VX− y z ∈ VX⊥ tales que u + v + z = 0. Entonces,

0 = f (u, u + v + z) = f (u, u) + f (u, v) + f (u, z),


también

0 = f (v, u + v + z) = f (v, u) + f (v, v) + f (v, z).


Como z ∈ VX⊥ , entonces f (u, z) = f (v, z) = 0. Además, en vista de la simetrı́a se tiene que f (u, v) =
f (v, u). Puesto que f (u, u) ≥ 0 y f (v, v) ≤ 0, entonces f (u, u) = f (v, v) = 0. Como f es positivamente
definida en W y negativamente definida en VX− entonces u = v = 0 ; de donde también z = 0.

Según lo probado y de acuerdo a (9.1) se tiene dim W ≤ dim VX+ . En otras palabras, si W es un
subespacio de V en el cual f está definida positivamente, entonces dim W ≤ dim VX+ . Sea entonces Y
otra base de V que cumple (a) y (b), y sean VY− , VY⊥ , VY+ definidos como para la base X. Por lo tanto
dim VY+ ≤ dim VX+ , y por simetrı́a, dim VX+ ≤ dim VY+ , ası́ se tiene que dim VX+ = dim VY+ . 

De la demostración del corolario anterior se pueden sacar las siguientes conclusiones:


9.4. FORMAS BILINEALES ANTISIMÉTRICAS 187

(i) dim VX+ es independiente de la base X.

(ii) dim VX− es independiente de la base X.

(iii) dim VX+ + dim VX− = rank(f )

(iv) VX⊥ es unico . Más aún, V ⊥ = {u ∈ V | f (u, v) = 0 ,∀ v ∈ V } = VX⊥ . En efecto, u ∈ V ⊥ ⇔


u ∈ N (Lf ) ,es decir, V ⊥ = N (Lf ), luego dim V ⊥ = dim N (Lf ) = dim V − rank(f ) = dim V −
(dim VX+ + dim VX− ) = dim VX⊥ , pero como VX⊥ ≤ V ⊥ , entonces se tiene la igualdad V ⊥ = VX⊥ .

(v) Se define la signatura de f como sig(f ) = dim VX+ − dim VX− .

9.4. Formas Bilineales Antisimétricas


Definición 9.6. Una forma bilineal f sobre un espacio V se dice antisimétrica si f (u, v) = −f (v, u)
para cualesquiera u, v ∈ V. Una matriz A ∈ Mn (K) se dice antisimétrica si A = −AT .

Adaptando la prueba del Corolario 9.3 se pueden establecer los siguientes resultados para el caso
antisimétrico.

Corolario 9.6. Sea V un K-espacio de dimensión finita n y X una base ordenada cualquiera de V.
Sea f una forma sobre V. Entonces, f es antisimétrica ⇔ mX (f ) es antisimétrica.

Corolario 9.7. Sea f ∈ L(V, V, K) una forma bilineal antisimétrica sobre un K-espacio de dimensión
finita, donde char(K) 6= 2. Entonces, en cualquier base ordenada X de V, los elementos diagonales de
mX (f ) son nulos.

Proposición 9.3. Si char(K) 6= 2 y f ∈ L(V, V, K), entonces f es suma de una forma simétrica y
una antisimétrica. Tal representación de f es única.

Demostración: En efecto, para u, v ∈ V se define


1
g(u, v) = [f (u, v) + f (v, u)]
2
1
h(u, v) = [f (u, v) − f (v, u)]
2
Nótese que g es simétrica, h antisimétrica y además f = g + h.

Sean g 0 , h0 simétrica y antisimétrica respectivamente, tales que f = g 0 + h0 . Entonces,

f (u, v) = g 0 (u, v) + h0 (u, v)

f (v, u) = g 0 (v, u) + h0 (v, u) = g 0 (u, v) − h0 (u, v)

⇒ 2g 0 (u, v) = f (u, v) + f (v, u)

1
⇒ g 0 (u, v) = [f (u, v) + f (v, u)] = g(u, v).
2
De manera similar resulta h0 = h. 

Ahora presentamos los análogos del Teorema 9.2, Corolario 9.4 y Corolario 9.5 del caso simétrico
para el caso antisimétrico.
188 CAPÍTULO 9. FORMAS BILINEALES

Teorema 9.3. Sea dimV = n y f ∈ L(V, V, K) una forma bilineal antisimétrica, donde char(K) 6= 2.
Entonces el rango de f es par, rank(f ) = 2k. Además, existe una base ordenada X en V tal que la
matriz de f es “suma directa” de la matriz nula de orden (n − 2k) y k matrices 2×2 de la forma
 
0 1
−1 0
Demostración: Si f = 0 el teorema es verdadero. Sea f 6= 0. Existen u1 , v1 ∈ V − {0} tales que
f (u1 , v1 ) 6= 0. Multiplicando u1 por f (u1 , v1 )−1 podemos suponer (s.p.) que f (u1 , v1 ) = 1.

u1 , v1 son L.I: sean α, β ∈ K tales que αu1 + βv1 = 0. Entonces

0 = f (αu1 + βv1 , u1 ) = αf (u1 , u1 ) + βf (v1 , u1 ) = −β


también, 0 = f (αu1 + βv1 , v1 ) = α f (u1 , v1 ) + βf (v1 , v1 ) = α.

Sea ahora W1 = hu1 , v1 i, por lo probado antes se tiene que la dim (W1 ) = 2.
Sea W1⊥ = {z ∈ V | f (z, w) = 0, para cada w ∈ W1 } . Veamos que V = W1 ⊕ W1⊥ : Sean x ∈ V ,
w = f (x, v1 ).u1 − f (x, u1 ).v1 y z = x − w. Claramente w ∈ W1 y x = w + z. Veamos que z ∈ W1⊥ :

f (z, u1 ) = f (x − w, u1 ) = f (x − f (x, v1 ).u1 + f (x, u1 ).v1 , u1 )


= f (x, u1 ) − f (x, v1 )f (u1 , u1 ) + f (x, u1 )f (v1 , u1 )
= f (x, u1 ) − f (x, u1 )f (u1 , v1 ) = 0.

También, f (z, v1 ) = 0. Resulta, z ∈ W1⊥ .

Sea z ∈ W1⊥ ∩ W1 , entonces


z = α.u1 + β.v1 ⇒

0 = f (z, v1 ) = f (α.u1 + β.v1 , v1 ) = αf (u1 , v1 ) = α


0 = f (z, u1 ) = f (α.u1 + β.v1 , u1 ) = βf (v1 , u1 ) = β

luego z = 0.

La restricción f1 de f a W1⊥ es una forma bilineal antisimétrica. Si f1 es nula hemos terminado.


Tenemos en este caso que el bloque nulo es de orden n − 2, y el rango de f es 2, de tal forma que
tenemos un solo bloque de la forma
 
0 1
−1 0
Si f1 no es nula existen vectores no nulos u2 , v2 en W1⊥ tales que f (u2 , v2 ) = 1. Sea W2 =
i ⊆ W1⊥ . Como vimos antes se genera la descomposición V = W1 ⊕ W2 ⊕ W2⊥ , donde
hu2 , v2
W2⊥ = z ∈ W1⊥ | f (z, u2 ) = 0 = f (z, v2 ) .

Si la restriccion f2 de f1 a W2⊥ es nula hemos terminado. En este caso tendremos dos bloques de
tamaño 2 × 2 y un bloque nulo de tamaño (n − 4 × n − 4) de tal forma que rank (f ) = 4. Si f2 no es
nula podemos continuar de esta manera y consegir una sucesión finita (dim V es finita ) de pareja de
vectores (u1 , v1 ) ,(u2 , v2 ),..., (uk , vk ) tales que:
(a) f (uj , vj ) = 1 para 1 ≤ j ≤ k.
(b) f (ui , uj ) = f (vi , vj ) = f (ui , vj ) = 0 para i 6= j.
9.5. FORMAS SESQUILINEALES 189

(c) Si Wj = huj , vj i entonces

V = W1 ⊕ · · · ⊕ Wk ⊕ W0

donde todo vector de W0 es ortogonal a todos los uj , vj y la restricción de f a W0 es nula.

Sea X0 = {w1 , w2 , ..., ws } una base de W0 .

Entonces, X = {u1 , v1 , u2 , v2 , ..., uk , vk , w1 , w2 , ..., ws } es una base de V .

Nótese que s = n − 2k y la matriz de f en X es:

 
m{u1 ,v1 } (f ) 0
 .. 
 . 
 
mX (f ) = 
 .. 

 . 
 0 m{uk ,vk } (f ) 
mX0 (f )
   
0 1
 −1 0 
 
 .. 
 . k bloques 
   
= 0 1 
 0 
 −1 0 
   
 0 0 
0
0 0

Nótese finalmente que rank(mX (f )) = 2k. 

Mediante un simple reordenamiento de la base X de la prueba del Teorema anterior en la forma


X = {u1 , u2 , .....uk , v1 , v2 , .......vk } se obtiene la siguiente conclusión.

Corolario 9.8. Toda forma bilineal antisimétrica f no singular es de grado par. Si dim V = 2k ,
entonces existe una base X en V tal que
 
0 L
mX (f ) =
−L 0

donde L es de orden k de la forma


 
0 1
 0 1 
 
 .. 
L= . 
 
 1 0 
1 0

9.5. Formas Sesquilineales


Esta lección estudia las formas sesquilineales sobre espacios reales o complejos que posean producto
interno. Se estudia además la relación de estas formas con las transformaciones lineales. En adelante
un espacio con producto interno denotará a un espacio unitario o a un espacio euclidiano.
190 CAPÍTULO 9. FORMAS BILINEALES

Definición 9.7. Sea V un espacio real o complejo. Una forma sesquilineal f sobre V es una función

f : V × V −→ K (K = C, ó R)
(u, v) −→ f (u, v)
tal que

f (u1 + u2 , v) = f (u1 , v) + f (u2 , v)


f (a.u, v) = af (u, v)
f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 )
f (u, a.v) = af (u, v).

Para cualesquiera u1 , u2 , u, v1 , v2 , v ∈ V, a ∈ K.
Observación. Nótese que las formas sesquilineales reales coinciden con las formas bilineales reales
estudiadas en las lecciones anteriores. De otra parte, con las mismas operaciones definidas en la Lección
1, la colección de formas sesquilineales constituyen un espacio vectorial S. Establecemos enseguida el
isomorfismo de este espacio con el de las matrices cuadradas complejas (o reales) para el caso de
espacios de dimensión finita.
Definición 9.8. Sea V un espacio de dimensión finita n y sea X = {v1 , . . . , vn } una base ordenada
cualquiera de V . Sea f una forma sesquilineal sobre V , la matriz de f en la base X se define por

A = mX (f ) = (aij ) , aij = f (vi , vj )


Teorema 9.4. Sea V un espacio real o complejo de dimensión finita n y sea S el espacio de formas
sesquilineales sobre V . Entonces,

S∼
= Mn (K)
con K = C ó R. En consecuencia, dim S = n2 .
Demostración: Fijemos una base ordenada cualquiera X = {v1 , . . . , vn } en V y consideremos la función

mX : S −→ Mn (K)
f 7−→ mX (f ) = A
mX es claramente K-lineal. f puede escribirse matricialmente con ayuda de A, en la siguiente forma:
sean Y = (a1 , ..., an ), Z = (b1 , . . . , bn ) las coordenadas de u y v respectivamente en la base X. Entonces,
n X
X n
f (u, v) = ai bj f (vi , vj ),
i=1 j=1
T
f (u, v) = Y AZ ∗ , Z ∗ = Z (9.2)
mX es sobreyectiva: sea A ∈ Mn (K) y f definida como en (9.2). Entonces,

f (u + u, v) = f (u, v) + f (u, v)
f (u, v + v) = f (u, v) + f (u, v)
f (a.u, v) = af (u, v)
f (u, a.v) = af (u, v)

y además mX (f ) = A.
9.5. FORMAS SESQUILINEALES 191

Finalmente nótese que mX es inyectiva: si mX (f ) = 0 entonces, según (9.2), f (u, v) = 0 ∀u, v ∈ V ,


es decir, f = 0. 

La siguiente propiedad estudia el cambio que sufre la matriz de una forma sesquilineal cuando se
produce un cambio de base (compárese con la Proposición 9.1 para el caso bilineal). Esto permitirı́a
definir los conceptos de rango de una forma sesquilineal y de forma sesquilineal no singular. Sin em-
bargo, en la literatura clásica sobre formas sesquilineales estos conceptos no son tratados con suficiente
atención.

Proposición 9.4. Sea V un espacio real o complejo de dimensión finita n, y sea f una forma sesqui-
lineal sobre V . Sean X = {v1 , . . . , vn } y X 0 = {u1 , ..., un } bases ordenadas de V . Entonces,

mX 0 (f ) = C T mX (f ) C
donde C es la matriz de cambio de la base X a la base X 0 .

Veremos a continuación la manera de asociar a cada forma sesquilineal definida sobre un espacio con
producto interno una cierta transformación lineal cuya matriz es la transpuesta de la matriz de la
forma.

Proposición 9.5. Sea V un espacio de dimensión finita n con producto interno, y f una forma
sesquilineal sobre V . Entonces, existe una única transformación lineal S : V −→ V tal que

f (u, v) = hu, S(v)i ∀u, v ∈ V (9.3)

Demostración: Paso 1 Sea v un elemento fijo de V y sea X = {v1 , · · · , vn } una base ortonormal de
V , definimos

w = f (v1 , v) · v1 + · · · + f (vn , v) · vn
y sea u = a1 .v1 + · · · + an .vn un elemento cualquiera de V . Entonces, f (u, v) = a1 f (v1 , v) + · · · +
an f (vn , v) y también hu, wi = a1 f (v1 , v) + · · · + an f (vn , v), es decir, f (u, v) = hu, wi∀u ∈ V .

Paso 2 De la correspondencia anterior se tiene que la función

S:V −→ V
v 7−→ S(v) = w
cumple f (u, v) = hu, wi , ∀u ∈ V y además S es K−lineal y cumple (4).

Paso 3 Sean S1 , S2 que cumplan (9.3), entonces para todo u, v ∈ V hu, S1 (v)i = hu, S2 (v)i, es decir,
hu, (S1 − S2 )(v)i = 0, entonces (S1 − S2 )(v) = 0 ∀v ∈ V , es decir, S1 = S2 . 

Corolario 9.9. Sea V un espacio con producto interno de dimensión finita n, y sea f una forma
sesquilineal sobre V . Entonces existe una única transformación lineal Tf : V −→ V tal que

f (u, v) = hTf (u), vi, ∀u, v ∈ V


La transformación S de la proposición anterior es la adjunta de Tf , es decir, S = Tf∗ .

Demostración: Sea Tf := S ∗ , donde S es la transformación definida en la proposición anterior. Enton-


ces, f (u, v) = hu, S(v)i = hS(v), ui = hv, S ∗ (u)i = hv, Tf (u)i = hTf (u), vi. 

Observación. (a) La transformación Tf del Corolario 9.9 podrı́a denominarse la transformación de


la forma sesquilineal f . Sea X = {v1 , ..., vn } una base ortonormal de V . Veamos qué relación existe
entre mX (f ) y mX (Tf ): sea A = (aij ) = mX (Tf ), B = mX (f ). Entonces,
192 CAPÍTULO 9. FORMAS BILINEALES

* n
+
X
bij = f (vi , vj ) = hTf (vi ), vj i = aki vk vj = aji
k=1

por lo tanto,

mX (f ) = mX (Tf )T (9.4)
(b) Sea ahora V un espacio real o complejo (no necesariamente con producto interno) y X una base
de V . Sea f una forma sesquilineal sobre V . f determina una matriz A = mX (f ); A determina una
transformación U : V −→ V ası́: U (x) = AT Z T , con Z = [a1 , · · · , an ] coordenadas de x en X. Nótese
que mX (U ) = AT .

(c) Combinando (a) y (b) para un espacio V con producto interno y X ortonormal se tiene:

mX (Tf ) = mX (f )T = AT = mX (U )
luego,

U = Tf .
En la Lección 3 vimos que las formas bilineales simétricas (ya sean reales o complejas) son diagonaliza-
bles. Veremos ahora como las formas sesquilineales definidas sobre espacios unitarios son triangulables.
Teorema 9.5. Sea f una forma sesquilineal sobre un espacio unitario V de dimensión finita n ≥ 1.
Entonces existe una base ortonormal X en V tal que la matriz de f es triangular superior.
Demostración: Según el Ejercicio 7 de la Lección 9 del Capı́tulo 8, existe una base ortonormal X =
{v1 , ..., vn } en V tal que la matriz de la transformación Tf asociada a f es triangular superior. Según
(9.4) mX (f ) es triangular inferior. Siendo Y = {vn , · · · , v1 } entonces se tiene la afirmación. 

9.6. Formas Hermitianas


Esta lección estudia las formas sesquilineales hermitianas sobre espacios reales o complejos. Se debe re-
saltar que las formas sesquilineales hermitianas sobre espacios reales coinciden con las formas bilineales
reales simétricas estudiadas en la Lección 3.
Definición 9.9. Una forma sesquilineal f sobre un espacio real o complejo V se dice hermitiana si

f (u, v) = f (v, u) ∀u, v ∈ V

Proposición 9.6. Una forma sesquilineal f sobre un espacio V de dimensión finita n ≥ 1 con producto
interno es hermitiana si, y sólo si, Tf es autoadjunta, es decir, Tf∗ = Tf . En otras palabras, f es
hermitiana si y sólo si Tf es hermitiana.
Demostración: Supongamos que Tf es autoadjunta, por lo tanto

f (u, v) = hTf (u), vi = hu, Tf∗ (v)i = hu, Tf (v)i


= hTf (v), ui = f (v, u), ∀u, v ∈ V

ası́, f es hermitiana.

Recı́procamente, si f es hermitiana, entonces f (u, v) = f (v, u), luego hTf (u), vi = hTf (v), ui, por
lo tanto, hTf (u), vi = hu, Tf (v)i ∀u, v ∈ V , por consiguiente, Tf∗ = Tf , es decir, Tf es autoadjunta. 
9.6. FORMAS HERMITIANAS 193

Proposición 9.7. Una forma sesquilineal f sobre un espacio unitario V es hermitiana si y solo si
f (u, u) es real para cada u ∈ V .
Demostración: ⇒) Evidente a partir de la definición.

⇐) Sean u, v ∈ V , entonces

f (u + v, u + v) = f (u, u) + f (u, v) + f (v, u) + f (v, v) ∈ R


y como f (u, u), f (v, v) ∈ R entonces f (u, v) + f (v, u) ∈ R. Análogamente,

f (u + iv, u + iv) = f (u, u) − if (u, v) + if (v, u) + f (v, v) ∈ R


entonces −if (u, v) + if (v, u) ∈ R. Resulta,

f (u, v) + f (v, u) = f (u, v) + f (v, u)


−if (u, v) + if (v, u) = if (u, v) − if (v, u)
Multiplicando la segunda por i y sumando resulta 2f (u, v) = 2f (v, u), entonces f (u, v) = f (v, u). 

Cerramos la lección con el teorema sobre diagonalización.


Teorema 9.6. Sea V un espacio con producto interno (real o complejo) de dimensión finita n y f una
forma sesquilineal hermitiana sobre V . Entonces existe una base ortonormal X en V tal que mX (f )
es diagonal real.
Demostración: Seún la Proposición 9.6, Tf es hermitiana, entonces existe una base ortonormal X en
V tal que mX (Tf ) es diagonal real, por lo tanto, mX (f ) es diagonal real. 
Álgebra Lineal
Capı́tulo 9. Formas Bilineales
Ejercicios.
1. Demostrar el Corolario 8 de la Lección 4 del presente capı́tulo.
2. Demostrar la Proposición 4 de la Lección 5 del presente capı́tulo.
3. Sea f una forma bilineal simétrica definida por la matriz
 
4 2 −2
A= 2 5 0 
−2 0 3
Demostrar que existe una base Z en R3 tal que la matriz de f en dicha base es la matriz
idéntica.
4. Sea f una forma bilineal simétrica definida por la matriz
 
4 2
A=
2 1
Demostrar que existe una base Z en R2 tal que la matriz de f en dicha base es
 
1 0
0 0
Cuál es el rango de f ?
5. Sea f una forma bilineal simétrica definida por la matriz
 
0 2
A=
2 0
Demostrar que existe una base Z en R2 tal que la matriz de f en dicha base es
 
1 0
0 −1
Cuál es el rango de f ?
6. Sea n un entero positivo y sea V el espacio de todas las matrices n × n sobre el cuerpo
C de números complejos. Demostrar que la relación

f (A, B) = ntr (AB) − tr (A) tr (B)


define una forma bilineal. Esta forma es simétrica? Esta forma es no degenerada?
7. En el problema anterior, sea W el subespacio de V que consta de todas las matrices A
tales que tr (A) = 0 y A es antihermitiana, es decir, A∗ = −A. Consideremos la restricción
f 0 de f al subespacio W . Probar que f 0 (A, A) < 0 para cada matriz A ∈ W .
8. Sea V un espacio vectorial sobre un cuerpo K, y sean f1 , f2 ∈ V ∗ funcionales. Demostrar
que la ecuación

1
f (u, v) = f1 (u) f2 (v) − f2 (u) f1 (v)
define una forma bilineal antisimétrica sobre V. Demostrar que f = 0 si y sólo si f1, f2 son
linealmente dependientes.

2
196 CAPÍTULO 9. FORMAS BILINEALES
Capı́tulo 10

Formas Cuadráticas

Introducción
Las ideas y resultados expuestos en los dos capı́tulos anteriores son ahora considerados para el estudio
de las llamadas formas cuadráticas que tienen amplias aplicaciones en diferentes áreas de matemáticas
y estadı́stica.

10.1. Formas Cuadráticas


En este capı́tulo, salvo que se advierta lo contrario, K denotará un cuerpo arbitrario de caracterı́stica
diferente de 2, char(K) 6= 2, y V un K-espacio vectorial.
Definición 10.1. Sea f una forma bilineal simétrica sobre V . La forma cuadrática asociada a f
es la función definida por

q : V −→ K
u 7−→ q(u) = f (u, u)

Nótese que q(βu) = f (βu, βu) = β 2 f (u, u) = β 2 q(u), para β ∈ K, u ∈ V , en particular q(−u) = q(u).
De otra parte,

q(u + v) = f (u + v, u + v) = f (u, u + v) + f (v, u + v) = f (u, u) + f (u, v) + f (v, u) + f (v, v)


por la simetrı́a de f tenemos:

q(u + v) = q(u) + 2.f (u, v) + q(v) (10.1)


(2 denota 1 + 1 en K). La ecuación anterior muestra que si 1 + 1 6= 0 , entonces f queda completamente
determinada por q mediante la relación:

1
f (u, v) = [q(u + v) − q(u) − q(v)]
2 (10.2)
1
f (u, v) = [f (u + v, u + v) − f (u, u) − f (v, v)]
2
Si reemplazamos v por −v en (1) obtenemos:

q(u − v) = q(u) − 2.f (u, v) + q(v) (10.3)


y de (10.1)-(10.3) se tiene q(u + v) − q(u − v) = 4f (u, v), es decir,

197
198 CAPÍTULO 10. FORMAS CUADRÁTICAS

1
f (u, v) = [f (u + v, u + v) − f (u − v, u − v)] (10.4)
4
Esta es la identidad de polarización que vimos en Teorema 2 del Capı́tulo 3.

Si V es un espacio de dimensión finita n y X = {v1 , . . . , vn } es una base de V , entonces se define


la matriz y, consecuentemente, el rango de la forma cuadrática q(u) = f (u, u), como la matriz y el
rango de la respectiva forma bilineal.

Una forma cuadrática se dirá no degenerada, o también no singular, si su matriz es invertible.


La forma cuadrática f (u, u) puede escribirse también en la forma:
n
X
f (u, u) = aij αi αj = ZAZ T (10.5)
i,j=1

donde Z = [α1 , . . . , αn ] son las coordenadas de u en la base X, y A = [aij ] = mX (f ).

10.2. Suma de Cuadrados


Definición 10.2. Sea f (u, u) una forma cuadrática sobre un espacio V de dimensión finita n. Se
dice que f (u, u) es reducible a una suma de cuadrados, si existe una base X y escalares d1 , . . . , dn
en K tales que:
n
X
dk αk2 (10.6)
k=1

donde α1 , ..., αk son la coordenadas de u en la base X. Los coeficientes de f (u, u) en (3) se denominan
canónicos. Uno de los teoremas centrales sobre formas cuadráticas es debido a Lagrange.
Teorema 10.1. (Método de Lagrange). Toda forma cuadrática sobre un K-espacio V de dimensión
finita n es reducible a una suma de cuadrados.
Demostración: Si f (u, u) = 0 para cada u ∈ V , entonces en cualquier base X de V se tiene que
1
f (u, v) = [q (u + v) − q (u) − q (v)] = 0,
2
para cualesquiera u, v ∈ V . Por lo tanto, la matriz A de la forma cuadrática es nula y de esta manera
q(u) = 0 para cada u ∈ V . Es decir, q = 0 es una suma de cuadrados.

Supongamos que q 6= 0, y sea Y = {v1 , . . . , vn } una base de V . Se tiene que


k
X
q(u) = aij αi αj (10.7)
i,j=1

Se puede siempre suponer que f (v1 , v1 ) = a11 6= 0. En efecto, consideremos dos casos:

Caso 1. Si a11 = 0 pero aii 6= 0 para algún 2 ≤ i ≤ n , entonces podemos reordenar la base Y
(cambiando v1 por vi ) de tal forma que el coeficiente correspondiente al primer cuadrado sea no nulo.

Caso 2. Si aii = 0 para cada 1 ≤ i ≤ n, entonces algún coeficiente aij = 6 0 y, con un reordena-
miento, podemos suponer que dicho coeficiente es a12 (cambiando v1 por vi y v2 por vj ).

Buscamos una nueva base Z = {z1 , . . . , zn } de tal forma que f (z1 , z1 ) 6= 0,


10.2. SUMA DE CUADRADOS 199

Se introduce entonces el siguiente cambio de coordenadas:


 
 α11 = α1 + α2 
α21 = −α1 + α2 (10.8)
 
αi1 = αi , 3≤i≤n
Nótese que este cambio de coordenadas corresponde al siguiente cambio de base: sea Z = {z1 , . . . , zn }
otra base de V y u = α11 z1 + · · · + αn1 zn . Recuérdese que las coordenadas de u en estas dos bases están
relacionados por
    1 
α1 c11 · · · c1n α1
 ..   .. . . ..   ..  ,
 .   . = . .  . 
αn cn1 ··· cnn αn1

donde C = [cij ] es la matriz de cambio de Y a Z. En este caso se tiene


   
α11 α1
 ..   .. .
 .  = C −1  . 
αn1 αn

Hacemos
 
1 1
 0 
 −1 1 
−1  1 
C :=  
 .. 
 0 . 
1
 1

2 − 21
 1 1 0 
 2 2 
 1 
C= 
 .. 
 0 . 
1

de donde
 1 1

    2 α1 − 21 α21
α1 α11  1 1
+ 21 α21 
 2 α1 
 ..   ..   α31 
 .  = C  .  
= 
 .. 
αn αn1  . 
αn1
y

z1 = 21 v1 + 12 v2 z2 = − 21 v1 + 12 v2 zi = vi 3≤i≤n

Nótese que en con el cambio de coordenadas (10.8) el coeficiente de (α11 )2 es 21 a12 6= 0.

Ası́ pues, en (10.7) podemos suponer que el la base Y = {v1 , . . . , vn }, a11 6= 0. Se tiene entonces
que
200 CAPÍTULO 10. FORMAS CUADRÁTICAS

2 Pn
f (u, u) = a11 (α1 ) + 2a12 α1 α2 + · · · + 2a1n α1 αn + i,j=2 aij αi αj .

Pero
2 a12 a1n 2
a11 (α1 ) + 2a12 α1 α2 + ..... + 2a1n α1 αn = a11 (α1 + a11 α2 + ··· + a11 αn )
a2 2 a2 2
− a11
12
(α2 ) − · · · − a1n
11
(αn ) − · · ·
−2 a11 α2 α3 − · · · − 2 a12a11
a12 a13 a1n
α2 αn − · · · − 2 a1n−1
a11
a1n
αn−1 αn .

Podemos entonces escribir

a12 a1n Pn
q(u) = a11 (α1 + a11 α2 + ..... + a11 αn )
2
+ i,j=2 a0ij αi αj

donde
( )
(a1i )2
a0ii = aii − a 2≤i≤n
a1i11
a1j (10.9)
a0ij = aij − a11 i 6= j, 2 ≤ i, j ≤ n

Introducimos entonces el siguiente cambio de coordenadas:


 a12 a1n 
β1 = α1 + a11 α2 + ..... + a11 αn (10.10)
βi = αi ,2≤i≤n
Como antes, este cambio de coordenadas corresponde a un cambio de base para V cono matriz de
cambio dada por
 
1 − aa1112
− aa11
13
··· − aa1n
11
0 1 0 ... 0 
 
 0 
C := 0 0 1 ... .
. .. .. .. 
 .. . . . 
0 0 0 ... 1

Ası́ pues, existe una base Y 0 en V en la cual la forma tiene el aspecto


2 Pn
q(u) = a11 (β1 ) + i,j=2 a0ij βi βj .
Pn
Según (10.9), i,j=2 a0ij βi βj es una forma cuadrática (asociada a la matriz simétrica [a0ij ] de orden
n−1). Si esta forma es idénticamente nula el teorema está demostrado. De no ser nula podemos repetir
el razonamiento anterior mediante cambio de las coordenadas β2 , . . . , βn no cambiando β1 . Esto co-
rresponderá a cambiar la base Y 0 dejando siempre fijo el vector x1 . Es claro que al cabo de un número
finito de pasos se llega a la forma deseada.

De la prueba que acabamos de efectuar se deben hacer las siguientes aclaraciones:

(a) Si la forma cuadrática q viene definida por la forma bilineal simétrica f con matriz simétrica
A en una base X = {v1 , . . . , vn }, entonces

q(u) = ZAZ T
donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X. La reducción a una suma de
cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si
X = {x01 , . . . , x0n } es la nueva base a través de la cual q es una suma de cuadrados, entonces
10.2. SUMA DE CUADRADOS 201

q(u) = Z 0 DZ 0T
 
d1 0
 ..  0 0 T
= [α10 . . . αn0 ]  .  [α1 . . . αn ]
0 dn
2 2
= d1 (α10 ) + · · · + dn (αn0 )

donde Z 0 = [α10 . . . αn0 ] son las coordeandas del vector u en la base X 0 . Según la Lección 2 del Capı́tulo
9, las matrices A y D están relacionados por D = C T AC, donde C es la matriz de cambio de la base
X a la base X 0 . Reiteramos que A y D no son necesariamente similares, pero si tienen por supuesto el
mismo rango.

(b) La base a través de la cual la forma cuadrática se reduce a una suma de cuadrados no está definida
univocamente, y por lo tanto, los coeficientes d1 , . . . , dn tampoco son únicos.

(c) Además, si una forma cuadrática está reducida a la forma canónica (10.6), no necesariamente
todos los coeficientes d1 , . . . , dn son diferentes de cero. Sin embargo, en cualquier base X de V la
cantidad de coeficientes no nulos es la misma, y coincide con el rango de la forma cuadrática,

Ejemplo 10.1. Sea V un espacio vectorial sobre R, y sea q la forma cuadrática sobre V cuya matriz
con respecto a una base X = {v1 , v2 , v3 } es
 
1 2 −3
 2 1 4 
−3 4 0
Mostramos ahora un algoritmo para reducir q a una suma de cuadrados siguiendo el procedimiento de
la prueba del teorema anterior. La idea es entonces calcular los coeficientes d:

Paso 1. d1 = a11 = 1.

Paso 2. Construimos la matriz A0 en la forma


 
1 0 0
A0 =  0 a022 a023 
0 a032 a033
definiendo

a212 4
a022 = a22 − = 1 − = −3
a11 1
a213 9
a033 = a33 − = 0 − = −9
a11 1
a12 a13 −6
a023 = a23 − =4− = 10 = a032
a11 1

es decir,
 
1 0 0
A0 =  0 −3 10 
0 10 −9
202 CAPÍTULO 10. FORMAS CUADRÁTICAS

Paso 3. d2 = a022 = −3.

Paso 4. Construimos la matriz A00 en la forma


 
1 0 0
A00 =  0 −3 0 
0 0 a0033
definiendo
2
(a023 ) 100 73
a0033 = a033 − 0 = −9 − =
a22 −3 3
Paso 5. d3 = a0033 = 73
3 .

Paso 6. Entonces,

2 73 0 2 2
q (u) = (α10 ) − 3 (α20 ) +
(α3 ) .
3
Ejemplo 10.2. Reducir a una suma de cuadrados la siguiente forma cuadrática:

q(u) = 3α12 − 2α2 α3 − 2α1 α2 + 2α22 + 3α32


Notemos en primer lugar que la matriz de esta forma cuadrática en la base canónica X = {e1 , e2 , e3 }
de R3 es:
 
3 −1 0
A =  −1 2 −1 
0 −1 3
Ejecutamos entonces el algoritmo del ejemplo anterior:
Paso 1. d1 = a11 = 3.

Paso 2. Calculamos la matriz A0 definiendo

a212 1 5
a022 = a22 − =2− =
a11 3 3
2
a 0
a033 = a33 − 13 = 3 − = 3
a11 3
a12 a13 0
a023 = a23 − = −1 − = −1 = a032
a11 3
es decir,
 
3 0 0
A0 =  0 5
3 −1 
0 −1 3
Paso 3. d2 = 53 .

Paso 4. Construimos la matriz A00 en la forma


 
3 0 0
A00 =  0 5
3 0 
0 0 a0033
10.2. SUMA DE CUADRADOS 203

definiendo
2
(a023 ) 1 12
a0033 = a033 − =3− 5 =
a022 3
5

Paso 5. d3 = a0033 = 12
5 .

Paso 6. Entonces,
5 0 2 12 0 2
2
q (u) = 3 (α10 ) +
(α ) + (α3 ) .
3 2 5
En este ejemplo vamos a mostrar adicionalmente los cambios de coordenadas y de base que hemos
realizado. Entonces, de acuerdo con la prueba del Teorema 1 se tiene que:

a12 a13 −1 0 1
α10 = α1 + α2 + α3 = α1 + α2 + α3 = α1 − α2
a11 a11 3 3 3
α20 = α2
α30 = α3

Matricialmente este cambio de coordenadas es:


 0    
α1 1 − 13 0 α1
 α20  =  0 1 0   α2 
α30 0 0 1 α3
y el correspondiente cambio de base es:

e01 = e1
1
e02 = e1 + e2
3
e03 = e3

con matriz
 1

1 3 0
C= 0 1 0 
0 0 1
Sabemos que (Proposición 1 de la Lección 2, Capı́tulo 9):
   1
  
1 0 0 3 −1 0 1 3 0 3 0 0
mX 0 (q) = C T AC =  13 1 0   −1 2 −1   0 1 0  =  0 53 −1 
0 0 1 0 −1 3 0 0 1 0 −1 3
Debe ser claro que esta nueva matriz para la forma q no es similar a la matriz A. Veamos como es la
forma cuadrática asociada esta nueva matriz:
  0 
 0  3 0 0 α1
5
α1 α20 α30  0 53 −1   α20  = 3(α10 )2 − 2α20 α30 + (α20 )2 + 3(α30 )2
3
0 −1 3 α30
lo cual corresponde a la matriz A0 .

Finalmente, el último cambio de coordenadas efectuado fue


204 CAPÍTULO 10. FORMAS CUADRÁTICAS

α100 = α10
a023 0 −1 3
α200 = α20 + α = α20 + 5 α30 = α20 − α30
a022 3 3
5
α300 = α30

lo cual matricialmente se puede expresar como


 00    0 
α1 1 0 0 α1
 α200  =  0 1 − 35   α20 
α300 0 0 1 α30
El correspondiente cambio de base es:

e001 = e01
e002 = e02
3
e003 = e02 + e03
5
con matriz  
1 0 0
C0 =  0 1 3
5

0 0 1
Por lo tanto, la matriz de q en esta nueva base es:

T
mX 00 (q) = (C 0 ) C T ACC 0
   
1 0 0 3 0 0 1 0 0
= 0 1 0  0 5
3 −1   0 1 3
5

3
0 5 1 0 −1 3 0 0 1
 
3 0 0
= 0 5
3 0 
12
0 0 5

Nuevamente, no sobra recordar que la matriz inicial A no es similar a esta matriz diagonal.
Veamos como es la forma cuadrática asociada esta nueva matriz:
   00 
 00  3 0 0 α1
5 12
α1 α200 α300  0 53 0   α200  = 3(α100 )2 + (α200 )2 + (α300 )2
3 5
0 0 12 5 α300
lo cual corresponde a la matriz A00 , y por supuesto a la reducción encontrada.

10.3. Formas Cuadráticas y Formas Hermı́ticas


Sea V un espacio real o complejo y f una forma sesquilineal hermitiana. La forma cuadrática asociada
a f es la función q(u) = f (u, u), para cada u ∈ V . Notemos que en este caso se tiene que

q (β.u) =| β |2 q(u), para cada β real o complejo.


10.3. FORMAS CUADRÁTICAS Y FORMAS HERMÍTICAS 205

Sea X una base de V , entonces se define la matriz de q en la base X por mX (q) = mX (f ). Notemos
que esta matriz A es herimitiana y además,

q(u) = ZAZ ∗
donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X y A = mX (f ).

Si el espacio V viene dotado con un producto interno, entonces la forma q puede ser reducida a una
suma de cuadrados mediante una técnica más simple que la de Lagrange y en la cual los coeficientes
son los valores propios de A.
Teorema 10.2. Sea V un espacio con producto interno de dimensión finita n y f una forma sesquili-
neal hermitiana sobre V . Entonces existe una base ortonormal X = {v1 , ..., vn } en V y reales λ1 , ..., λn
tales que
n
X
f (u, u) = λk |αk |2
k=1
donde α1 , ..., αn son las coordenadas de u en la baseX.
Demostración: Según el Corolario 9 y la Proposición 6 del capı́tulo anterior, existe una transformación
lineal hermitiana (simétrica) Tf tal que

f (u, v) = hTf (u), vi , ∀u, v ∈ V


Según el Teorema 2 del Capı́tulo 8, existe una base ortonormal X = {v1 , ..., vn } en V tal que mX (Tf ) es
diagonal con elementos diagonales λ1 , ..., λn , de tal forma que v1 , ..., vn son vectores propios y λ1 , ..., λn
son los valores propios de Tf . En consecuencia, λ1 , ..., λn ∈ R y además

Tf (vk ) = λk · vk , 1 ≤ k ≤ n.
Entonces
n
X
Tf (u) = αk λk vk
k=1

f (u, u) = hTf (u), ui


* n n
+
X X
= αk λk vk , α k vk
k=1 k=1
n
X n
X
= λk αk αk = λk |αk |2 .
k=1 k=1

De la prueba que acabamos de efectuar se deben hacer las siguientes aclaraciones:

(a) Si la forma cuadrática q viene definida por la forma sesquilineal hermitiana f con matriz her-
mitiana A en una base X = {v1 , . . . , vn }, entonces

q(u) = ZAZ ∗
donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X. La reducción a una suma de
cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si
X 0 = {x01 , . . . , x0n } es la nueva base a través de la cual q es una suma de cuadrados, entonces
206 CAPÍTULO 10. FORMAS CUADRÁTICAS


q(u) = Z 0 D (Z 0 )
 
λ1 0 h iT
 ..  0
= [α10 . . . αn0 ]  .  α1 . . . αn0
0 λn
= λ1 | α10 |2 + · · · + λn | αn0 |2

donde Z 0 = [α10 . . . αn0 ] son las coordeandas del vector u en la base X 0 . Según Proposición 4 de la
Lección 5 del Capı́tulo 9, las matrices A y D están relacionados por D = C T AC, donde C es la
matriz de cambio de la base X a la base X 0 . Pero en la prueba del teorema se vio que la base X 0 es
precisamente la base de vectores propios de Tf , por lo tanto la matriz C de cambio de X a X 0 es,
según la Proposición 12 de la Lección 7 del Capı́tulo 8, una matriz unitaria, es decir, C −1 = C ∗ . Se
−1  
tiene pues en este método, a diferencia del método de Lagrange, que C = (C −1 ) = C T = C T .
Por lo tanto, D y A en este caso si son similares.
Ejemplo 10.3. Consideremos la forma cuadrática definida en el Ejemplo 2 de la Lección anterior,
q(u) = 3α12 − 2α2 α3 − 2α1 α2 + 2α22 + 3α32 . Reducir q a una suma de cuadrados usando el método
del teorema anterior. En la demostración del teorema vimos que la base X 0 a través de la cual se
diagonaliza la forma cuadrática q definida por la matriz
 
3 −1 0
A =  −1 2 −1 
0 −1 3
viene dada por la base ortonormalizada de vectores propios de la transformación lineal Tf , pero sa-
T
bemos que para cualquier base X de R3 se cumple mX (f ) = mX (Tf ) . Sea pues X la base canóni-
ca de R , entonces A = mX (f ) y A = mX (Tf ) = A, ya que A es hermitiana (realmente, A es
3 T

simétrica). Debemos entonces calcular los valores y vectores propios de A: E(1) = h(1, 2, 1)i , E(3) =
h(−1, 0, 1)i , E(4) = h(1, −1, 1)i. La base normalizada es entonces
 
0 1 1 1
X = √ (1, 2, 1) , √ (−1, 0, 1) , √ (1, −1, 1)
6 2 3
Se tiene entonces que

mX 0 (q) = C T AC
 1   −1

√ √2 √1 √1 √ √1
6 6 6 3 −1 0 6 2 3
 −1   −1 
= √
2
0 √1
2  −1 2 −1   √2
6
0 √
3 
√1 −1
√ √1 0 −1 3 √1 √1 √1
3 3 3 6 2 3
 
1 0 0
= 0 3 0 
0 0 4
y la forma cuadrática q en esta nueva base es una suma de cuadrados donde los coeficientes son los
valores propios de A:
2 2 2
q(u) = (α10 ) + 3 (α20 ) + (α30 ) .
Se contrasta este resultado con el obtenido por el método de Lagrange en el Ejemplo 2 de la lección
anterior: como anotamos arriba, en este caso C −1 = C T , es decir, A y la matriz diagonal de valores
propios son similares.
10.3. FORMAS CUADRÁTICAS Y FORMAS HERMÍTICAS 207

Corolario 10.1. Sea V un espacio real o complejo de dimensión finita n. Sean f, g formas sesqui-
lineales hermitianas sobre V tales que g(u, u) > 0, ∀u ∈ V − 0. Entonces existe una base ortonormal
X = {v1 , ..., vn } en V tal que
n
X n
X
2
f (u, u) = λk |αk | , g(u, u) = |αk |2 (10.11)
k=1 k=1

donde α1 , ..., αn ∈ R y α1 , ..., αn son las coordenadas de u en la base X.

Demostración: En efecto, definimos en V el producto

hu, vi = g(u, v), ∀u, v ∈ V


Nótese que entonces V es un espacio con producto interno. Según la proposición anterior existe una
base ortonormal X = {v1 , ..., vn } en V y λ1 , ..., λn ∈ R tales que la forma cuadrática asociada a f es
como en (10.11).

También,
* n n
+ n
X X X
hu, ui = g(u, u) = αk vk , αk vk = |αk |2 . 
k=1 k=1 k=1
Álgebra Lineal
Capı́tulo 10. Formas Cuadráticas
Ejercicios.
1. Usar la demostración de la Proposición 1 de la Lección 3 del presente capı́tulo para
expresar la forma cuadrática

q : R3 → R
q (x, y, z) = 3x2 + 2y 2 + 3z 2 − 2xy − 2yz

como una suma de cuadrados. Realizar también el ejercicio por el método de Lagrange y
comparar los resultados.
2. Supóngase que q : V → R es una forma cuadrática asociada al producto interno ( , )
de V . Probar que para cualesquiera vectores u, v ∈ V se tiene que
1
(u, v) =(q (u + v) − q (u) − q (v))
2
3. Sea q : V → R es una forma cuadrática y supóngase que

q (u) = (u, T (u))


q(u) = (u, S(u))

para un par T, S de transformaciones simétricas del espacio V . Demostrar que T = S.


4. Sea q (x, y) = ax2 +bxy+cy 2 la forma cuadrática asociada a una forma bilineal simétrica
f definida sobre R2 . Demostrar que f es no degenerada si y sólo si b2 − 4ac 6= 0.

1
Álgebra Lineal
Capı́tulo 10. Formas Cuadráticas
Ejercicios.
1. Usar la demostración de la Proposición 1 de la Lección 3 del presente capı́tulo para
expresar la forma cuadrática

q : R3 → R
q (x, y, z) = 3x2 + 2y 2 + 3z 2 − 2xy − 2yz

como una suma de cuadrados. Realizar también el ejercicio por el método de Lagrange y
comparar los resultados.
2. Supóngase que q : V → R es una forma cuadrática asociada al producto interno ( , )
de V . Probar que para cualesquiera vectores u, v ∈ V se tiene que
1
(u, v) =(q (u + v) − q (u) − q (v))
2
3. Sea q : V → R es una forma cuadrática y supóngase que

q (u) = (u, T (u))


q(u) = (u, S(u))

para un par T, S de transformaciones simétricas del espacio V . Demostrar que T = S.


Solución. Sean u, v vectores cualesqueira de V , entonces

q(u + v, u + v) =(u + v, T (u + v))


=(u, T (u)) + (u, T (v)) + (v, T (u)) + (v, T (v))
=q(u) + (T (v), u) + (v, T (u)) + q(v)
=q(u) + (v, T ∗ (u)) + (v, T (u)) + q(v)
=q(u) + (v, T (u)) + (v, T (u)) + q(v)
=q(u) + q(v) + 2(v, T (u)).

De igual manera q(u+v, u+v) = q(u)+q(v)+2(v, S(u)), igualando se tiene que (v, T (u)) =
(v, S(u)), para cualesquiera vectores u, v ∈ V . Por lo tanto, T (u) = S(u), es decir, T = S.
4. Sea q (x, y) = ax2 +bxy+cy 2 la forma cuadrática asociada a una forma bilineal simétrica
f definida sobre R2 . Demostrar que f es no degenerada si y sólo si b2 − 4ac 6= 0.

1
210 CAPÍTULO 10. FORMAS CUADRÁTICAS
Capı́tulo 11

Tópicos Especiales y Aplicaciones

211
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.1. Formas cuadráticas y geometrı́a analı́tica

Mostramos en esta lección una aplicación de las formas cuadráticas a geometrı́a analı́tica.
En el capı́tulo anterior vimos que toda forma sesquilineal hermintiana puede ser reducida
a una suma de cuadrados mediante un cambio de base, o lo que es lo mismo, mediante
un cambio de coordenadas. En efecto, sea V es un espacio vectorial real o complejo de
dimensión finita n y q una forma cuadrática sobre V definida por una forma sesquilineal
hermitiana f . Sea X = {x1 , . . . , xn } una base cualquiera de V y sea A = mX (f ), entonces
sabemos que
q (u) = ZAZ ∗
donde Z = [α1 , . . . , αn ] es el vector de coordenadas de u respecto de la base X, es decir,
u = α1 .x1 + · · · + αn .xn . Vimos que si X 0 = {x01 , . . . , x0n } es la base de V conformada por
vectores propios ortonormalizados de A, y C es la matriz de cambio de X a X 0 , es decir,
las columnas de C son las coordenadas de los vectores de X 0 es términos de la base X,
entonces q en la base X 0 es diagonal:
 
λ1 0
 ..  0 ∗ 0 2 0 2
q (u) = Z 0  .  (Z ) = λ1 |α1 | + · · · + λn |αn |
0 λn

donde λi son los valores propios de A y Z 0 = [α10 , . . . , αn0 ] es el vector de coordenadas de u


respecto de la base X 0 , es decir, u = α10 .x1 + · · · + αn0 .xn . Vimos además que C es unitaria
y tal que  
λ1 0
 ...  T
  = C AC
0 λn
−1
es decir, C = C T . Notemos que con la matriz C se puede expresar el cambio de
coordenadas:    
α10 α1
 ..  −1  . 
 .  = C  .. 
αn0 αn
Si en particular estamos considerando un caso real, entonces C es una matriz ortogonal
y C −1 = C T .
Ası́ pues, mediante un cambio de base, o lo que es lo mismo, mediante un cambio de
coordenadas inducido por la matriz C de vectores propios ortonormalizados de la matriz
A, una forma cuadrática real puede ser reducida a una suma de cuadrados, donde los
coeficientes de la suma son los valores propios de A y C es una matriz ortogonal.

1
a. Cónicas. Usaremos los resultados anteriores para interpretar geométricamente los
puntos (x, y) del plano R2 que satisfacen una ecuación de orden 2 de la forma

ax2 + bxy + cy 2 + dx + ey + f = 0 (1)

Veremos a continuación que el conjunto solución de (1) es alguna de las siguientes curvas:
(a) Una elipse
(b) Una hipérbola
(c) Una parábola
(d) Vacı́o
(e) Un punto
(f) Una recta
(g) Dos rectas
Consideremos en (1) la parte cuadrática q(x, y) = ax2 + bxy + cy 2 , esta es una forma
cuadrática con matriz simétrica real
 
a 2b
A= b
2
c

calculada en la base canónica de R2 . Mediante la matriz C de vectores propios ortonor-


malizados podemos reducir q a una suma de cuadrados con el respectivo cambio de co-
ordenadas, digamos x0 , y 0 . De esta manera, la ecuación (1) se transforma en otra de la
siguiente forma
2 2
λ1 (x0 ) + λ2 (y 0 ) + d0 x0 + e0 y 0 + f = 0 (2)
donde λ1 , λ2 son los valores proopios de A y d0 , e0 , f 0 ∈ R. Notemos que λ1 , λ2 determinan
que tipo de curva es la solución de (1):
(i) si λ1 λ2 > 0, entonces λ1 , λ2 son del mismo signo y tenemos en este caso una elipse, un
punto o vacı́o.
(ii) Si λ1 λ2 < 0, entonces λ1 λ2 son de signo contrario y tenemos en este caso una hipérbola,
o dos rectas.
(iii) Si λ1 = 0 pero λ2 6= 0 ó bien λ1 6= 0 pero λ2 = 0, entonces tenemos una parábola,
una recta, o vacı́o.
(iv) Si λ1 = 0 = λ2 entonces A = 0 y tenemos una recta o vacı́o.
Finalmente, calculemos el polinomio caracterı́stico de A:
 
z − a − 2b
pA (z) =
− 2b z − c

, determinant: ac − az − cz − 14 b2 + z 2 = z 2 − (a + c) z + ac − 14 b2 = (z − λ1 ) (z − λ2 ),
por lo tanto  
1 2
λ1 λ2 = ac − b .
4

2
4ac − b2 se conoce como el discriminante de la forma cuadrática q y determina el tipo
de cónica que representa la ecuación (1).
Ejemplo 1. Determinar la cónica definida por la ecuación
19x2 + 4xy + 16y 2 − 212x + 104y = 356 (3)
Mostrar los cambios de coordenadas realizados.
Solución. Consideremos la cuadrática asociada a esta curva:
19x2 + 4xy + 16y 2
Su discriminante es 4ac − b2 = 4 × 19 × 16 − 16 = 1200 > 0, por lo tanto tenemos una
elipse, un punto o vacı́o. Su matriz simétrica es
 
19 2
A=
2 16
Calculemos la matriz diagonalizante conformada por los vectores propios de A normal-
izados: E(15)
 =< (−1, 2) > y E(20) =< (2, 1) >, notemos que efectivamente λ1 λ2 =
ac − 41 b2 ; normalizamos ahora los vectores propios:

k(−1, 2)k = 5

k(2, 1)k = 5
Por lo tanto,  
1 −1 2
C=√
5 2 1
Las nuevas coordenadas (x0 , y 0 ) están relacionadas con las coordenadas iniciales (x, y) en
la siguiente forma  0    −1  
x 1 −1 2 x
0 = √
y 5 2 1 y
Teniendo en cuenta que queremos expresar (3) en forma cartesiana a través de las nuevas
coordenadas, entonces       0 
x 1 −1 2 x
= √
y 5 2 1 y0
es decir,
x = √15 (−x0 + 2y 0 )
y = √15 (2x0 + y 0 )
Reemplazando en (3) se tiene
 2   
1 0 0 1 0 0 1 0 0
19 √ (−x + 2y ) + 4 √ (−x + 2y ) √ (2x + y ) +
5 5 5
 2    
1 0 0 1 0 0 1 0 0
16 √ (2x + y ) − 212 √ (−x + 2y ) + 104 √ (2x + y ) = 356
5 5 5

3
√ √
15(x0 )2 + 20(y 0 )2 + 84x0 5 − 64y 0 5 = 356
Podemos ahora completar cuadrados
√ ! √ !
84 5 64 5 0
15 (x0 )2 + x0 + 20 (y 0 )2 − y = 356
15 20
 2  2
0 14 0 8
15 x + √ + 20 y − √ = 1200
5 5
Podemos asegurar que tenemos una elipse. Al realizar un nuevo cambio de coordenadas
mediante una traslación,
14
x00 = x0 + √
5
8
y 00 = y 0 − √ ,
5
la ecuación (3) en este nuevo sistema de coordenadas se transforma en
2 2
15 (x00 ) + 20 (y 00 ) = 1200.
Notemos que el centro de la elipse en el sistema original de coordenadas es
   
1 0 0 1 14 8
x = √ (−x + 2y ) = √ − − √ + 2√ =6
5 5 5 5
   
1 0 0 1 14 8
y = √ (2x + y ) = √ 2 − √ +√ = −4.
5 5 5 5
La gráfica es

4
Ejemplo 2. Determinar la cónica definida por la ecuación

x2 + 4xy − 2y 2 − 12 = 0 (4)

Mostrar los cambios de coordenadas realizados.


Solución. La forma caudrática asociada es

q(u) = x2 + 4xy − 2y 2

Su discriminante es 4ac − b2 = −24 < 0, por lo tanto tenemos una hipérbola o dos rectas.
Su matriz simétrica es  
1 2
A=
2 −2
Los valores y vectores propios son E(2) =< (2, 1) >, E (−3) =< (−1, 2) >, con norma

k(2, 1)k = 5

k(−1, 2)k = 5

luego la matriz de cambio es  


1 2 −1
C=√
5 1 2
entonces       
x 1 2 −1 x0
= √
y 5 1 2 y0
es decir,
x= √1 (2x0 − y 0 )
5
y= √1 (x0 + 2y 0 )
5

Reemplazando en (4) encontramos


 2     2
1 0 0 1 0 0 1 0 0 1 0 0
√ (2x − y ) + 4 √ (2x − y ) √ (x + 2y ) − 2 √ (x + 2y ) − 12 = 0
5 5 5 5
0 2 0 2
2(x ) − 3(y ) = 12

Notemos que el centro de la hipérbola en el sistema original de coordenadas es (0, 0). La

5
gráfica es

Ejemplo 3. Determinar la cónica definida por la ecuación


9x2 + 24xy + 16y 2 − 52x + 14y = 6 (5)
Mostrar los cambios de coordenadas realizados.
Solución. La cuadrática asociada es
q(u) = 9x2 + 24xy + 16y 2
con discriminante 4ac − b2 = 0, por lo tanto tenemos una parábola, una recta o vacı́o.
La matriz simétrica asociada es  
9 12
A=
12 16
con valores y vectores propios E(0) =< (−4, 3) >, E (25) =< (3, 4) >; normalizando
k(−4, 3)k = 5
k((3, 4))k = 5
por lo tanto la matriz de cambio es
 
1 −4 3
C=
5 3 4
y el cambio correspondiente de coordenadas es
    0 
x 1 −4 3 x
=
y 5 3 4 y0

6
es decir
1
x= (−4x0 + 3y 0 )
5
1
y = (3x0 + 4y 0 )
5
Reemplazando en (5) se tiene que
 2   
1 0 0 1 0 0 1 0 0
9 (−4x + 3y ) + 24 (−4x + 3y ) (3x + 4y ) +
5 5 5
 2    
1 0 0 1 0 0 1 0 0
16 (3x + 4y ) − 52 (−4x + 3y ) + 14 (3x + 4y ) = 6
5 5 5
es decir,
25(y 0 )2 − 20y 0 + 50x0 = 6
Completando cuadrados tenemos
6
5(y 0 )2 − 4y 0 + 10x0 =
  5
4 0 6
5 (y ) − y + 10x0
0 2
=
5 5
 
4 0 6
(y ) − y + 2x0
0 2
=
5 25
 
0 2 4 0 4 6 4
(y ) − y + + 2x0 = +
5 25 25 25
 2
0 2 2
y − + 2x0 =
5 5
 2
1 0 2 1
y − + x0 =
2 5 5
 2
0 1 1 0 2
x − =− y −
5 2 5
Tenemos pues una parábola. Mediante la traslación
1
x00 = x0 −
5
2
y 00 = y 0 −
5
resulta entonces
1 2
x00 = − (y 00 )
2

7
Notemos que el vértice de la parábola original está en el punto
    
1 1 2 2
x= −4 +3 =
5 5 5 25
    
1 1 2 11
y= 3 +4 =
5 5 5 25
La gráfica de (5) es

El ángulo θ de rotación de los ejes viene dado por


    0 
x cos θ −senθ x
=
y senθ cos θ y0

es decir,

x = x0 cos θ − y 0 senθ
y = x0 senθ + y 0 cos θ

En efecto, utilizando coordenadas polares para representar las coordanadas iniciales x, y


tenemos
x = rcosα, y = rsenα
Entonces para el nuevo sistema de coordenadas x0 , y 0 sus coordenadas polares son
x0 = rcos(α + θ) = rcosαcosθ − senαsenθ = xcosθ − ysenθ
y 0 = rsen(α + θ) = rsenαcosθ + rcosαsenθ = ycosθ + xsenθ

8
De otra parte,
b
tan (2θ) = (6)
a−c

En efecto, reemplazando las identidades anteriores en (1) se tiene que el coeficiente para
el término x0 y 0 debe ser nulo, pero en el reemplazo este coeficiente es

csen (2θ) + b cos (2θ) − asen (2θ) = 0

y de esto resulta (6).


En el Ejemplo 1 se tiene que
4
tan (2θ) = .
3

9
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.2. Inversa generalizada

Definimos en esta lección la inversa generalizada de una matriz rectangular real cualquiera,
probamos algunas propiedades, mostramos una manera de calcularla y finalmente mostramos
una aplicación.
Para definir la inversa generalizada necesitamos algunos preliminares.
Proposición 1. (i) Sea B ∈ Mmk (R) una matriz real, entonces

rank B T B = rank (B) .

(ii) Sea C ∈ Mkn (R) una matriz real, entonces



rank CC T = rank (C) .
 
Demostración. Basta probar que ker B T B = ker (B). Sea X ∈ ker B T B , entonces
B T BX = 0, luego X T B T BX = 0, de donde (BX)T (BX) = 0, por lo tanto, BX = 0, es
decir, X ∈ ker(B). Recı́procamente,
 si X ∈ ker(B) entonces BX = 0 y B T BX = 0, es
decir, X ∈ ker B T B .
Proposición 2. Sea A ∈ Mmn (R) una matriz real tal que rank (A) = k ≥ 1. Entonces
existen matrices B ∈ Mmk (R) y C ∈ Mkn (R) tales que

A = BC, y además rank (B) = k = rank(C).

Demostración. Por medio de operaciones elementales sobre las filas de A podemos en-
contrar una matriz invertible T −1 tal que T −1 A es escalonada con k filas no nulas; de
igual forma, por medio de operaciones elementales sobre las columnas de T −1 A podemos
encontrar una matriz Q−1 tal que T −1 AQ−1 es de la forma
 
Ek,k Ok,n−k
T −1 AQ−1 =  
Om−k,k Om−k,n−k

Se tiene entonces que  


Ek,k Ok,n−k
A=T Q
Om−k,k Om−k,n−k

1
luego
  
Tk,k Tk,m−k Ek,k Ok,n−k
A=  Q
Tm−k,k Tm−k,m−k Om−k,k Om−k,n−k
 
Tk,k Ok,n−k
= Q
Tm−k,k Om−k,n−k
  
Tk,k Ok,n−k Qk,k Qk,n−k
=  
Tm−k,k Om−k,n−k Qn−k,k Qn−k,n−k
 
Tk,k Qk,k Tk,k Qk,n−k
= 
Tm−k,k Qk,k Tm−k,k Qk,n−k

Sea

A11 = Tk,k Qk,k , A12 = Tk,k Qk,n−k


A21 = Tm−k,k Qk,k , A22 = Tm−k,k Qk,n−k ,

Salvo permutación de filas y columnas podemos asumir que A11 es invertible de orden
k × k. En efecto, como T es invertible entonces
  
Tk,k Tk,m−k Ek,k Ok,n−k
  
Tm−k,k Tm−k,m−k Om−k,k Om−k,n−k
 
Tk,k Ok,n−k
= 
Tm−k,k Om−k,n−k

es de rango k, luego podemos intercambiar las filas de esta matriz y suponer que Tk,k es
invertible. De igual manera, salvo permutación de columnas, Qk,k es invertible, con lo
cual A11 es invertible.
Hemos demostrado que si P y R son productos de matrices de permutación, entonces

P AR = B 0 C 0

donde  
A11  
B = 0
, C0 = Ek,k A−1
11 A12
A21
Entonces,
A = BC

2
donde B = P −1 B 0 y C = C 0 R−1 cumplen las condiciones de la proposición.
Definición 1. Sea A ∈ Mmn (R) una matriz real tal que rank (A) = k ≥ 1, y sean B, C
como en la proposición anterior. Definimos
−1 T −1 T
A+ = C T CC T B B B
A+ es una matriz real de tamaño n × m y tiene las siguientes propiedades básicas, las
cuales se verifican directamente de la definición.
Proposición 3. (i) A+ AA+ = A+
(ii) AA+ A = A
(iii) AA+ es simétrica
(iv) A+ A es simétrica.
Las propiedades anteriores caracterizan la matriz A+ tal como veremos a continuación.
Proposición 4. Si A0 es una matriz real de orden n × m tal que
(i)’ A0 AA0 = A0
(ii)’ AA0 A = A
(iii)’ AA0 es simétrica
(iv)’ A0 A es simétrica
entonces A0 = A+ .
Demostración. Se tiene

AA0 = AA+ A A0 por (ii)
 T
= AA+ AA0 por (iii)’
T  T
= (AA0 ) AA+
= AA0 AA+ por (iii)’ y (iii)
+
= AA por (ii)’.
De igual manera, usando (ii), (ii)’,(iv),y (iv)’ se tiene que

A0 A = A0 AA+ A
T
= A0 AA+ A
T T
= A+ A (A0 A)
= A+ AA0 A
= A+ A.
De las dos identidades probadas y usando (i) y (i)’ resulta
A+ = A+ AA+
= A0 AA+
= A0 AA0
= A0 .

3
Definición 2. La matriz A+ caracterizada por las 4 propiedades de la proposición anterior
se denomina la inversa generalizada de A.
Otras propiedades de la inversa generalizada son las siguientes.
Proposición 5. (i) rank (A+ ) = rank (A)
(ii) (λA)+ = λ1 A+ , para λ 6= 0
T +
(iii) (A+ ) = AT
+
(iv) (A+ ) = A
(v) A es simétrica si y sólo si A+ es simétrica
(vi) Si A es invertible, entonces A+ = A−1 .
(vii) 0+ = 0.
Demostración. Todas las propiedades se prueban directamente, veamos por ejemplo
la prueba de (i): rank (A+ ) = rank (A+ AA+ ) ≤ rank (A+ A) ≤ rank (A), también
rank (A) = rank (AA+ A) ≤ rank (A+ A) ≤ rank (A+ ).
−1 T −1 T
(vi) Si A es invertible una descomposición de A es A = AE, luego A+ = E T EE T A A A =
 −1
A−1 AT AT = A−1 .
La descomposición de la Proposición 2 da un método para calcular la inversa generalizada
de una matriz rectangular A.
Ejemplo 1. Calcular la inversa generalizada de
 
−1 0 1 2
 −1 1 0 −1 
 
 0 −1 1 3 
A=  
0 1 −1 −3 
 
 1 −1 0 1 
1 0 −1 −2
Solución. En este caso A es de rango 2 y además
 
−1 0
A11 =
−1 1
es también de rango 2, por lo tanto
A = BC
con  
−1 0
 −1 1 
 
 0 −1 
B=


 0 1 

 1 −1 
1 0
 
1 0 −1 −2
C=
0 1 −1 −3

4
Luego
−1 T −1 T
A+ = C T CC T B B B
 11 7

17
− 17  
 −7 6 
− 13 − 16 − 16 16 1 1

= 4 17 17 
1 
6 3
− 17 17
− 16 1
6
− 13 13 − 16 16
1 4
− 17 − 17
 5 3 1 1 3 5

− 34 − 17 34
− 34 17 34
 4 13 5
− 102 5 13
− 102 4 
− 51
= 7
51 102
5 1
102
1 5 7 

102 102 51
− 51 − 102 − 102
1 1 3 3 1 1
17
− 34 34
− 34 34
− 17
 
−15 −18 3 −3 18 15
1   8 13 −5 5 −13 −8  
=
102  7 5 2 −2 −5 −7 
6 −3 9 −9 3 −6

Podemos comprobar resultado:

   
−1 0 1 2   −1 0 1 2
 −1 1 0 −1  −15 −18 3 −3 18 15  −1 1 0 −1 
   
 0 −1 1 3  1  8 13 −5 5 −13 −8   0 −1 1 3 
    =
 0 1 −1 −3  102  7 5 2 −2 −5 −7   0 1 −1 −3 
   
 1 −1 0 1  6 −3 9 −9 3 −6  1 −1 0 1 
1 0 −1 −2 1 0 −1 −2
 
−1 0 1 2
 −1 1 0 −1 
 
 0 −1 1 3 
 
 0 1 −1 −3 
 
 1 −1 0 1 
1 0 −1 −2

Ejemplo 2. Sea A ∈ Mmn (R) y sean P y R permutaciones de orden m y n respectiva-


mente. Si S = P AR, entonces
A+ = RS + P
En efecto, sea A = BC con B ∈ Mmk (R) , C ∈ Mkn (R) ambas de rango k. Notemos
entonces que S es también de rango k y una factorización de S es S = (P B) (CR). Se

5
tiene entonces que
 −1  −1
T T T
+
S = (CR) CR (CR) (P B) (P B) (P B)T
−1 −1 T T
= RT C T CRRT C T BT P T P B B P
−1 T −1 T
= RC T CC T B B B P
+
= RA P

luego RS + P = RRA+ P P = A+ .
Ejemplo 3. Calcular la inversa generalizada de
 
1 1 2 −3 3
 3 4 −1 2 15 
A=  4


5 1 1 18
−2 −3 3 −5 −12

Solución. Notemos que rank (A) = 3, pero el bloque superior izquierdo de orden 3 tiene
rango 2:  
1 1 2
 3 4 −1 
4 5 1
Debemos entonces aplicar el ejemplo anterior y permutar filas y/o columnas para ubicar
el bloque A11 invertible. Calculamos la forma escalonada reducida de la matriz A sin
realizar intercambios de filas ni columnas:
 
1 0 9 0 −3
 0 1 −7 0 6 
 
 0 0 0 1 0 
0 0 0 0 0

Esto permite identificar las filas y columnas apropiadas: debemos entonces considerar las
tres primeras filas y las columnas 1, 2 y 4:
 
1 1 −3 2 3
 3 4 2 −1 15 
AR = S =   4

5 1 1 18 
−2 −3 −5 3 −12

donde R = P34 . Según el Ejemplo 2, debemos calcular S + y luego obtener A+ = RS + .


Entonces,  
S11 S12
S=
S21 S22

6
luego
S = MN
donde
 
  1 1 −3
S11  3 4 2 
M= =  4

S21 5 1 
−2 −3 −5
 
  1 0 0 9 −3
N= E3 −1
S11 S12 = 0 1 0 −7 6 
0 0 1 0 0

Se tiene pues que


−1 −1 T
S+ = N T N N T MT M M
 86 81

1265 1265
0  
 81 91  14
− 19 5
 1265 1265 0  − 23 3 3
7 3
= 90 0 1  

6
31
6
− 11
2
− 43 
 4
0  − 1
− 1 1
0
55 55 2 2 2
228 303
0
 1265109 1265 757 313 106

− 1518 − 7590 2530 3795
 − 35 − 257 133 41 
 1518 7590 2530 3795 
= −16
1
2
−2 1 1
2
0 

 − − 165109 41 29 
33 55 165
39 243 141 24
506 2530
− 2530
− 1265

Debemos ahora intercambiar la 3 y la 4 filas:


 109 757 313 106

− 1518 − 7590 2530 3795
 − 35 − 257 133 41 
 1518 7590 2530 3795 
A =
+
 − 16
33
− 109
165
41
55
29
165


 −1 − 12 1
0 
2 2
39 243 141 24
506 2530
− 2530 − 1265
 
−545 −757 939 212
 −175 −257 399 82 
1  


= −3680 −5014 5658 1334
7590 



−3795 −3795 3795 0
585 729 −423 −144

Finalmente vamos a comprobar la respuesta:

7
 
  −545 −757 939 212  
1 1 2 −3 3   1 1 2 −3 3
 3 −175 −257 399 82
 4 −1 2 15 
 1 
 
 3 4 −1 2 15 
=
−3680 −5014 5658 1334
 4 5 1 1 18  7590 


 4 5 1 1 18 
−3795 −3795 3795 0
−2 −3 3 −5 −12 −2 −3 3 −5 −12
585 729 −423 −144
 
1 1 2 −3 3
 3 4 −1 2 15 
 
 4 5 1 1 18 
−2 −3 3 −5 −12
Ejemplo 4. Si B ∈ Mmk (R) y rank (B) = k, entonces
−1
B+ = BT B BT

De igual manera, si C ∈ Mkn (R) y rank (C) = k, entonces


−1
C + = C T CC T
−1 T −1 T −1 T
En efecto, B = BE y por lo tanto B + = E T EE T B B B = BT B B .
 −1  −1  −1
También, C = EC, luego C + = C T CC T ET E E T = C T CC T .
De lo anterior se tiene que
A+ = C + B + .

8
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.3. Ecuaciones diferenciales

En esta lección mostramos algunas aplicaciones del álgebra lineal a las ecuaciones difer-
enciales ordinarias con coeficientes constantes y a los sistemas de ecuaciones diferenciales
lineales de primer orden.
a. Ecuaciones diferenciales ordinarias con coeficientes constantes.
Sea V = C ∞ (a, b) el espacio de las funciones de (a, b) en R cuyas derivadas de cualquier
orden son continuas. Consideremos el operador lineal de derivación

D : V → V.

Sea p(x) = a0 + a1 x + · · · + an−1 xn−1 + xn un polinomio con coeficientes reales el cual se


puede factorizar completamente en R en la forma

p(x) = (x − α1 )r1 · · · (x − αk )rk ,

donde αi ∈ R, 1 ≤ ri ≤ n , 1 ≤ i ≤ k, 1 ≤ k ≤ n y sea

p(D) = a0 Iv + a1 D + · · · + an−1 Dn−1 + Dn = (D − α1 IV )r1 · · · (D − αk IV )rk

la transformación polinomial correspondiente. El núcleo de p(D) se conoce como el espacio


solución de la ecuación diferencial ordinaria homogenea

a0 y + a1 y (1) + · · · + an−1 y (n−1) + y (n) = 0, (1)

donde y (k) denota la derivada de orden k de la función y = f (x) ∈ V . Puesto que


W = ker(p(D)) es D-invariante, entonces podemos redefinir D como una transformación
de W en W :
D : W → W,
de tal forma que p(x) se anula en este nuevo operador D. Queremos demostrar que la
dimensión del espacio W es n. Según anotamos después de la demostración del teorema de
descomposición irreducible, las partes a) y b) de dicho teorema son válidas para espacios
de dimensión infinita y para polinomios que se anulen en la transformación. Por lo tanto,
el espacio W se descompone en la forma

W = W1 ⊕ · · · ⊕ Wk ,

donde Wi = N [(D − αi IW )ri ] , 1 ≤ i ≤ k. Visto de esta manera, cada solución y = f (x)


de la ecuación diferencial (1) se puede expresar de manera única en la forma

f (x) = f1 (x) + · · · + fk (x),

1
donde fi (x) ∈ Wi , 1 ≤ i ≤ k. Mejor an, reuniendo bases de W1 , . . . , Wk obtenemos una
base de W.
El problema entonces se reduce a encontrar el espacio solución de ecuaciones diferenciales
de la forma
(D − αI)r y = 0 (2).
Mediante inducción sobre r se puede probar fcilmente que

(D − αI)r y = 0 ⇔ Dr (e−αx y) = 0.

En efecto, para r = 1 se tiene que si (D − αI)y = 0 , entonces

dy
= αy ⇒
dx
dy
= αdx ⇒
y
Z Z
dy
= αdx ⇒
y
ln (y) = αx + c ⇒
eln(y) = eαx+c ⇒
y = beαx , b ∈ R ⇒
d (e−αx y) d (b)
= =0
dx dx
Es decir, D(e−αx y) = 0.
Recı́procamente, si D(e−αx y) = 0, entonces

e−αx Dy − yαe−αx = 0 ⇒
Dy − yα = 0 ⇒
(D − αI) y = 0

Supongamos que (2) es cierta para r y sea (D−αI)r+1 y = 0, entonces (D−αI)r ((D − αI) y) =
0; sea z = (D − αI) y, entonces (D −αI)r z = 0, y por inducción se tiene que Dr (e−αx z) =
0. Por lo tanto, Dr (e−αx ((D − αI) y)) = 0, es decir, Dr (e−αx Dy − αe−αx y) = 0. Puesto
que Dr es un operador lineal entonces se tiene que Dr (e−αx Dy) − αDr (e−αx y) = 0. Pero
notemos que
    
Dr+1 e−αx y = Dr D e−αx y = Dr e−αx Dy − αye−αx = Dr e−αx Dy −αDr ye−αx ,

es decir, que Dr+1 (e−αx y) = 0.


Recı́procamente, supongamos que Dr+1 (e−αx y) = 0, entonces como acabamos de ver se
tiene que Dr (e−αx Dy) − αDr (ye−αx ) = 0, es decir, Dr (e−αx Dy − αye−αx ) = 0, lo cual

2
significa que Dr (e−αx ((D − αI) y)) = 0, o sea que Dr (e−αx z) = 0 con z = (D − αI) y,
por inducción entonces se tiene que (D − αI)r z = 0, es decir, (D − αI)r (D − αI) y = 0,
por lo tanto, (D − αI)r+1 y = 0.
También, mediante inducción sobre r se demuestra que

Dr y = 0 ⇔ y = b0 + b1 x + · · · + br−1 xr−1 .

En consecuencia, el aspecto general de una solución de la ecuación (2) es

y = f (x) = eαx (b0 + b1 x + · · · + br−1 xr−1 ),

es decir, el espacio solución de (2) es la envolvente lineal del conjunto de vectores

{eαx , xeαx , . . . , xr−1 eαx },

los cuales son L I.


Aplicando estas conclusiones a los espacios Wi se tiene que dim(Wi ) = ri y

{eαi x , xeαi x , . . . , xri −1 eαi x }

es una base para Wi . Por lo tanto, dim(W ) = r1 + · · · + rk = n y además

{eα1 x , xeα1 x , . . . , xr1 −1 eα1 x , . . . , eαk x , xeαk x , . . . , xrk −1 eαk x }

es una base de W .
Ejemplo 1. (a) Calcular la solución general de la ecuación diferencial

y 000 − 2y 00 − 3y 0 = 0

El polinomio asociado a esta ecuación es

x3 − 2x2 − 3x

cuya factorización completa es


x (x + 1) (x − 3)
Por lo tanto, la solución general del la ecuación diferencial es

y = c1 + c2 e−x + c3 e3x .

(b) Calcular la solución general de la ecuación diferencial

y 0000 + 4y 000 + 6y 00 + 4y 0 + y = 0

El polinomio asociado a esta ecuación es

x4 + 4x3 + 6x2 + 4x + 1

3
cuya factorización completa es
(x + 1)4
Por lo tanto, la solución general de la ecuación diferencial dada es

c1 e−x + c2 xe−x + c3 x2 e−x + c4 x3 e−x .

b. Sistemas diagonalizables de ecuaciones diferenciales lineales de primer or-


den.
Consideremos ahora sistemas de ecuaciones diferenciales de tipo especial. Sean y1 , ..., yn
funciones diferenciables en un intervalo real (a, b) , A ∈ Mn (R) una matriz real de orden
n ≥ 1 y sea B ∈ Mn1 (R) una matriz columna real.
El sistema
dY
= AY definido por
 dy dx   
dx
1
a11 · · · a1n y1
 ..    .. 
 .  = · ·· ··· ···  .  (3)
dyn an1 · · · ann yn
dx

se denomina sistema homogeneo de ecuaciones diferenciales lineales de primer orden.


Notemos que el conjunto solución V de (3) es un subespacio vectorial de C(a, b) ⊕ · · · ⊕
C(a, b), en efecto, V no es vacı́o ya que el arreglo nulo 0 = (0, ..., 0) de funciones nulas
satisface el sistema homogeneo. De otra parte, si Y, U son soluciones del sistema homo-
geneo, entonces claramente el arreglo suma Y + U es nuevamente una solución. En la
misma forma si a es un real entonces a.Y ∈ V .
Un sistema homogeneo se dice diagonalizable si la matriz A es diagonalizable. Sea
dY
dx
= AY un sistema diagonalizable tal que C −1 AC = D = diag (d1 , ..., dn ). Entonces la
solución general del sistema homogeneo es
   
y1 c1 ed1 x
   
Y =  ...  = C  ..
. 
yn cn edn x

donde c1 , ..., cn son constantes reales.


En efecto, El sistema dY dx
= AY se puede escribir en la forma C −1 dY
dx
= DC −1 Y =
D (C −1 Y ), pero como C −1 tiene entradas constantes entonces C −1 dY
dx
d
= dx (C −1 Y ) =
dW
D (C −1 Y ). Hacemos el cambio W = C −1 Y y resulta el sistema dx = DW . Puesto que
D es diagonal se obtiene el sistema
 dw    
dx
1
d1 · · · 0 w 1
 ..    . 
 .  = · · · · · · · · ·   .. 
dwn 0 · · · dn wn
dx

4
el cual tiene solución    
w1 c1 ed1 x
 ..   .. 
 . = . 
dn x
wn cn e
Teniendo en cuenta que Y = CW , la afirmación está probada.
Ejemplo 2. Resolver el siguiente sistema de ecuaciones diferenciales:
dy1
= y2
dt
dy2
= y3
dt
dy3
= −6y1 − 11y2 − 6y3
dt
donde adicionalmente se deben cumplir las condiciones iniciales
y1 (0) = 1, y2 (0) = 0, y3 (0) = 0
Solución. La versión matricial de este sistema es
 dy1    
0 1 0 y1
dY dt
=  dydt2  =  0 0 1   y2  = AY
dt dy3
dt
−6 −11 −6 y3

Calculamos el polinomio mı́nimo de A : x3 + 6x2 + 11x + 6 = (x + 3) (x + 2) (x + 1), esto


muestra que A es diagonalizable, y la matriz diagonalizante C es la matriz de vectores
propios:
     
 1   1   1 
vectores propios :  −1  ↔ −1,  −2  ↔ −2,  −3  ↔ −3
     
1 4 9
 
1 1 1
C =  −1 −2 −3 
1 4 9
La solución general del sistema dado es entonces
    
y1 1 1 1 c1 e−t
 
Y =  ...  =  −1 −2 −3   c2 e−2t 
yn 1 4 9 c3 e−3t
y1 = c1 e−t + c2 e−2t + c3 e−3t
y2 = −c1 e−t − 2c2 e−2t − 3c3 e−3t
y3 = c1 e−t + 4c2 e−2t + 9c3 e−3t

5
Por las condiciones iniciales adicionales se debe tener que

1 = c1 + c2 + c3
0 = −c1 − 2c2 − 3c3
0 = c1 + 4c2 + 9c3

cuya solución es h1 = 3, h2 = −3, h3 = 1. Por lo tanto, la solcuión del sistema de


ecuaciones diferenciales es:

y1 = 3e−t − 3e−2t + e−3t


y2 = −3e−t + 6h2 e−2t − 3e−3t
y3 = 3e−t − 12e−2t + 9e−3t .

d. Sistemas de Jordan de ecuaciones diferenciales lineales de primer orden.


Un sistema homogeneo se dice de Jordan si la matriz A es un bloque elemental de Jordan.
Sea dY
dx
= AY un sistema de Jordan de la forma
 
a 0 ··· 0 0
 dy   
1  1 a ··· 0 0  y1
dx  
 ..   ...  .. 
 .  =  ··· 1 ··· 0  .  (4)
 . 
dyn  0 ··· .. a 0  yn
dx
0 0 ··· 1 a

Entonces, la solución general del sistema es


 
c1 k−1 c2 k−2
yk = x + x + · · · + ck−1 x + ck eax , k = 1, 2, ..., n (5)
(k − 1)! (k − 2)!

donde c1 , ..., cn son constantes reales arbitrarias.


En efecto, la primera ecuación en (4) es dy dx
1
= ay1 , luego

y1 = ceax .
dy2
La segunda ecuación es dx
= y1 + ay2 , pero consideremos

d (e−ax y2 ) dy2
= −ay2 e−ax + e−ax
dx dx
−ax −ax
= −ay2 e +e (y1 + ay2 )
−ax −ax
= −ay2 e +e (ceax + ay2 )
= −ay2 e−ax + c + ay2 e−ax
= c.

6
Esto implica que e−ax y2 es de la forma e−ax y2 = c1 x + c2 , de donde
y2 = (c1 x + c2 ) eax .
dy3
Veamos un paso mas: dx
= y2 + ay3 y consideremos la derivada de e−ax y3 :
dy3
−ay3 e−ax + e−ax = −ay3 e−ax + e−ax (y2 + ay3 )
dx
= e−ax y2 = e−ax (c1 x + c2 ) eax
= c1 x + c2 ,
c1 2
por tanto e−ax y3 = 2
x + c2 x + c3 , es decir,
c 
1 2
y3 = x + c2 x + c3 eax .
2
Continuando de esta forma obtenemos la fórmula (5).
Ejemplo 3. Resolver el siguiente sistema de ecuaciones diferenciales:
dy1
= 2y3
dt
dy2
= y1 + 2y4
dt
dy3
= 4y4
dt
dy4
= y3
dt
donde adicionalmente se deben cumplir las condiciones iniciales
y1 (0) = 1, y2 (0) = 0, y3 (0) = 2, y4 (0) = 1
Solución. La forma matricial del sistema es
 dy1    
dt 0 0 2 0 y1
dY  dy2     
= dt 
dy3  = 
 1 0 0 2   y2  = AY
dt  0 0 0 4   y3 
dt
dy4 0 0 1 0 y4
dt

Calculamos el polinomio mı́nimo de A: x4 − 4x2 = x2 (x − 2) (x + 2). El sistema de


ecuaciones no es diagonalizable. Calculemos entonces la forma de Jordan de A, se tienen
entonces 3 bloques de Jordan pertenecientes a los valores propios 0, 2, −2. Caculemos los
espacios propios:
     

 0  
 2   
 2 
       
 1   −2   2 
vectores propios:   ↔ 0,  ↔ −2,   ↔ 2

 0  
 −2   
 2  
     
0 1 1

7
Cada bloque tiene una sola celda elemental de Jordan, y para el valor 0 la celda es de
tamaño igual a 2. La matriz J de Jordan es entonces
 
0 0 0 0
 1 0 0 0 
J = 0 0 2 0 

0 0 0 −2

Existe entonces una matriz invertible C tal que C −1 AC = J, por lo tanto, A = CJC −1 con
d(C −1 Y )
lo cual dY
dt
= AY = CJC −1
Y , luego C −1 dY
dt
= J (C −1
Y ), es decir, dt
= J (C −1 Y ).
Haciendo el cambio
Z = C −1 Y
se tiene que
dZ
= JZ
dt
y para este sistema de ecuaciones diferenciales la solución se puede calcular usando (5)
en cada celda de Jordan. Una vez se tengan las soluciones Z entonces podemos finalizar
el ejercicio mediante la identidad
Y = CZ.
Por lo tanto, debemos calcular la matriz C: recordemos que

R4 = W 1 ⊕ W 2 ⊕ W 3

donde

W1 = ker A2
W2 = ker (A − 2E) =< (2, 2, 2, 1) >
W3 = ker (A + 2E) =< (2, −2, −2, 1) >

Para W1 necesitamos la descomposición cı́clica:


 2  
0 0 2 0 0 0 0 8
 1 0 0 2   0 0 4 0 
  = 
 0 0 0 4   0 0 4 0 
0 0 1 0 0 0 0 4
   
1 0
 0   
W1 = ker(A2 ) =<    1 >
 0 , 0 
0 0
Pero en este caso la descomposión cı́clica de W1 tiene un solo sumando ya que el operador
N1 = A : W1 → W1 es tal que dim (ker(N1 )) = dim (E (0)) = 1. Por lo tanto, en este caso

8
necesitamos un vector w1 ∈ W1 tal que [w1 ] = W1 , se puede entonces tomar w1 = e1 y de
esta forma
W1 = [e1 ] =< e1 , Ae1 >=< (1, 0, 0, 0) , (0, 1, 0, 0) >
Se tiene entonces que  
1 0 2 2
 0 1 2 −2 
C=
 0

0 2 −2 
0 0 1 1
Podemos ya calcular la solución:
dZ
= JZ ⇒
dt  dz1    
dt 0 0 0 0 z1
dZ  dz2   1 0  
0 0   z2 
=

dt =
  0

dt dz3
dt
0 2 0   z3 
dz4
dt
0 0 0 −2 z4
 
c1 c2
Para cada celda aplicamos (5): zk = (k−1)!
tk−1 + (k−2)!
tk−2 + · · · + ck−1 t + ck eat
 
c1 1−1
z1 = t e0t = c1
(1 − 1)!
 
c1 2−1 c2 2−2
z2 = t + t e0t = c1 t + c2
(2 − 1)! (2 − 2)!
 
c1
z3 = t1−1 e2t = c3 e2t
(1 − 1)!
 
c1
z4 = t1−1
e−2t = c4 e−2t
(1 − 1)!

La solución general viene entonces dada por


    
y1 1 0 2 2 c1
 y2   0 1 2 −2   c1 t + c2 
    
 y3  =  0 0 2 −2   c3 e2t 
y4 0 0 1 1 c4 e−2t
 
c1 + 2c3 e2t + 2c4 e−2t
 c2 + tc1 + 2c3 e2t − 2c4 e−2t 
= 


2c3 e2t − 2c4 e−2t
2t −2t
c3 e + c4 e

9
Finalmente, debemos considerar las condiciones iniciales

1 = c1 + 2c3 + 2c4
0 = c2 + 2c3 − 2c4
2 = 2c3 − 2c4
1 = c3 + c4

cuya solución es c1 = −1, c2 = −2, c3 = 1, c4 = 0, por lo tanto

y1 = −1 + 2e2t
y2 = −2 − t + 2e2t
y3 = 2e2t
y4 = e2t .

10
Álgebra Lineal
Capítulo 11. Tópicos Especiales y Aplicaciones
11.4. Producto tensorial de espacios vectoriales y matrices

En esta lección de…nimos el producto tensorial de espacios vectoriales, transformaciones


lineales y matrices . Dos preliminares son necesarios para esta de…nición.
a. Espacio cociente.
De…nición 1. Sea V un K-espacio y sea W un subespacio de V , se de…ne en V la relación
de equivalencia inducida por W en la siguiente forma

v1 v2 , v1 v2 2 W
Esta relación particiona al conjunto V en clases de equivalencia denotadas por v, es decir,

v = fu 2 V j u vg = v + W = fv + w j w 2 W g.
El conjunto de estas clases de equivalencia se denota por V =W , es decir,

V =W = fv j v 2 V g:
Notemos que

v1 = v2 , v1 v2 2 W
v = 0 , v 2 W.

Este conjunto cociente tiene estructura de K-espacio vectorial.


Proposición 1. V =W es un espacio vectorial sobre K respecto de las siguientes opera-
ciones:

v + v 0 = v + v 0 , v; v 0 2 V
a:v = a:v, a 2 K:

Veamos algunas propiedades de esta construcción.


Proposición 2. (a) La función canónica

J : V ! V =W
v 7! v

es una transformación lineal.


(b) Si V es de dimensión …nita, entonces

1
dim (V =W ) = dim(V ) dim(W ):
En forma más precisa, si X 0 = fx1 ; : : : ; xm g es una base de W y X = fx1 ; : : : ; xm ; xm+1 ; : : : ; xn g
es una base de V , entonces X 00 = fxm+1 ; : : : ; xn g es una base de V =W .
(c) Sea T : V ! V una transformación lineal y sea W un subespacio invariante de V .
Sean X 00 ; X 0 ; X como en el literal anterior. Entonces, la matriz de T en la base X es de
la forma

mX 0 (T 0 )
mX (T ) =
mX 00 T
donde T 0 es la restricción de T a W , y T : V =W ! V =W es la transformación inducida
de…nida por

T (v) = T (v)
b. Propiedad universal de las bases y K (X)
El Teorema 2 de la Lección 2 del Capítulo 2 establece la propiedad universal de una base
X de un espacio vectorial V en el sentido que cada función t de X en un espacio W
se extiende en forma única a una transformación lineal T : V ! W , de tal forma que
T (x) = t(x), para cada x 2 X. De otra parte, recordemos que si K es un cuerpo y X
es un conjunto no vacío cualquiera, entonces K (X) denota el espacio vectorial con base
canónica X = fex gx2X , donde ex = (kz )z2X y kz = 0 si z 6= x y kx = 1.
Podemos ya emprender la construcción del producto tensorial de dos espacios vectoriales.
c. Producto tensorial de dos espacios vectoriales.
Sean U; V dos espacios vectoriales sobre un mismo cuerpo K, sea X el producto cartesiano
de los conjuntos U y V , es decir, X = U V . Notemos que en el conjunto X hemos
olvidado las estructuras de K-espacio que tienen U y V , a estos últimos los estamos
tomando simplemente como conjuntos no vacíos. Consideremos entonces el K-espacio
vectorial K (X) con base canónica Z = fex gx2X , donde ex es un arreglo de K (X) de…nido
por ex = (kz )z2X y kz = 0 si z 6= x y kx = 1. Notemos que los elementos de X son
parejas, es decir, un elemento x 2 X es de la forma x = (u; v). En otras palabras, el
conjunto de índices X es un producto cartesiano de dos conjuntos, y ex = e(u;v) denota
el arreglo que tiene solamente una entrada no nula, la ubicada en la "posición (u; v)", en
donde colocamos el escalar 1 2 K. Notemos entonces que un elemento de K (X) es una
combinación lineal …nita en la forma

r1 e(u1 ;v1 ) + + rt e(ut ;vt ) :

Observemos que el elemento anterior es un arreglo …nito que tiene ubicados en la posición
(u1 ; v1 ) al escalar r1 , en la posición (u2 ; v2 ) al escalar r2 ,..., en la posición (ut ; vt ) al escalar
rt y en todas las demás posiciones al escalar cero.

2
Esta notación puede ser simpli…carla de la siguiente manera: representemos el elemento
e(u;v) de la base canónica Z simplemente por (u; v) de tal forma que veamos a U V como
la base canónica de K (X) y a las parejas (u; v) como los elementos de esta base canónica.
Así pues, podemos pensar en K (U V ) y considerar que la base canónica es U V . Con
esta notación podemos decir que un elemento de K (U V ) es una combinación lineal …nita
de la forma

r1 (u1 ; v1 ) + + rt (ut ; vt )
donde r1 ; : : : ; rt 2 K.
Sea S el subespacio de K (U V)
generado por todos los elementos de la siguiente forma

(u + u0 ; v) (u; v) (u0 ; v)
(u; v + v 0 ) (u; v) (u; v 0 ) (1)
r (u; v) (ru; v)
r (u; v) (u; rv)

y sea U V el K-espacio vectorial cociente correspondiente, es decir,

U V = K (U V)
=S
Denotemos por u v a la clase de equivalencia (u; v) del cociente U V = K (U V ) =S.
Entonces en U V se tienen las siguientes propiedades fundamentales.
Proposición 3. Para cualesquiera elementos u; u0 2 U; v; v 0 2 V y r 2 K se tiene que
(i) (u + u0 ) v = u v + u0 v
(ii) u (v + v 0 ) = u v + u v 0
(iii) r (u v) = ru v
(iv) r (u v) = u rv
Corolario 1. La función canónica

t:U V !U V
(u; v) 7! u v

es bilineal en cada argumento.


De…nición 2. El espacio vectorial U V se denomina el producto tensorial de U con V .
Observemos como es un elemento cualquiera de U V : sea z un elemento de U V , con
z 2 K (U V ) , entonces z es de la forma z = r1 (u1 ; v1 ) + + rt (ut ; vt ), por lo tanto en el
cociente U V = K (U V ) =S se tiene que

z = r1 u 1 v1 + + rt ut vt

3
pero como r1 u1 ; : : : ; rt ut 2 U , entonces podemos siempre asumir que z es de la forma

u1 v1 + + ut vt :
El producto tensorial tiene la siguiente propiedad universal.
Teorema 1. Sea W un K-espacio y sea f : U V ! U V una funcion bilineal.
Entonces, existe una única transformación lineal F : U V ! W tal que F t = f :

U V t
! U V

f& #F

W
La tranformación lineal F viene dada por

F (u v) = f (u; v) .
Demostración. La función f de…nida sobre la base canónica U V de K (U V ) induce una
única transformación lineal F 0 : K (U V ) ! W de…nida por F 0 (u; v) = f (u; v). De…nimos
entonces la función F (z) = F 0 (z), donde z 2 K (U V ) . En particular, si z = (u; v) es un
básico, entonces F (u v) = F 0 (u; v) = f (u; v). Debemos ver que F está bien de…nida.
Sean z1 ; z2 2 K (U V ) tales que z1 = z2 , entonces z1 z2 2 S y por lo tanto z1 z2 es una K-
combinación lineal de elementos como en (1). Como F 0 es K-lineal, basta considerar cada
una de las cuatro relaciones de (1) por separado. Si z1 z2 = (u + u0 ; v) (u; v) (u0 ; v),
entonces

F 0 (z1 z2 ) = F 0 [(u + u0 ; v) (u; v) (u0 ; v)]


= f (u + u0 ; v) f (u; v) f (u0 ; v)
= 0, ya que f es bilineal.

De igual manera se consideran los otros tres casos de (1). Esto muestra que F 0 (z1 z2 ) =
0, es decir, F 0 (z1 ) = F 0 (z2 ), y F está bien de…nida.
De otra parte, como F 0 es K-lineal, entonces F es una transformación lineal. Además,
F t (u; v) = F (u v) = f (u; v), esto muestra que F t = f .
Para terminar la prueba, sea G otra transformación lineal G : U V ! W tal que
G t = f , entonces como G es una transformación lineal basta considerar el caso u v.
Así pues, G t (u; v) = f (u; v), es decir, G (u v) = f (u; v) = F (u v).
Presentamos a continuación otras propiedades interesantes del producto tensorial.
Teorema 2. Sean U y V dos espacios vectoriales de dimensión …nita n y m con bases
X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectivamente. Entonces, X Y = fxi xj j
1 i n; 1 j mg es una base de U V , y en consecuencia, dimK (U V ) = nm.

4
Demostración. Consideremos el K-espacio vectorial canónico K nm de dimensión nm;
notemos que K nm está conformado por arreglos …nitos de nm entradas de K pegando
en forma sucesiva m arreglos de tamaño n. La base canónica de K nm se puede entonces
representar por Z = fe1;1 ; : : : ; e1;m ; e2;1 ; : : : ; e2;m ; : : : ; en;1 ; : : : ; en;m g, donde el vector ei;j
tiene ubicado al 1 en la entrada (i 1) m + j, y las demás entradas son nulas.
De…nimos entonces la transformación lineal

T : K nm ! K (U V )
ei;j 7! xi yj , 1 i n; 1 j m.

De otra parte, consideremos la función

f : U V ! K nm
f (u; v) = a1 b1 e11 + + a1 bm e1m
+ a2 b1 e21 + + a2 bm e2m
..
.
+ an b1 en1 + + an bm enm

donde u = a1 :x1 + + an :xn y v = b1 :y1 + + bm :ym . Es facil ver que f es bilineal.


Por el Teorema 1 existe una transformación lineal F : U V ! K nm de…nida por
F (u v) = f (u; v) = a1 b1 e11 + +a1 bm e1m + +an b1 en1 + +an bm enm . Pero notemos
que F T = IK nm y también T F = IU V . Esto demuestra que T es un isomor…smo de
espacios vectoriales, con lo cual X Y es una base de U V y dimK (U V ) = nm.
d. Producto tensorial de transformaciones lineales y matrices
Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales donde X = fx1 ; : : : ; xn g es
una base de U , X 0 = fx01 ; : : : ; x0p g es una base de U 0 , Y = fy1 ; : : : ; ym g una base de V y
Y 0 = fy10 ; : : : ; yq0 g una base de V 0 . Entonces la función

T F : U V ! U0 V 0
(u; v) 7! T (u) F (V )

es bilineal y por lo tanto induce una transformación lineal

T F : U V ! U0 V 0
u v!
7 T (u) F (V )

La transformación T F se conoce como el producto tensorial de T con F . Se tiene


entonces la siguiente propiedad.

5
Teorema 3. Con la notación anterior se tiene que
2 3
a11 B a1n B
6 .. .. 7
mX Y;X 0 Y 0 (T F ) = 4 . . 5
ap1 B apn B
donde A = [aij ] = mX;X 0 (T ) y B = [bij ] = mY;Y 0 (F ). La matriz de T F se conoce como
el producto tensorial de las matrices A y B y se denota por A B, es decir,
2 3
a11 B a1n B
6 .. 7
A B = 4 ... . 5
ap1 B apn B
Notemos que A B es de orden pq nm.
Demostración. Basta aplicar T F a los vectores de la base X Y y expresar los resultados
a través de la base X 0 Y 0 .
Ejemplo 1. Sean T : R3 ! R2 y F : R2 ! R4 las transformaciones lineales de…nidas por

T (x; y; z) = (2x + 3y; 3x + 4z)


F (x; y) = (x; x + y; y; y x)
Calcular la matriz de T F en las bases canónicas.
Solución. Basta calcular las matrices A y B de las transformaciones T y F en las bases
canónicas:

2 3 0
A = m (T ) =
3 0 4
2 3
1 0
6 1 1 7
B = m (F ) = 6
4
7
0 1 5
1 1
2B 3B 0B
m (T F) = A B=
3B 0B 4B
2 3
2 0 3 0 0 0
6 2 2 3 3 0 0 7
6 7
6 0 2 0 3 0 0 7
6 7
6 2 2 3 3 0 0 7
m (T F) = 6
6
7
7
6 3 0 0 0 4 0 7
6 3 3 0 0 4 4 7
6 7
4 0 3 0 0 0 4 5
3 3 0 0 4 4

6
e. Otras propiedades del prodcuto tensorial
En adelante consideraremos que los espacios vectoriales son de dimensión …nita.
(i) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales sobreyectivas. Entonces,
T F es sobreyectiva. En efecto, si u0 v 0 2 U 0 V 0 , entonces existe u 2 U y v 2 V tales
que T (u) = u0 ; F (v) = v 0 . Por lo tanto, (T F ) (u v) = T (u) F (v) = u0 v 0 .
(ii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales, entonces ker (T F ) =
ker (T ) V + U ker (F ). Veamos la demostración: denotemos por W = ker (T ) V +
U ker (F ), este es un subespacio de U V . Es claro que W ker (T F ), probemos
entonces la inclusión recíproca. Para esto consideremos el espacio cociente (U V ) =W ,
y la transfomración lineal canónica

J :U V ! (U V ) =W
z 7! z

Para el producto tensorial Im (T ) Im (F ) consideremos el siguiente diagrama

Im (T ) Im (F ) t0
! Im (T ) Im (F )

f& #H

(U V ) =W
donde f (T (u) ; F (v)) = J (u v). Debemos ver que f está bien de…nida. Sea T (u1 ) =
T (u) y F (v1 ) = F (v), por lo tanto, u1 u = u2 2 ker (T ) y v1 v = v2 2 ker (F ), luego

u1 v1 = (u + u2 ) (v + v2 )
= u v + u v 2 + u2 v + u2 v 2
= u v + (u v2 + u2 v + u2 v2 )

donde u v2 + u2 v + u2 v2 2 U ker (F ) + ker (T ) V = W , esto muestra que

u1 v1 u v2W
luego, J (u v) = J (u1 v1 ).
Notemos que f es bilineal, por lo tanto induce la transformación lineal H dada por

H (T (u) F (v)) = f (T (u) ; F (v)) = J (u v) )


H (T F ) = J

Sea entonces z 2 ker (T F ), entonces H (T F ) (z) = H (0) = 0 = J (z) = z, lo cual


indica que z 2 W .

7
(iii) Sean Sean T1 : U1 ! U2 ; T2 : U2 ! U3 y F1 : V1 ! V2 ; F2 : V2 ! V3 transformaciones
lineales, entonces

(T2 T1 ) (F2 F1 ) = (T2 F2 ) (T1 F1 ) .


En forma matricial,

A2 A1 B2 B1 = (A2 B2 ) (A1 B1 )
(iv) Si IU : U ! U es la idéntica de U e IV : V ! V , entonces

IU IV = IU V:

En forma matricial,

En Em = Enm :
(v) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales biyectivas, entonces
1 1 1
(T F) =T F :
Matricialmente,
1 1
(A B) =A B 1:
(vi) Sean T y F1 ; F2 transformaciones lineales compatibles para las operaciones indicadas,
entonces

T (F1 + F2 ) = T F1 + T F2 :
En forma matricial,

A (B1 + B2 ) = A B1 + A B2 :
En forma similar se tienen las distributivas por el lado derecho.
(vii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales y sea 2 K, entonces

( :T ) F =T ( :F ) = : (T F):
(viii) Sean A 2 Mn (K) y B 2 Mm (K), entonces

tr (A B) = tr (A) tr (B) ;
det (A B) = det (A)m det (B)n :

(ix) Sean A; C 2 Mn (K) y B; D 2 Mm (K), tales que A y C son similares y B y D son


similares, entonces

8
A B es similar a C D:
(x) Sean A 2 Mn (K), B 2 Mm (K), un valor propio de A con vector columna propio
u y un valor propio de B con vector columna propio v. Entonces, u v es un vector
propio de A B con valor propio .
(xi) Sean A 2 Mn (K), B 2 Mm (K) matrices diagonalizables, entonces A B es diago-
nalizable.
(xii) Sean U y V espacios con bases X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectiva-
mente. Entonces

U V = (U V)
Veamos la prueba de este isomor…smo.
Sean 2 U y 2 V , de…nimos entonces la función

f ; :U V !K
f ; (u; v) = (u) (v)

Notemos que f ; es bilineal, por lo tanto induce una única transformación lineal

F ; :U V !K
F ; (u v) = (u) (v)

Esto indica que F ; 2 (U V ) ; se de…ne entonces la función

fe : U V ! (U V)
( ; ) 7! F ;

Notemos que fe es bilineal, y por lo tanto induce una transformación lineal

Fe : U V ! (U V)
Fe ( )=F ; )
Fe ( ) (u v) = F ; (u v) = (u) (v)

Sean X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g las bases duales en U y V , respectivamente.


Entonces,

9
Fe xi yj (xr ys ) = xi (xr ) yj (ys )
= 1 si i = r y j = s
= 0, en otro caso

Sabemos que fxi yj j 1 i n; 1 j mg es una base de U V y por lo anterior,


Fe xi yj = (xi yj ) ; 1 i n; 1 j m . Es decir, Fe es una transformación lineal
que envía una base en una base, por lo tanto, Fe es biyectiva.
f. Una apliación del producto tensorial de matrices
Sean A; B y C matrices complejas de tamaños n n; m m y n m respectivamente.
Supóngase que para cada valor propio de A y cada valor propio de B se cumple que
+ 6= 0. Demostrar entonces que la ecuación matricial AX + XB = C tiene solución
única.
Solución. Consideremos el C-espacio de matrices rectangulares Mnm (C), de…namos la
función T por

T : Mnm (C) ! Mnm (C)


X 7! AX + XB

Notemos que T es una transformación lineal. Para resolver el problema mostraremos


que T es biyectiva, con esto, dada C 2 Mnm (C) existe una única X 2 Mnm (C) tal que
AX + XB = C.
La prueba de la biyectividad de T la haremos a través de su matriz en la base canónica B =
fE11 ; ::::E1m ; :::; En1 ; :::; Enm g de Mnm (C), es decir, probaremos que mB (T ) es invertible.
Notemos entonces que
2 3 2 3
a11 Em a1n Em BT 0
6 .. .. .. 7 6 .. ... .. 7
mB (T ) = 4 . . . 5+4 . . 5
an1 Em ann Em 0 BT
donde Em es la idéntica de orden m y B T es la transpuesta de B. Pero,

2 3
a11 Em a1n Em
6 .. .. .. 7
4 . . . 5 = A Em
an1 Em ann Em
2 3
BT 0
6 .. .. .. 7 = E
4 . . . 5 n BT
0 BT

10
De esta forma

mB (T ) = A Em + En BT
Puesto que C es algebraicamente cerrado existen matrices invertibles F y G de tamaños
n n y m m, respectivamente, tales que F 1 AF = S1 y G 1 B T G = S2 son matrices
triangulares superiores. Notemos que en la diagonal de S1 y S2 están localizados los
valores propios de A y de B T , respectivamente (notemos que los valores propios de
B T son los mismos de B). Ahora notemos que

1 1
S1 Em = F AF Em = F Em (A Em ) (F Em )
En S2 = E n G 1 B T G = En G 1
En B T (En G)
donde además

1 1
F Em = (F Em )
1 1
En G = (En G)
De esta forma se tiene que

1
S1 Em = (F Em ) (A Em ) (F Em )
1 T
En S2 = (En G) En B (En G)
1
Tenemos entonces que mB (T ) = A Em +En B T , de donde (F Em ) mB (T ) (F Em ) =
(F Em ) 1 (A Em ) (F Em )
+ (F Em ) 1 En B T (F Em ) =
(S1 Em ) + (F 1 Em ) En B T (F Em ) =
(S1 Em ) + En B T .
Ahora, (En G) 1 (F Em ) 1 mB (T ) (F Em ) (En G) =
(En G) 1 (S1 Em ) (En G) + (En G) 1 En B T (En G) =
(S1 Em ) + (En S2 ). En total,
1 1
(En G) (F Em ) mB (T ) (F Em ) (En G) = (S1 Em ) + (En S2 )
es decir,
1
(F G) mB (T ) (F G) = (S1 Em ) + (En S2 ) :
Notemos que la matriz (S1 Em ) + (En S2 ) es triangular superior y en su diagonal
están las sumas de la forma + , las cuales por hipótesis son no nulas, es decir, esta
matriz es invertible, o sea que, mB (T ) es también invertible, y la prueba ha terminado.

11
Álgebra Lineal
Capı́tulo 11. Tópicos Especiales y Aplicaciones
11.5. Matrices y formas positivas

En esta sección estudiamos matrices positivas, formas sesquilineales positivas, y formas


cuadráticas positivas.
a. Matrices complejas positivas.
Definición 1. Sea A ∈ Mn (C), se dice que A es positiva si

XAX ∗ > 0

para cada vector X = [x1 , . . . , xn ] ∈ Cn − 0, donde X ∗ = X T .


Ejemplo 1. La matriz  
2 i 0
A =  −i 4 2i 
0 −2i 8
es positiva. En efecto,
  
  2 i 0 a 1 − ib 1
a1 + ib1 a2 + ib2 a3 + ib3  −i 4 2i   a2 − ib2 
0 −2i 8 a3 − ib3
= 2a1 b2 − 2a2 b1 + 4a2 b3 − 4a3 b2 + 2a21 + 4a22 + 2b21 + 8a23 + 4b22 + 8b23
= (a1 + b2 )2 + (a2 − b1 )2 + (2a3 − b2 )2 + (a2 + 2b3 )2 + a21 + b21 + 2b22 + 2a22 + 4a23 + 4b23 > 0
 
para cada vector X = a1 + ib1 a2 + ib2 a3 + ib3 ∈ C3 − 0.
Otras caracterizaciones de las matrices complejas positivas son las siguientes.
Proposición 1. Sea A ∈ Mn (C), entonces las siguientes condiciones son equivalentes:
(a) A es positiva
(b) La relación
< X, Y >= XAY ∗
define un producto interno en Cn .
(c) A = A∗ y para el producto interno canónico en Cn se tiene que (X, XA) > 0 para
cada vector no nulo X de Cn .
(d) A = A∗ y los menores principales de A son positivos, es decir, todos los determinantes
de la forma  
a11 · · · a1k
 ..  , 1 ≤ k ≤ n
det  ... . 
ak1 · · · akk
son positivos.

1
Demostración. (a) ⇒ (b): sean X, Y, Z ∈ Cn , entonces
< X, Y + Z >= XA (Y + Z)∗
= XA (Y ∗ + Z ∗ )
= XAY ∗ + XAZ ∗
=< X, Y > + < X, Z >;
< λ.X, Y >= (λ.X) AY ∗ = λ. < X, Y >;
< X, X >= XAX ∗ > 0 para cada X no nulo de Cn .
Probemos que < Y, X >= < X, Y >. En efecto, sean X, Y ∈ Cn , entonces
< X + Y, X + Y >=< X + Y, X > + < X + Y, Y >
= (X + Y ) AX ∗ + (X + Y ) AY ∗
= XAX ∗ + Y AX ∗ + XAY ∗ + Y AY ∗
pero por hipótesis < Z, Z >∈ R para cada Z ∈ Cn , por lo tanto < X + Y, X + Y >
, XAX ∗ , Y AY ∗ ∈ R, luego Y AX ∗ + XAY ∗ =< Y, X > + < X, Y >∈ R. De igual
manera,
< X + iY, X + iY >=< X + iY, X > + < X + iY, iY >
= (X + iY ) AX ∗ + (X + iY ) A (iY )∗
= XAX ∗ + iY AX ∗ − iXAY ∗ + Y AY ∗ ∈ R
luego iY AX ∗ − iXAY ∗ = i < Y, X > −i < X, Y >∈ R. Por lo tanto,
< Y, X > + < X, Y >= < Y, X > + < X, Y > = < Y, X > + < X, Y >
i < Y, X > −i < X, Y >= i < Y, X > −i < X, Y > = −i< Y, X > + i< X, Y >.
Podemos multiplicar la segunda igualdad por i
− < Y, X > + < X, Y >= < Y, X > − < X, Y >
y sumarla a la primera
2 < X, Y >= 2< Y, X >
es decir
< X, Y >= < Y, X >.
Esto completa la prueba de que < X, Y > define un producto interno en Cn .
(b)⇒(c): Veamos primero que A es hermitiana, es decir, A = A∗ . Probemos que aij = aji
para cada 1 ≤ i, j ≤ n. Consideremos los vectores canónicos ei y ej de Cn , entonces
< ei , ej >= ei Ae∗j = aij
< ej , ei >= ej Ae∗i = aji ⇒
aij =< ei , ej >= < ej , ei > = aji .

2
Recordemos que el producto interno canónico en Cn viene dado por (X, Y ) = XY ∗ , luego

(X, XA) = X (XA)∗ = XA∗ X ∗ = XAX ∗ =< X, X > > 0, para X no nulo de Cn .

(c)⇒(d): solo hay que probar lo relativo a los menores principales de la matriz A. Para
comenzar probemos que det (A) > 0. Puesto que A es hermitiana, entonces A es diago-
nalizable, y los valores propios de A son reales. Sea Y un vector propio correspondiente al
valor propio λ, entonces AY = λ.Y , entonces (AY )∗ = (λ.Y )∗ , luego Y ∗ A∗ = λY ∗ = λY ∗ ,
de donde, (Y ∗ , Y ∗ A∗ ) = (Y ∗ , λY ∗ ) = λ (Y ∗ , Y ∗ ) = λ (Y ∗ , Y ∗ ) > 0, y como también
(Y ∗ , Y ∗ ) > 0, entonces λ > 0. Hemos probado que los valores propios son positivos.
En consecuencia, det (A) > 0. Ahora notemos que siendo A hermitiana, entonces cada
submatriz  
a11 · · · a1k
 ..  , 1 ≤ k ≤ n
Ak =  ... . 
ak1 · · · akk
es también hermitiana. Además (Xk , Xk Ak ) > 0 para cada vector no nulo Xk de Ck . En
efecto, sea Xk ∈ Ck un vector no nulo, completando con ceros construimos un vector no
nulo X de Cn , X = [Xk | 0], puesto que (X, XA) > 0, entonces
 
a11 · · · a1k · · · a1n
 .. .. .. 
  . . . 
 
x1 · · · xk 0 · · · 0  ak1 akk · · · akn =
 . .. .. 
 .. . . 
an1 ank · · · ann
 
x1 a11 + · · · + xk ak1 · · · x1 a1k + · · · + xk akk ∗ · · · ∗ = X0

luego el producto interno canónico de X con X 0 es positivo y coincide con (Xk , Xk Ak ).


Por lo probado antes, det (Ak ) > 0.
(d)⇒(a): Paso 1. Veamos que existe una matriz triangular superior P = [pij ] con pkk =
1, 1 ≤ k ≤ n, y para la cual se tiene que B =: AP es triangular inferior.
La existencia de P se puede plantear de la siguiente manera:

bik = ai1 p1k + · · · + aik−1 pk−1k + aik pkk + aik+1 pk+1k + · · · + ain pnk ⇒
bik = ai1 p1k + · · · + aik−1 pk−1k + aik para cada k > 1.

Como se quiere que B sea triangular inferior entonces también se debe tener que bik = 0
para k > i, entonces se debe cumplir que

ai1 p1k + · · · + aik−1 pk−1k + aik = 0 para k > i

3
es decir se tienen las siguientes relaciones

a11 p1k + · · · + a1k−1 pk−1k + a1k = 0


a21 p1k + · · · + a2k−1 pk−1k + a2k = 0
..
.
ak−11 p1k + · · · + ak−1k−1 pk−1k + ak−1k = 0

es decir el sistema
    
a11 · · · a1k−1 p1k −a1k
 .. ..   ..   .. 
 . .  .  =  . 
ak−11 · · · ak−1k−1 pk−1k −ak−1k

debe tener solución para cada k > 1. Pero esto está garantizado ya que det (Ak−1 ) > 0.
Luego la matriz P existe y AP es triangular inferior.
Paso 2. P ∗ es triangular inferior y P ∗ B = P ∗ AP es también triangular inferior. Sea D =:
P ∗ AP , entonces D∗ = P ∗ A∗ P = P ∗ AP ya que A es hermitiana. Siendo D hermitiana y
triangular inferior, entonces D = P ∗ B es necesariamente diagonal,
 
d1 0
 .. 
D= . .
0 dn

Paso 3. Consideremos las columnas B (1) , . . . , B (n) de B y las columnas A(1) , . . . , A(n) de
A; entonces

B (r) = A(1) p1r + · · · + A(r) prr + · · · + A(n) pnr


= A(r) + A(1) p1r + · · · + A(r−1) pr−1,r

De esto se obtiene que la columna r de la submatriz Bk es igual a la columna r de la


submatriz Ak + una combinación lineal de las restantes columnas de esta última matriz.
Para efectos del cálculo del determinante se tiene entonces que

det (Bk ) = det (Ak ) , 1 ≤ k ≤ n.

De igual forma, consideremos las filas de D y de B:

D(r) = p∗r1 B(1) + · · · + p∗rr B(r) + · · · + p∗rn B(n)


= B(r) + · · · + p∗rr−1 B(r−1)

4
De esto se obtiene que la fila r de la submatriz Dk es igual a la fila r de la submatriz
Bk + una combinación lineal de las restantes fila de esta última matriz. Para efectos del
cálculo del determinante se tiene entonces que

det (Dk ) = det (Bk ) , 1 ≤ k ≤ n.

En total se tiene que


det (Ak ) = det (Dk ) , 1 ≤ k ≤ n.
Pero det (Dk ) = d1 · · · dk = det (Ak ) > 0 para cada 1 ≤ k ≤ n, entonces todos los
elementos diagonales de D son positivos.
Se tiene entonces que D = P ∗ AP es diagonal con elementos positivos por la diagonal.
Esto implica que
Y ∗ DY =| y1 |2 d1 + · · · + | yn |2 dn > 0
para cada vector columna no nulo Y = (y1 , . . . , yn )T con entradas complejas.
Paso 4. Para terminar probemos que A es una matriz positiva. Recordemos que P es una
matriz triangular superior con pkk = 1, 1 ≤ k ≤ n, por lo tanto P es invertible. Sea X un
vector no nulo de Cn , entonces X ∗ es también un vector no nulo y existe Y ∈ Cn no nulo
tal que P Y = X ∗ , luego X = (P Y )∗ = Y ∗ P ∗ y de esta forma

Y ∗ DY = Y ∗ P ∗ AP Y > 0

es decir,
XAX ∗ > 0.
Otra caracterización de las matrices complejas positivas corresponde a la descomposición
de Cholesky.
Proposición 2. Sea A ∈ Mn (C). Entonces, A es positiva si y sólo si existe una matriz
invertible P ∈ Gln (C) tal que A = P ∗ P .
Demostración. ⇒) Si A es positiva entonces la relación

< X, Y >= XAY ∗

define un producto interno en Cn . Con este producto interno se puede construir una base
ortonormal en Cn , los vectores de esta base se pueden disponer en las columnas de una
matriz Q. De otra parte, notemos que A es la matriz de este producto interno en la base
canónica de Cn , por lo tanto las dos matrices están relacionadas por

QT AQ = E.
−1 −1 −1
Como Q es invertible, entonces A = QT Q . Definimos entonces P = Q , de
−1
tal forma que QT = P ∗ . Es decir, A = P ∗ P .
⇐) Supongamos que existe P invertible tal que A = P ∗ P , entonces para cada vector no
nulo X de Cn se tiene que P X ∗ es no nulo, luego

5
XAX ∗ = XP ∗ P X ∗ = (P X ∗ )∗ (P X ∗ ) > 0.
Las pruebas de las proposiciones anteriores muestran ciertas propiedades interesantes de
las matrices complejas positivas.
Proposición 3. Sea A ∈ Mn (C) una matriz positiva. Entonces,
(1) det (A) > 0
(2) A es invertible
(2) Los valores propios de A son reales positivos
(3) A es hermitinana y por lo tanto diagonalizable por medio de una matriz unitaria.
(4) A−1 es también positiva
(5) AT es también positiva
(6) Para cada 1 ≤ k ≤ n, Ak es también positiva.
b. Matrices reales positivas.
Las matrices reales positivas se definen en forma similar al caso complejo pero con la
siguiente modificación: en la Proposición 1 no es posible demostrar (a)⇒(b) ya que no
disponemos de un escalar i tal que su cuadrado sea nulo. Por lo tanto, debemos modificar
la definición de matriz real positiva de la siguiente manera.
Definición 2. Sea A ∈ Mn (R), se dice que A es positiva si A = AT y

XAX T > 0

para cada vector X = [x1 , . . . , xn ] ∈ Rn − 0.


Proposición 4. Sea A ∈ Mn (R), entonces las siguientes condiciones son equivalentes:
(a) A es positiva
(b) La relación
< X, Y >= XAY T
define un producto interno en Rn .
(c) A = AT y para el producto interno canónico en Rn se tiene que (X, XA) > 0 para
cada vector no nulo X de Rn .
(d) A = AT y los menores principales de A son positivos, es decir, todos los determinantes
de la forma  
a11 · · · a1k
 ..  , 1 ≤ k ≤ n
det  ... . 
ak1 · · · akk
son positivos.
(e) Existe una matriz invertible P ∈ Mn (R) tal que A = P T P .
Proposición 5. Sea A ∈ Mn (R) una matriz positiva. Entonces,
(1) det (A) > 0
(2) A es invertible
(2) Los valores propios de A son reales positivos

6
(3) A es simétrica y por lo tanto diagonalizable por medio de una matriz ortogonal.
(4) A−1 es también positiva
(5) AT es también positiva
(6) Para cada 1 ≤ k ≤ n, Ak es también positiva.
Ejemplo 1. La matriz  
2 1 0
A= 1 4 2 
0 2 8

es positiva. Pero la matriz  


2 1 0
B =  1 −4 2 
0 2 8
es simétrica pero no es positiva:
  
  2 1 0 0
0 1 0  1 −4 2   1  = −4.
0 2 8 0

De otra parte, la matriz real


 
1 1
C=
−1 1
es tal que   
  1 1 x1
x1 x2 = x21 + x22 > 0
−1 1 x2
para cada vector no nulo (x1 , x2 ) ∈ R2 . Pero C no es simétrica. También podemos observar
que la sola condición de positividad (sin simetrı́a !) en el caso real no garantiza valores
propios positivos, en efecto los valores propios de C son 1 − i, 1 + i (notemos que C no es
una matriz positiva compleja ya que con x1 = i y con x2 = 1, se tiene que x21 + x22 = 0).
Por último, veamos que en el caso real, la sola condición de valores propios positivos no
garantiza ser matriz positiva. En efecto, la matriz real
 
0 −1 0
D= 0 0 1 
−1 −3 3

tiene como único valor propio 1, sin embargo


  
  0 −1 0 1
1 1 1  0 0 1   1  = −1
−1 −3 3 1

7
El problema radica en que D no es simétrica.
Ejemplo 2. Calculemos la descomposición de Cholesky de la matriz A del ejemplo ante-
rior: con el SWP obtenemos
 √  √ 1
√ 
√2 0
√ √ 0 2 √
2 √
2 0
√ √
 1 2 1 2 7 0  0 1 2 7 2 2 7 
2 2√ √ √ √ 2 7 √ √
2
0 7
2 7 47 3 7 0 0 4
7
3 7
Comprobemos esta respuesta con el método descrito en la demostración de la Proposición
2. Podemos tomar la base canónica de R3 y con el producto interno inducido por A
construimos una base ortonormal de R3 a través del método de Gram-Schmidt:

v1 = e1 = (1, 0, 0)
< e 2 , v1 >
v2 = e2 − v1
< v 1 , v1 >
< e 3 , v1 > < e 3 , v2 >
v3 = e3 − v1 − v2
< v 1 , v1 > < v 2 , v2 >
Entonces,

v1 = e1
  
  2 1 0 1
0 1 0  1 4 2  0 
 
0 2 8 0 1
v2 = (0, 1, 0) −     (1, 0, 0) = − , 1, 0
  2 1 0 1 2
1 0 0  1 4 2   0 
0 2 8 0
  
  2 1 0 1
0 0 1  1 4 2   0 
0 2 8 0
v3 = (0, 0, 1) −     (1, 0, 0)
  2 1 0 1
1 0 0  1 4 2  0 
0 2 8 0
  1 
  2 1 0 −2
0 0 1  1 4 2  1 
 
0 2 8 0 1
−    1  − , 1, 0
 1  2 1 0 −2 2
−2 1 0  1 4 2   1 
0 2 8 0
 
2 4
= ,− ,1
7 7

8
Normalizando se tiene

 
v1 (1, 0, 0) (1, 0, 0) 1
q1 = =√ = √ = √ , 0, 0
kv1 k < v 1 , v1 > 2 2
   
v2 1
− 2 , 1, 0 1
− 2 , 1, 0 1 √ √ 1√ √
q2 = =√ = q = − 2 7, 2 7, 0
kv2 k < v 2 , v2 > 7 14 7
2
   
v3 2
7
4
, −7, 1 2
7
, − 47 , 1 1√ √ 1√ √ 1√ √
q3 = =√ = q = 3 7, − 3 7, 3 7
kv3 k < v3 , v3 > 48 42 21 12
7

Por lo tanto
 −1  1 √ √ √ √ −1
√1 0 0 √ 1
− 14 1
2 7 42 3 7
√2 √ √ √ 2 √ √ √ √
 1
A = − 14 2 7 7 2 7 1
0√   0 1
2 7 − 21√ 3√ 7 
1
1
√ √ 1
√ √ 1
√ 7
1
42
3 7 − 21 3 7 12 3 7 0 0 12
3 7
 √  √ 1
√ 
√2 1 √0 √ 0 2 √ 2 √
2 √0 √
 1
= 2 2 2 √2√7 √0 √   0 2 2 7 7 √2√7  .
1 2
2 4 4
0 7
2 7 7 3 7 0 0 7
3 7
c. Formas sesquilineales positivas
Proposición 6. Sea f una forma sesquilineal definida sobre un espacio complejo V de
dimensión finita n. Si X es una base de V tal que A = mX (f ) es positiva, entonces para
cualquier otra base Y de V se tiene que B = mY (f ) es también positiva.
Demostración. Sabemos que si C es la matriz de cambio de X a Y entonces

B = C T AC.
Sea X un vector no nulo de Cn , entonces

XBX ∗ = XC T ACX ∗
T
= XC T AC X
 T T
= XC T A C T X
 T
= XC T A XC T
= Y AY ∗ > 0

ya que Y = XC T es no nulo.
Definición 3. Sea f una forma sesquilineal definida sobre un espacio complejo V de
dimensión finita n. Se dice que f es positiva si existe una base X en V tal que mX (f ) es
positiva.

9
Notemos que la matriz A de una forma sesquilineal compleja positiva f es siempre her-
mitiana, por lo tanto, para A valen las propiedades presentadas en las Proposiciones 1,2
y 3.
d. Formas bilineales positivas
Proposición 7. Sea f una forma bilineal simétrica definida sobre un espacio real V de
dimensión finita n. Si X es una base de V tal que A = mX (f ) es positiva, entonces para
cualquier otra base Y de V se tiene que B = mY (f ) es también positiva.
Si A es la matriz de una forma bilineal simétrica positiva f , entonces para A valen las
propiedades presentadas en las Proposiciones 4 y 5.
e. Formas cuadráticas positivas
Definición 4. (a) Sea q una forma cuadrática definida a partir de una forma sequilineal
hermitiana f sobre un espacio V , se dice que q es positiva si existe una base X en V tal
que la matriz de f en la base X es positiva.
(b) Sea q una forma cuadrática definida a partir de una forma bilineal simétrica f sobre
un espacio V , se dice que q es positiva si existe una base X en V tal que la matriz de f
en la base X es positiva.
Corolario 1. La diagonalización de una forma cuadrática positiva mediante el método
de valores propios expuesto en el Teorema 2 de la Lección 2 del Capı́tulo 10 tiene sólo
coeficientes positivos: los valores propios de la matriz de la forma cuadrática.

10
Álgebra Lineal
Capítulo 11. Tópicos Especiales y Aplicaciones
11.6. Ejercicios

1. Determinar la cónica de…nida por la ecuación dada, indicando el vértice o el centro,


según corresponda. Además, en cada caso indicar los cambios de coordenadas realizados
para expresar la curva en su forma diagonal, es decir, como suma de cuadrados sin términos
xy:
(a) y 2 2xy + 5x = 0
(b) y 2 2xy + x2 5x = 0
(c) 2x2 + 4xy + 5y 2 2x y 4 = 0
(d) x2 + 4xy + y 2 = 7
(e) 2x2 + 3xy 2y 2 = 10
(f) 16x2 24xy + 9y 2 30x 40y = 0
(g) 11x2 24xy + 4y 2 + 6x + 8y = 15
2. Indicar para qué valores (valor) de c la grá…ca de la ecuación 2xy 4x + 7y + c = 0
representa un par de rectas. Justi…que su respuesta.
3. Hallar la solución general de cada una de las siguientes ecuaciones diferenciales:
(a) y 000 2y 00 3y 0 = 0
(b) y 000 y 0 = 0
(c) y 000 + 4y 00 + 4y 0 = 0
(d) y 000 3y 00 + 3y 0 y = 0
(e) y (4) + 4y 000 + 6y 00 + 4y 0 + y = 0
4. Resolver los siguientes sistemas de ecuaciones diferenciales, justi…cando su respuesta:
(a) 2 3 2 32 3
y1 2 1 1 y1
d 4
y2 5 = 4 1 2 1 5 4 y2 5
dt
y3 1 1 2 y3

(b) 2 3 2 32 3
y1 4 1 1 1 y1
d 6 7 6
6 y2 7 = 6 1 2 1 1 7
76
6 y2 7
7
dt y3 5 4
4 6 1 1 1 5 4 y3 5
y4 6 1 4 2 y4

5. Calcular la inversa generalizada de las siguientes matrices:


(a) 2 3
1 1 1 1
A=4 1 1 1 1 5
1 1 1 1

1
(b) 2 3
1 1 1 1
4
A= 1 1 1 1 5
1 1 1 1
6. Sea A una matriz cuadrada. Demostrar que (A )+ = (A+ ) .
7. Sea A una matriz normal. Demostrar que A+ es también normal.
8. Sea A una matriz hermitiana. Demostrar que A+ es también hermitiana.
9. Sean A; C 2 Mn (K) y B; D 2 Mm (K), tales que A y C son similares y B y D son
similares. Demostrar que

A B es similar a C D:
10. Sean A 2 Mn (K), B 2 Mm (K) matrices diagonalizables. Demostrar que A B es
diagonalizable.

2
Página en blanco

También podría gustarte