Compendio de Definiciones y Teoremas

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Compendio de definiciones y teoremas

Este compendio es basado en la teoría del libro de Álgebra, tomo I,


de los autores Teresita Noriega Sánchez y Héctor de Arazoza Rodríguez
Está en fase de revisión y cualquier crítica y/o sugerencia será bien recibida.

Espacios Vectoriales
Definición. Sea K un cuerpo y E un conjunto no vacío. Se dice que E es un espacio
vectorial sobre K o un K-espacio, si en E existen 2 operaciones:
La suma de u y v denotada por u+v, está en E, para todo u, v E
El producto por un escalar de u y denotado por u, está en E, para todo u E y
para todo K,
que satisfacen las propiedades siguientes:

1. u + v = v + u para todo u, v E (La suma en E es conmutativa).


2. u + (v + w) = (u + v) + w para todo u, v, w E (La suma en E es asociativa).
3. Existe en E un elemento único, que se denota por 0 E y se denomina cero del
espacio, que cumple:
u + 0 = u para todo u E
4. Para todo elemento u E existe un único elemento ( u) E denominado opuesto de
u, que cumple:
u + ( u) = 0
5. La suma de E y el producto por un escalar cumplen la ley distributiva:
(u + v) = u + v para todo u, v E, K
6. La suma en K y el producto por un escalar cumplen la ley distributiva:
( + ) u = u + u para todo u E, , K
7. El producto por un escalar y el producto en K cumplen la propiedad asociativa:
( ) u = ( u) para todo u E, , K
8. La unidad en el conjunto de los escalares cumple:
1u=u para todo u E

Las propiedades 1 a 8 se denominan axiomas de espacio vectorial.


En rigor el espacio vectorial es una terna: (E, +, •) formada por el conjunto E y las
operaciones de suma y producto por un escalar que satisfacen los axiomas.

A los elementos de E se les denomina vectores.

Propiedades. Sea E un espacio vectorial sobre K. En E se cumplen:


1. 0 = 0 para todo K.
2. 0 x = 0 para todo x E.
3. Si x = 0, entonces = 0 o x = 0.
4. x = ( 1) x para todo x E.
Note que el símbolo 0 tiene dos interpretaciones: el cero de K, y el vector nulo de E.
Definición. Se dice que un subconjunto F no vacío de un espacio vectorial E es
subespacio vectorial de E si se cumple:
1. La suma en E restringida a los elementos en F es una suma en F
x, y F x+y F
2. El producto por un escalar en E restringida a los elementos en F es un producto por un
escalar en F
x F, K x F
3. Ambas operaciones cumplen los axiomas de espacio vectorial para los elementos de F
Teorema. Caracterización de subespacio vectorial.
Sean E un espacio vectorial sobre K y F un subconjunto no vacío de E. Entonces F es un
subespacio de E si y sólo si
x, y F, , K x+ y F

Definición. Sean E y F dos espacios vectoriales sobre un mismo cuerpo K. Se dice que E y
f son isomorfos o equivalentes, si existe una aplicación f: E F biyectiva tal que para todo
x, y E; , K, se cumple que:
f( x+ y)= f(x)+ f(y).
La aplicación f se denomina es isomorfismo entre los espacios vectoriales E y F.

Nota.
1. La biyección trae o da lugar a que E y F tengan los mismos elementos (el mismo
cardinal).
2. La condición f( x+ y)= f(x)+ f(y) se expresa en: f(x+y)=f(x)+f(y), f( x)= f(x),
para todo x, y E, K. Estas condiciones nos dicen que las operaciones
algebraicas tienen como resultado elementos que se corresponden.

Definición. Sea E un espacio vectorial sobre K. Se denomina sistema de vectores de E, a


todo subconjunto ordenado de vectores de E.

Combinación lineal. Sean E un espacio vectorial sobre K, (x1, x2, , xn) un sistema finito
de vectores de E y 1, 2, , n una familia de escalares de K. Se denomina combinación
lineal del sistema de vectores (x1, x2,..., xn) con los escalares 1, 2,..., n, a la expresión
λ1x1 λ2x 2  λn x n .
Los escalares 1, 2, , n se denominan coeficientes de la combinación lineal.
¿Qué pasaría si queremos hacer una combinación lineal de un sistema infinito de vectores
(a0, a1, a2, , an-1, an, ) ? Obtendríamos una expresión del tipo

αi a i ,
i I
i K, i I. Esto es una suma de infinitos elementos de E que no podemos efectuar. Para
resolver el problema se busca la forma de obtener sumas finitas.

Definición. Sea (ai)i I un sistema de vectores del espacio vectorial E sobre K. Una
combinación lineal del sistema es una expresión del tipo
αi a i ,
i I
donde i K, i I, y todos los valores de los coeficientes son iguales a cero, excepto un
número finito de ellos.

Sea el conjunto de vectores A = {a1, a2, , an} E, donde E es un espacio vectorial sobre
K. El menor subespacio de E que contiene al conjunto A se denomina subespacio
generado por el conjunto A.

Si E es un espacio vectorial sobre K y A={a1, a2, , an} es un conjunto de vectores de E.


Entonces, el conjunto
F {v E/v λ1a1 λ 2a 2  λ n a n ; λ i K },
Es un subespacio vectorial de E, y si un subespacio G contiene al conjunto A, entonces
F G.
Teorema del rango. Sea A una matriz con coeficientes en K. El orden superior de los
menores de A diferentes de cero, es igual al rango de la matriz A.

Teorema de Kronecker-Capelli. Un sistema de ecuaciones lineales AX=B es compatible


si y solo si el rango de la matriz del sistema es igual al rango de la matriz ampliada.

Operaciones con espacios y subespacios vectoriales.


Definición. Dados dos espacios vectoriales E y F sobre K, el conjunto ExF con las
operaciones suma y producto por un escalar, es un espacio vectorial sobre K, se denomina
espacio producto de E y F.

Intersección de subespacios.
Sean E un espacio vectorial, E1 y E2 dos subespacios vectoriales de E ¿Será el conjunto
E1 E2 un subespacio de E? La respuesta es afirmativa.
Evidentemente este resultado se puede generalizar.

Si {Ei}i es una familia de subespacios del espacio vectorial E, entonces  E i es un


i I
subespacio de E.

Suma de subespacios.
En el caso de la unión de subespacios no tenemos un resultado similar al anterior pues, en
general, la unión de subespacios vectoriales no es un subespacio, pues F G contiene
todos los vectores de F y G pero, no tiene por qué contener a todas las combinaciones
lineales de los vectores de F y G.
Definición. Sea E un espacio vectorial sobre K, F y G dos subespacios de E. Se denomina
suma de los subespacios F y G y se denota por F+G al subespacio de E generado por F
G. Es decir:
F + G = L(F G) o F+G= F G .
El denominar suma de los subespacios al subespacio generado por la unión tiene su
justificación, ya que se cumple la siguiente proposición:
F + G = {x + y / x F, y G}.

Definición de suma directa. Sea E un espacio vectorial sobre K, F y G dos subespacios


de E. Se dice que la suma de F y G es directa y se denota por F G si y sólo si
F G = {0}

Sea E un espacio vectorial sobre K, F y G son subespacios de E. Si F G = E, se dice que


F y G son suplementarios

Dependencia e independencia lineal.


Definición. Sea E un espacio vectorial sobre K, y {a1, a2, , an} un sistema de vectores de
E. Se dice que el sistema {a1, a2, , an} es linealmente dependiente si uno de los vectores
del sistema se puede expresar como combinación lineal del resto de los vectores del
sistema.
Si ninguno de los vectores del sistema se puede expresar como combinación lineal del
resto, decimos que el sistema es linealmente independiente.

Teorema. Sea E un espacio vectorial sobre K, y {a1, a2,..., an} un sistema de vectores de E.
Entonces el sistema {a1, a2,..., an} es linealmente independiente si y sólo si la única
combinación lineal que tiene como resultado el vector nulo es la trivial. Es decir si se
cumple:
1 a1 + 2 a2 + + n an = 0 1 = 0, 2 = 0, , n = 0.

Proposición. Sean (a1, a2, , an) un sistema de n vectores del espacio Kn. El sistema es
linealmente independiente si y solo si la matriz A cuyas columnas están formadas por las
componentes de los vectores a1, a2, , an tiene determinante no nulo.

Sistema generador, base y dimensión de un espacio vectorial.


Sea E un espacio vectorial sobre K, (a1, a2, , an) un sistema de vectores. Se dice que el
sistema (a1, a2, , an) es un generador de E o que el espacio E esta generado por el
sistema (a1, a2, , an), si todo vector x de E se puede expresar como combinación lineal de
los vectores del sistema (a1, a2, ..., an).
Algunas propiedades de los sistemas generadores.
1. Sea E un espacio vectorial sobre K, G un sistema generador. Entonces todo otro
sistema de vectores que contenga a G, es también un generador.
2. Sea E un espacio vectorial , G = {a1, a2, , an} un sistema generador de E. Si uno de
los vectores de G, ai se puede expresar como combinación lineal de los restantes
vectores, entonces el sistema formado por G \ {ai} es también generador de E.
Definición. Se denomina base de un espacio vectorial E a un sistema de vectores que es a
la vez linealmente independiente y un generador del espacio E.

Definición. Sea E un espacio vectorial sobre K, finitamente generado. Se denomina


dimensión de E sobre K, o simplemente dimensión de E, al número de elementos de
una cualquiera de sus bases.

Se establece que: dim{0}=0 y el conjunto vacío es un generador y una base de {0}.

Todo espacio vectorial admite siempre una base.

Teorema. Dos espacios de dimensión finita son isomorfos si y solo si tienen la misma
dimensión.

Teorema. Sea E un espacio vectorial sobre K, {b1, b2, , bn} un sistema de vectores de E.
Entonces {b1, b2, , bn} es una base de E si y sólo si para todo vector v de E existen
escalares únicos 1, 2, , n K tales que
v = 1 b1 + 2 b2 + + n bn

Sea v un vector del espacio vectorial E sobre K de dimensión n y B = (b 1, b2, , bn) una
base de E, las coordenadas de v en la base B, se escriben como una matriz columna. Se
habla entonces del vector de coordenadas de v en la base y lo denotamos por [v]B.

Definición. Sean E un espacio vectorial de dimensión n, B y B dos bases de E. Se


denomina matriz de cambio de coordenadas de la base B a la base B , a la matriz cuya
i-ésima columna está formada por las coordenadas del i-ésimo vector de la base B en la
base B .

Proposición. Sean E un espacio vectorial de dimensión n, B y B dos bases de E, A la


matriz de cambio de coordenadas de la base B en la base B . Entonces, A es inversible.

Definición. Sean E un espacio vectorial sobre K, S un sistema de vectores de E. Se


denomina rango de S y se denota por rang S a la dimensión del subespacio generado por S.

Aplicaciones Lineales
Definición. Sean E y F dos espacios vectoriales sobre un cuerpo K y f: E F una
aplicación de E en F. Se dice que f es una aplicación lineal si y sólo si
f( x + y) = f(x) + f(y), x, y E; , K.

Definición. Se denomina endomorfismo de E a una aplicación lineal de E en E, donde E


es un espacio vectorial sobre K.
El conjunto de los endomorfismos de E se denota por End E. Así, f End E, significa que f
es un endomorfismo de E.
A un endomorfismo biyectivo se le denomina automorfismo.
Algunas propiedades de las aplicaciones lineales.
Sean E y F dos espacios vectoriales sobre K de dimensiones n y m respectivamente y f es
una aplicación lineal de E en F, entonces se cumple:
1. f(0) = 0.
2. Si E' es un subespacio de E, f(E') es un subespacio de F.
3. Si G es un subespacio de F , f -1(G) es un subespacio de E

Definición. Sean f una aplicación lineal entre los K-espacios E y F de dimensiones m y n


respectivamente; {a1, a2, , an} una base de E y (b1, b2, , bm) una base de F. Se denomina
matriz asociada a f para las bases (aj) y (bi) y se denota por M(f, (aj), (bi)) a la matriz
cuyo coeficiente (i,j) está dado por la coordenada i-ésima en la base (bi) del vector f(aj),
donde 1 j n, 1 i m.
Es decir, M(f, (aj), (bi)) = {[f(a1)]B, [f(a2)]B,..., [f(an)]B}.

Procedimiento.
1. Calcular f(aj), j=1, 2, , n.
2. Determinar [f(aj)]B, (o sea, expresar f(aj) como combinación lineal de los vectores
de la base B.
3. La matriz A de f con respecto a {aj} y {bi} se forma al elegir [f(aj)]B como la j-
ésima columna de dicha matriz A.

Consulte el epígrafe 2.4: Matrices equivalentes y matrices semejantes, de la página 139, del
libro Álgebra, tomo I, de los autores Teresita Noriega Sánchez y Héctor de Arazoza.

Definición. Dos matrices A, B de Mm,n(K) se denominan matrices equivalentes si y sólo si


existen matrices R Mm(K) y S Mn(K) inversibles tales que B = R A S.

Propiedades.
Para toda A, A es equivalente a A ya que A = Im A In.
Si A es equivalente a B, B es equivalente a A.
Si A es equivalente a B y B es equivalente a C, entonces A es equivalente a C.
Dos matrices A y B son equivalentes si y sólo si están asociadas a una misma aplicación
lineal en pares de bases distintas en los espacios de partida y llegada.

Teorema. Dos matrices A y B son equivalentes si y solo si están asociadas a una misma
aplicación lineal, en pares de bases distintas del dominio y el codominio de la aplicación.

Definición. Dos matrices A, B de Mn(K) se denominan matrices semejantes si y sólo si


existe P Mn(K) inversible tales que B = P-1 A P.

Teorema. Dos matrices A y B son semejantes si y solo si están asociadas a un mismo


endomorfismo f de E en dos bases distintas de dicho espacio.

Definición. Dada una aplicación lineal f de E en F, se denomina espacio imagen de f y se


denota por Im f o f(E ), al conjunto de las imágenes por f de los elementos de E. Es decir,
Im (f)={f(x): x E}.

Definición. Se denomina núcleo de una aplicación lineal f de E en F, al conjunto de los


vectores de E cuya imagen es el vector nulo de F y se denota por Ker f. Es decir,
Ker f = {x E / f(x) = 0}.

Teorema. Sean E y F espacios vectoriales sobre K y sea f una aplicación lineal entre E y F.
Entonces, Im f es un subespacio de F y Ker f es un subespacio de E.

Proposición. Sea f una aplicación lineal de E en F y (x1, x2, , xn) un sistema generador
de E. Entonces, (f(x1), f(x2), , f(xn)) es un sistema generador de F.

Proposición. Sean E y F espacios vectoriales sobre K. Si f es una aplicación lineal de E en


F y si dado un sistema generador (x1, x2, , xn) de E se tiene que (f(x1), f(x2), , f(xn))
es un sistema generador de F, entonces f es sobreyectiva.

Proposición. Una aplicación lineal f entre los K-espacios E y F es inyectiva si y solo si


Ker f={0}.

Proposición. Para que una aplicación lineal de E en F se inyectiva, es necesario y


suficiente que el sistema formado por las imágenes de todo sistema de vectores linealmente
independiente de E, sea un sistema de vectores linealmente independiente de F.

Teorema del rango. Sean E y F espacios vectoriales sobre el cuerpo K tal que dim E=n,
dim F=m, f: E F lineal. Entonces,
dim Ker f + dim Im f=dim E.
A la dimensión del subespacio imagen se le denomina rango de la aplicación lineal y se
denota rg f o r(f). De esta manera rg f= dim Im f.

Aplicaciones del teorema del rango.


Proposición. Sean E y F dos espacios vectoriales sobre K de dimensión finita, tales que
Dim E=Dim F, f una aplicación lineal de E en F. Entonces,
f inyectiva f sobreyectiva f biyectiva

Proposición. Sea f un endomorfismo de un espacio vectorial E sobre K de dimensión n.


Entonces,
f inyectiva f sobreyectiva f es un automorfismo

Valores y vectores propios


Definición. Sea E un espacio vectorial sobre K, f un endomorfismo de E. Se denomina
valor propio de f a todo escalar K tal que existen vectores no nulos v de E que
cumplen:
f(v) = v.
Si A es una matriz asociada a un endomorfismo f y es un valor propio de f. Entonces
decimos que es un valor propio de la matriz A.
Al conjunto de valores propios de una matriz A { 1, 2, , n} se denomina espectro de
A y se denota (A).
Al valor = máx i se denomina radio espectral.

Definición. Sea E un espacio vectorial sobre K, f un endomorfismo de E y un valor


propio de f. Se denomina vector propio de f asociado al valor propio a todo vector v
E que satisface
f(v) = v.

Proposición. Sean E un espacio vectorial, f un endomorfismo de E y un valor propio de


f. Entonces el subconjunto de todos los vectores propios asociados al valor propio , es un
subespacio vectorial de E.

Se denomina polinomio característico de una matriz A al determinante


det(A λIn ).
Propiedad. Dos matrices semejantes tienen el mismo polinomio característico.

Se denomina ecuación característica a la ecuación


det(A λIn ) 0.

Teorema. Sean E un espacio vectorial sobre K de dimensión n, f un endomorfismo de E y


A la matriz asociada a f en una base (e1, e2, , en) de E. Entonces, los valores propios de f
son las raíces de la ecuación característica de la matriz A:
det(A λIn ) 0.

Definicion. Sea E un espacio vectorial sobre K de dimension finita, se dice que un


endormorfismo f de E es diagonalizable, si existe una base de E para la cual la matriz
asociada a f sea diagonal.

Teorema. En un espacio vectorial E sobre K de dimensión finita, un endomorfismo de E es


diagonalizable si y solo si se puede formar una base de E con vectores propios del
endomorfismo.

Teorema. Sea E un espacio vectorial sobre K, f un endomorfismo de E. Si S=(v1, , vk) es


un sistema de vectores no nulos, formado por vectores propios asociados a valores propios
diferentes, entonces el sistema S es linealmente independiente.

Teorema.
Sea E un espacio vectorial sobre K de dimensión finita n, f un endomorfismo de E. El
endomorfismo f es diagonalizable si y solo si se cumplen las condiciones siguientes:
1. El polinomio característico de f tiene todas sus raíces en K.
2. Para cada valor propio de f se cumple que dim E( ) = multiplicidad( ).
Condición de diagonalización. Sea E un espacio vectorial de dimensión finita n sobre
K, f un endomorfismo de E. Entonces, f es diagonalizable si y sólo si E es la suma
directa de los subespacios propios de f.

En la práctica es común el problema de diagonalizar una matriz dada A. Es decir, encontrar


una matriz diagonal D semejante a la matriz A.
En este caso se pide encontar una matriz P inversible tal que
-1
D=P AP,
donde P es la matriz de cambio de coordenadas de la base de vectores propios a la base
inicial en el espacio.

Matriz de Jordán.
Definición. Sea K. Se denomina celda de Jordán de orden n asociada al escalar ,
a una matriz de orden n de la forma:
1 0   0
0 1   0
0 0   0
Jn ( ) .
     
     1
0 0 0  
Esta es una matriz de orden n en cuya diagonal principal aparece el escalar , en la
posición inmediata superior a la diagonal principal aparece el número 1, y el resto de los
elementos son ceros.

Definición. Una matriz de Jordán de orden n, es una matriz que tiene la forma:
J1 0  0
0 J2  0
J .
   
0 0  Jk
Esta es una matriz diagonal por bloques, en la cual los bloques de la diagonal J 1, J2, Jk
son celdas de Jordán correspondientes a distintos escalares no necesariamente iguales entre
sí.
Refiriéndose al escalar i en ocasiones para las entradas diagonales se usa la notación
λi 1 0   0
0 λi 1   0
.
0 0 λi   0
J ij .
     
     1
0 0 0   λi

IMPORTANTE
1. En la diagonal principal de una matriz de Jordán aparecen los valores propios de la
matriz.
2. Para que una matriz A sea semejante a una matriz de Jordán es necesario y
suficiente que su polinomio característico tenga todas sus raíces en K.

Teorema. Dos matrices de Jordán son semejantes si y solo si están formadas por las
mismas celdas de Jordán, las cuales pueden estar en un orden diferente en la diagonal.

Definición. Se denomina polinomio minimal de f y se denota por wf, el polinomio


mónico de grado mínimo que se anula en un endomorfismo f de un espacio vectorial sobre
K de dimensión n.
Según esta definición el polinomio minimal es único.

El polinomio minimal de una matriz A se define como el polinomio mónico de menor


grado que se anula en la matriz A. Notación: wA.

Teorema de Hamilton-Cayley. Sean f un endomorfismo de un espacio vectorial E sobre


K de dimensión finita y pf su polinomio característico. Entonces, pf(f)=0

Este teorema permite afirmar que pf(A)=O para toda matriz de Mn(C).

Proposición. Sea f un endomorfismo de un espacio vectorial sobre K de dimensión n.


Entonces, toda raíz del polinomio característico de f es raíz del polinomio minimal.

Método de cálculo del polinomio minimal de un endomorfismo de un espacio


vectorial E sobre K de dimensión finita:
Primero: Buscar la matriz que representa a f en una base conveniente.
Segundo: Calcular pf y expresarlo en la forma
p f (x) ( 1) n (x λ1 ) m1 (x λ 2 ) m 2 (x λ k )mk .
Tercero: Tomar todas las posibilidades del tipo
(x λ1 ) r1 (x λ 2 ) r2  (x λ k ) rk , 1 ri mi .
Cuarto: Calcular
(A λ1I n ) r1 (A λ 2 I n ) r2  (A λ k I n ) rk ,
Para cada posibilidad anterior, comenzando por los polinomios de menor grado hasta
encontrar el de grado mínimo que se anule en A.

Teorema de Jordán. Sea f un endomorfismo de un K-espacio E de dimensión n tal que su


polinomio característico tiene todas sus raíces en K. Entonces, existe una base de B de E
con respecto a la cual la matriz de f es una matriz de Jordán.

Para determinar la matriz de Jordán de un endomorfismo f; utilizaremos el siguiente


procedimiento que proponen los autores Teresita Noriega y Héctor de Arazoza y que sirve
para la mayoría de los casos:
1. Determinar el polinomio característico de f:
p f (x) ( 1) n (x λ1 ) m1 (x λ 2 ) m 2 (x λ k )mk .
2. Determinar el polinomio minimal de f:
w f (x) (x λ1 ) r1 (x λ 2 ) r2 (x λ k ) rk .
3. Determinar la dimensión de los subespacios propios E( ) asociados a los diferentes
valores propios de f.
Entonces, para cada valor propio i corresponden bloques de Jordán Jij que cumplen:
i) Existe al menos una celda Jij de tamaño ri; las demás celdas Jij son de tamaño
menor o igual que ri.
ii) La suma de los tamaños de los Jij es mi.
iii) El número de celdas Jij es igual a la dimensión del subespacio propio E( i). Otro
elemento a tener en cuenta es que i aparece en la diagonal mi veces.
iv) El número de Jij de cada posible orden es determinado singularmente por el
endomorfismo f.

La búsqueda de una base en la cual se obtiene la matriz de Jordán, presenta una


diferencia a como se buscaba en la diagonalización de matrices, pues en este caso se
realiza resolviendo sistemas de ecuaciones lineales homogéneos. Ahora, para la búsqueda
de uno o más vectores de la base pueden depender de la solución de un sistema de
ecuaciones lineales no homogéneo; los cuales en general no son compatibles. Entonces;
para formar la base se seleccionan vectores propios y vectores que satisfagan los sistemas
de ecuaciones lineales de la forma
(A λi I m )bi 1 bi , ((f λ i id m )(bi 1 ) bi ).
R

También podría gustarte