Apuntes Unidad 3

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

UNIDAD DIDÁCTICA 3: espacio vectorial

Espacio vectorial: concepto


Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia
y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las
rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para
resolver ecuaciones en derivadas parciales.
Wikipedia: un espacio vectorial es una estructura algebraica creada a partir de un
conjunto no vacío, una operación interna (llamada suma, definida para los elementos del
conjunto) y una operación externa (llamada producto por un escalar, definida entre
dicho conjunto y otro conjunto, con estructura de cuerpo), con 8 propiedades
fundamentales.
Nota: El producto por un escalar es una operación externa por izquierda.

Libro:
Un espacio vectorial real V es un conjunto de objetos llamados vectores, junto con dos
operaciones, llamadas suma y multiplicación por un escalar, que satisfacen los
siguientes 10 axiomas:
A1. Cerradura para la suma vectorial:
Para todo x, y, pertenece V: x+y pertenece V
A2. Asociativa de la suma:
Para todo x, y, z, pertenece V: (x+y) + z = x+ (y+z)
A3. Ley del elemento neutro o propiedad modulativa / modular:
Existe vector 0 pertenece V/ para todo x pertenece V: x+0 = 0+x = x
El 0 se llama vector 0, idéntico aditivo o módulo 0, y es único.
A4. Inverso aditivo:
Para todo x pertenece V: existe -x pertenece V/ x + (-x) = 0
-x se llama inverso aditivo de x y es único.
A5. Ley conmutativa de la suma de vectores:
Para todo x, y, pertenece V: x+y = y+x
Ahora agregamos un cuerpo de escalares: (reales para nosotros, aunque pueden ser los
complejos):
A6. Cerradura bajo la multiplicación por un escalar:
Para todo x pertenece V, para todo alfa pertenece R: alfa * x pertenece V
A7. Primera ley distributiva:
Para todo x, y, pertenece V, para todo alfa pertenece R: alfa * (x+y) = alfa*x + alfa*y
A8. Segunda ley distributiva:
Para todo x pertenece V, para todo alfa, beta, pertenece R: (alfa + beta) * x = alfa*x +
beta*x
A9. Ley asociativa de la multiplicación por escalares:
Para todo x pertenece V, para todo alfa, beta, pertenece R: alfa * (beta * x) = (alfa*beta)
*x
A10. Para todo x pertenece V: 1*x = x

Formulación de las propiedades de los Espacios Vectoriales para utilizarlos en la


solución de ecuaciones
ver
Sub-espacio
Definición de Subespacios Vectoriales Reales
Definición: Un subconjunto no vacío W de un Espacio Vectorial Real V, es un
subespacio vectorial de V, si y solo si W conjuntamente con las operaciones de suma y
multiplicación escalar definidas en V, es en sí mismo un Espacio Vectorial Real.
Nota: Observe que de acuerdo a la definición para probar que W es un subespacio
vectorial real, se deben verificar sobre W los axiomas de Espacios Vectoriales Reales.
Sin embargo, por la utilización adecuada del siguiente teorema se puede establecer:
Teorema Clave: Si V es un Espacio Vectorial Real, un subconjunto no vacío W incluido
(con la rayita) en V se dice que es un subespacio vectorial de V cuando con las
operaciones de V restringidas a W, cualesquiera sean los vectores x, y, en W y alfa
pertenece R, se verifican las siguientes condiciones:
1) x + y pertenece W; Para todo x, y, pertenece W
2) alfa*x pertenece W; para todo x pertenece W, para todo alfa pertenece R
Demostración:
Parte A)
Si W es un subespacio vectorial de V, luego por definición: W es un espacio vectorial
real con las operaciones + y escalar heredadas de V, por lo tanto se verifican las dos
condiciones.
Parte B)
Si se verifican las dos condiciones 1) y 2) se debe verificar que W es un subespacio
vectorial de V, es decir que se verifican en W todos los axiomas del Espacio Vectorial
Real. Para ello tener en cuenta que:
• Los axiomas A1) y M1) se verifican en W (las dos operaciones de cerradura) por
hipótesis.
• Los axiomas A2) , A3) , M2) , M4) , M5) que se refieren a las propiedades
asociativas, conmutativas, distributivas y multiplicativas se verifican en W pues los
vectores de W son también vectores de V .
Falta probar:
• La existencia del vector nulo en V, 0 pertenece W .
• La existencia del vector opuesto en W: -x pertenece W
Para determinar la existencia del vector 0 en W :
Sea x pertenece W y 0 pertenece R implica 0x = nulo (ver teorema unidad 1).
Ahora:
0*x pertenece W (por condición 2)

Implica nulo pertenece W Para todo x pertenece W


Para determinar la existencia del vector -x en W :
Sea x pertenece W y -1 pertenece R implica -1*x = -x (por teorema unidad 1)
Ahora:
(-1) *x pertenece W (por 2)
Implica -x pertenece W; para todo x pertenece W
Luego quedan probados la totalidad de los axiomas para que W sea un Espacio
Vectorial Real con las operaciones de V restringidas a W, luego W es un subespacio
vectorial de V.
Nota: Observe que todo subespacio vectorial real contiene al vector nulo. En
consecuencia cualquier subconjunto que no incluya el vector nulo, no puede ser un
subespacio vectorial real.
Definición de Subespacios triviales
Definición: Todo Espacio Vectorial Real V contiene dos subespacios llamados
Subespacios Triviales , ellos son:
W1 = {vector nulo}; subespacio nulo
Nota: conjunto unitario que contiene al vector nulo.
W2 = V (el propio espacio vectorial)
Cualquier otro subespacio no trivial, se llama Subespacio Propio .

Combinación Lineal y espacio generado


Definición de combinación lineal:
Sean v1, v2… vn, vectores en el espacio vectorial V, entonces, cualquier vector de la
forma a1v1 +a2v2 + … +an vn , donde a1, a2,…, an, son escalares, se llama una
combinación lineal de v1, v2,…, vn.
Ejemplo: combinación lineal en P sub n (polinomios de grado n):
Todo polinomio se puede escribir como una combinación lineal de los monomios 1, x,
x^2…, x^n
Definición de conjunto generador:
Sea { v1 , v2,... vn} un conjunto de vectores de un espacio vectorial V.
Si todo vector de V puede expresarse como combinación lineal de v1, v2, ... , vn,
entonces se dice que { v1,v2,... ,vn} es un conjunto generador de V o también que v1,
v2,... ,vn generan V.

Otra definición (fea):


Se dice que los vectores v1, v2, …, vn, en un espacio vectorial V, generan a V, si todo
vector en V se puede escribir como una combinación lineal de ellos.
Es decir, para todo v pertenece V, existen escalares a1, a2,…, an, tales que v = a1*v1 +
a2*v2 +… +an*vn.
Espacio generado por un conjunto de vectores
Sean v1, v2,…, vk, k vectores en el espacio vectorial V. el espacio generado por {v1,
v2,…, vk} es el conjunto de combinaciones lineales de v1, v2,…, vk.
Es decir: gen {v1, v2, …, vk} = {v: v = a1*v1 +a2*v2 +… +ak*vk}, donde a1, a2, …,
ak, son escalares arbitrarios.
Propiedad
Dado que:
1. El vector nulo puede expresarse como combinación lineal de dichos vectores.
2. Si sumamos dos combinaciones lineales de los vectores dados obtenemos otra
combinación lineal (cerradura para la suma).
3. Si multiplicamos un escalar k por una combinación lineal de los vectores dados,
obtenemos una combinación lineal e dichos vectores (ceradura para la
multiplicación por un escalar).
Por lo tanto, el conjunto de todas las combinaciones lineales de v1, v2,…, vk, es
subespacio de V.

Independencia Lineal
Definición 1 (copada):
Si A = {v1, v2,…, vk} es un conjunto de vectores de un espacio vectorial V, entonces la
ecuación vectorial a1*v1 + a2*v2 +… +ak*vk = 0*V
tiene al menos la solución trivial: a1 = a2 = … = ak = 0
Si ésta es la única solución, entonces se dice que A es un conjunto linealmente
independiente.
Si hay otras soluciones (además de la trivial) entonces A es un conjunto linealmente
dependiente.
Una forma alternativa de caracterizar la dependencia lineal es la siguiente:
Un conjunto de vectores {v1, v2,…, vr} de un espacio vectorial V es linealmente
dependiente si y sólo si al menos uno de los vectores puede expresarse como
combinación lineal de los demás.
Demostración:
Si el conjunto { v1,v2, ...,vr } es linealmente dependiente, la ecuación
a1v1 + a2v2 + … + arvr = 0V
admite otras soluciones además de la trivial. O sea, existe una combinación lineal donde
al menos uno de los escalares es distinto de cero, que da el vector nulo.
Supongamos que a1 distinto 0. Entonces resulta:
v1 = (-a2/a1)*v2 +… +(-ar/a1)*vr
Por lo tanto, el vector v1 es combinación lineal de los demás.
Por lo anterior, sabemos que uno de los vectores puede expresarse como combinación
de los demás. Sin perder generalidad, supongamos que:
v1 = k2v2 + …+ krvr
Entonces:-1v1 + k2v2 + … + krvr = 0v
Existe una combinación lineal no trivial (al menos uno de los escalares es distinto de
cero) que es igual al vector nulo. Por lo tanto, el conjunto { v1,v2, ...,vr } es linealmente
dependiente, como queríamos demostrar.

Definición 2 (fea man):


Se dice que los vectores son linealmente dependientes si existen n escalares c1, c2, …,
cn, no todos ceros, tales que: c1*v1 +c2*v2 +… +cn*vn = 0.
Si los vectores no son linealmente dependientes, entonces son linealmente
independientes.

Para decirlo de otra manera, v1, v2, …, vn, son linealmente independientes si la
ecuación c1*v1 +c2*v2 +… +cn*vn = 0 se verifica solo para c1 = c2 = … = cn = 0.
Son linealmente dependientes, si el vector 0 en V, se puede expresar como una
combinación lineal de v1, v2,…, vn, con coeficientes no todos iguales a 0.
Existe una relación entre la independencia y dependencia lineal y la teoría de sistemas
homogéneos y determinantes. Existe una dependencia lineal Cuando el vector 0 se
puede escribir como una combinación no trivial de los vectores. Por el contrario, existe
independencia lineal cuando la única solución de la ecuación es la trivial (el
determinante es distinto de cero).

¿Cómo se determina si un conjunto de vectores es linealmente independiente o


dependiente?
Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno es un
múltiplo escalar del otro.

Propiedades
Propiedad 1: Un conjunto formado por un solo vector, es linealmente:
Dependiente: si v = vector nulo (el escalar puede tomar cualquier valor distinto de 0).
Independiente: Si v es distinto del vector nulo (la única solución es a = 0).
Propiedad 2: Si un conjunto de vectores contiene al vector nulo, entonces es linealmente
dependiente.
Interpretación geométrica
Recordemos que dos vectores v1 y v2 son linealmente dependientes si y sólo si uno de
ellos es un múltiplo escalar del otro.
Podemos afirmar entonces que dos vectores en R^2 o R^3 son LD si y sólo si están
sobre la misma recta que pasa por el origen (vectores paralelos).
En R^3, tres vectores v1,v2,v3 son LD si y sólo si están situados en el mismo plano que
pasa por el origen (vectores coplanares).

Base y dimensión de un espacio vectorial


Base y dimensión de un espacio vectorial
En términos generales, una “base” para un espacio vectorial es un conjunto de vectores del
espacio a partir de los cuales se puede obtener cualquier otro vector de dicho espacio,
haciendo uso de las operaciones en él definidas.

Un conjunto de vectores B = (v1, v2,…, vn} de un espacio vectorial V se denomina


base de V si y sólo si cumple dos axiomas:
i. B es linealmente independiente;
ii. B genera a V.
nota: notar que el conjunto B es finito.

Sean B = (v1, v2,…, vn} y B'= {w1, w2…, wq} dos bases del espacio vectorial V.
Como B es una base, todo conjunto de más de n vectores es LD. Pero B' es LI, entonces:
q <= n. [1]
Como B' es una base, todo conjunto de más de q vectores es LD. Pero B es LI, entonces:
n <= q. [2]
De [1] y [2] se deduce que q = n.
En consecuencia:
Si B = (v1, v2,…, vn} es una base de V, cualquier otra base de V tiene n vectores.
Entonces definimos:
La dimensión de un espacio vectorial V es la cantidad de vectores que componen una
base de V.
Si B = (v1, v2,…, vn} es una base de V, la dimensión de V es n y lo indicamos como
dim(V) = n.
El espacio {vector nulo} tiene dimensión 0 (porque el único vector de dicho espacio es
linealmente dependiente, por lo que el espacio no tiene base).
Una base canónica de R2 es {(1, 0), (0, 1)}… por lo tanto dim (R2) = 2.
Por lo mismo Dim (R3) = 3, dim (R4) = 4… dim (Rn) = n
Por otro lado, las matrices de m*n:
dim(M sub m*n) = m*n
Dimensión de los espacios de polinomios:
dim(Pn) = n + 1
Si no existe una base de V formada por un conjunto finito de vectores, se dice que
V es un espacio de dimensión infinita. Un ejemplo es el espacio de todos los
polinomios (de cualquier grado).

Propiedades relacionadas con la dimensión


Si dim(V) = n , puede afirmarse que:
1) Todo conjunto de n vectores linealmente independientes en V es una base.
2) Todo conjunto de n vectores que genere V es una base.
3) Todo conjunto de más de n vectores en el espacio vectorial V es linealmente
dependiente.
4) Todo conjunto linealmente independiente en V puede extenderse a una base.
Coordenadas de un vector respecto de una base
Propiedad: Si B = {v1, v2,…, vn} es una base del espacio vectorial V, todo vector de V
puede expresarse de forma única como combinación lineal de los vectores de B.
Demostración:
Sea B = {v1, v2,…, vn} base de V.
Supongamos que un vector de V puede expresarse mediante dos combinaciones lineales
distintas de los vectores de la base B:
u = a1*v1 + a2*v2 + … + an*vn
y u = b1*v1 + b2*v2 + … + bn*vn
Restando miembro a miembro:
0v = (a1 -b1)*v1 + (a2-p2)*v2 + … + (an-bn)*vn
Como las bases son conjuntos linealmente independientes, resulta:
Ai -bi = 0 (i = 1,…, n)
Por lo tanto, los escalares de la combinación lineal son únicos para cada vector de V.
Esta propiedad permite definir coordenadas de un vector respecto de una base.
Sea B = {v1, v2,…, vn} base de V.
Para cada u pertenece V, existen únicos escalares a1, a2, …, an pertenece R tales que:
u = a1v1 + a2v2 + …+ anvn
Estos escalares se denominan coordenadas del vector u respecto de la base B.
Notación: creo que es [u]B, coordenadas del vector u en la base B.
Base como conjunto ordenado
Las bases son conjuntos ordenados. O sea, si reordenamos los vectores de una base,
obtenemos una base diferente.

¿Por qué son distintas? Porque las coordenadas de un vector cambian si se reordena la base.

Base y dimensión de un subespacio vectorial


Recordemos que un subespacio es un espacio vectorial en sí mismo, por lo tanto
podemos hallar una base y su dimensión.
Si S es un subespacio de V, entonces: dim(S) <= dim(V).

Rango y nulidad
Se denomina rango de una matriz al número de filas LI que tiene la matriz. Se indica
R(A) o Rg (A).
1. Si se realizan operaciones elementales entre las filas de una matriz, el rango se
conserva.
2. Las filas no nulas de una matriz escalonada son LI.
Por lo tanto, para determinar el rango de una matriz se aplican operaciones elementales
para obtener una matriz escalonada y se cuentan las filas no nulas. (También tenemos el
método de los determinantes).
Una matriz es escalonada (por filas) si satisface las siguientes propiedades:

1. Las filas nulas (todos sus elementos son ceros) se encuentran en la parte inferior.
2. En cada fila no nula, el primer elemento distinto de 0 (pivote), está a la derecha del
pivote de la fila anterior.

Una forma práctica de extraer bases es armar una matriz con los vectores dados y llevarla a la
forma escalonada.

El rango de la matriz es el número de vectores LI y por lo tanto también indica la


dimensión del espacio que se forma con dichos vectores.
Este método también permite obtener bases: las filas no nulas de la última matriz son
otra base, ya que fueron obtenidas como combinaciones lineales de los vectores del
conjunto generador inicial.
Propiedad

Si el determinante que forman los vectores es distinto de 0, los vectores son LI

Nota: recordar que si el determinante es 0, el sistema tiene infinitas soluciones, entonces


existe por lo menos una en la que no todos los escalares sean 0. En ese caso podemos probar
con determinantes más pequeños aunque se hace un poco engorroso.

Y si el sistema es homogéneo (igualado a 0) la única solución es la trivial.

Nulidad
xii. Encuentre el rango, la nulidad, una base para la imagen y el espacio nulo de la matriz
dada:

lo que hay que hacer es escalonar la matriz:

a. (1, 2. 3, 4)

R2 camio por r2 -3r1:

= (1, 2. 0, -6)

Cambio r2 por -1/2r2

= (1, 2. 0, 1)

Cambio r1 por r1 -2r2:

= (1, 0. 0, 1)

Rango de la matriz: es la cantidad de pivotes que tiene la matriz:

Rango: 2

Nota: la definición dice la cantidad de renglones linealmente independientes.

El nulo es (0, 0). El espacio nulo. Me dice que la única solución es 0 0. La nulidad de la matriz (el
número de vectores). Como la única solución es el vector nulo, la nulidad es 0. Es la dimensión.

El espacio nulo es el vector que hace 0 a la matriz original. En este caso solo es el vector nulo 0
0.

¿Cómo puedo calcular también la nulidad?

Cantidad de columnas = rango más nulidad.


Implica 2 = 2 + nulidad

Implica nulidad = 0

Por eso esto puedo calcular antes, y me permite saber, en este caso que

Lo mismo con el anterior: tengo 3 columnas = 2 + 1

Cuando tengo sistema de ecuaciones encuentro el conjunto solución. Los que hacen 0

Espacio solución; son todas las soluciones del sistema.

N matrices: encuentro el espacio nulo, que es el conjunto de vectores que hacen 0 a la matriz.

El otro que hace 0 las ecuaciones.

Producto mixto
el producto mixto de u, v, y w se denota [u, v, w] = (u1, u2, u3. V1, v2, v3. W1, w2, w3).

Se denota entre corchetes en el mismo orden (no se si van las comas) y se calcula
haciendo el determinante cuyos vectores filas son los vectores que nos dan.

Los vectores son coplanares si y solo si el resultado del determinante es 0.

Ver producto mixto en (adicional): https://es.wikipedia.org/wiki/Producto_mixto

En el caso específico de tres vectores en R^3, podemos utilizar el determinante (que es el


producto mixto), para saber si dichos vectores son LI o LD. Si el determinante da 0, los vectores
son coplanares y por lo tanto LD.

Caracterización de conjuntos de vectores linealmente dependientes:

Sea A = (v1, v2, …, vk) un conjunto de vectores en R^n. son equivalentes los siguientes hechos:

 El conjunto A es linealmente independiente.


 Tiene solución única el sistema [[v1, v2, v3…, vk| 0]
 Tiene k pivotes la matriz reducida obtenida de [v1, v2, v3, …, vk]
Relación entre el concepto de conjunto linealmente independiente y el análisis de un
sistema de ecuaciones lineales.
Considerando el sistema de ecuaciones lineales cuya matriz aumentada [a1, a2, …, ak| b] que
se sabe que es consistente.

Entonces:

el sistema tiene infinitas soluciones si y solo si el conjunto de vectores A = {a1, a2, …, ak} (el
conjunto formado por las columnas de la matriz de coeficientes) es un conjunto linealmente
dependiente.

La relación entre este resultado y la Caracterización de conjuntos de vectores linealmente


dependientes es que el proceso de reducción tienen la misma primera parte
independientemente si b es 0.

Relación entre conjunto de vectores LD y la “redundancia”


Sea A = {v1, v2, …, vk} un conjunto de vectores en r^n. son equivalentes los siguientes hechos:

 El conjunto A es linealmente dependiente.


 Hay por lo menos un vector en la lista de vectores de A que se puede obtener como
una combinación lineal de los otros vectores de A.
Siendo un conjunto de vectores linealmente dependiente, de la combinación lineal
que da el vector 0 y que tiene un coeficiente diferente de 0, se puede despejar un
vector y poner en función lineal de los otros. Justo el coeficiente diferente de 0 es el
que permite el despeje.

También podría gustarte