Segundo Parcial Con Propuestos
Segundo Parcial Con Propuestos
Segundo Parcial Con Propuestos
𝑎1 𝑥1 + 𝑎2 𝑥2 + ⋯ + 𝑎𝑛 𝑥𝑛 = 𝑏
donde los coeficientes 𝑎1 , 𝑎2 , … , 𝑎𝑛 y el término independiente 𝑏 son constantes
conocidas, se llama lineal en las incógnitas 𝑥1 , 𝑥2 , … , 𝑥𝑛 . Se llama lineal porque todas
las incógnitas están elevadas a la potencia 1 y porque los coeficientes 𝑎1 , 𝑎2 , … , 𝑎𝑛 no
contienen a ninguna de las incógnitas.
Ejemplo 3.1
La ecuación 3𝑥 + 2𝑦 − 7𝑧 + 4𝑤 = −8 es una ecuación lineal en las incógnitas 𝑥, 𝑦, 𝑧, 𝑤.
Las siguientes ecuaciones no son lineales
3𝑥 − 2𝑦 + 4𝑧 − 8𝑤 2 = 4
2𝑥𝑦 − 4𝑧𝑤 + 𝑦 − 𝑧 = −1
3𝑥 3 − 4𝑦 + 7𝑧 − 𝑤 = 0
7𝑥 − 𝑠𝑒𝑛(𝑦) + 𝑧 2 − 𝑤 = 𝑒
Resolver una ecuación lineal es encontrar los valores de las incógnitas que satisfacen
la ecuación, es decir, encontrar los valores que al sustituir las incógnitas reducen la
ecuación a una identidad. El conjunto de valores que satisfacen la ecuación se llama
solución de la ecuación. En concreto una sucesión de números 𝑠1 , 𝑠2 , … , 𝑠𝑛 se llama
solución de la ecuación lineal.
𝑎1 𝑥1 + 𝑎2 𝑥2 + ⋯ + 𝑎𝑛 𝑥𝑛 = 𝑏
𝑎1 𝑠1 + 𝑎2 𝑠2 + ⋯ + 𝑎𝑛 𝑠𝑛 = 𝑏
obtenida es verdadera.
La sucesión 𝑠1 = 2, 𝑠2 = 4, 𝑠3 = 4, 𝑠4 = 3 es una solución de la ecuación lineal 2𝑥1 +
𝑥2 − 5𝑥3 + 3𝑥4 = −3.
⋮
{𝐸𝑐𝑚 : 𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + ⋯ + 𝑎𝑚𝑛 𝑥𝑛 = 𝑏𝑚
Donde:
1
𝑎𝑖𝑗 : coeficiente de variable
𝑥𝑗 : Variable o incógnita
𝑏𝑖 : término independiente
El número de ecuaciones m puede ser menor, igual o mayor que el número de
incógnitas n. De la definición de multiplicación de matrices, podemos realizar una
representación matricial, concisa y elegante, de un sistema de ecuaciones lineales:
𝐴. 𝑋 = 𝐵
donde:
𝑎11 𝑎12 𝑎13 … 𝑎1𝑛 𝑥1 𝑏1
𝑎21 𝑎22 𝑎23 … 𝑎2𝑛 𝑥2 𝑏2
𝐴= 𝑎31 𝑎32 𝑎33 … 𝑎3𝑛 𝑋 = 𝑥3 𝑦 𝐵 = 𝑏3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
(𝑎𝑚1 𝑎𝑚2 𝑎𝑚3 … 𝑎𝑚𝑛 )𝑚×𝑛 (𝑥𝑛 )𝑛×1 (𝑏𝑚 )𝑚×1
La matriz 𝐴 ∈ 𝑀𝑚×𝑛 está formada con los coeficientes 𝑎𝑖𝑗 del sistema; la matriz 𝑋 ∈
𝑀𝑛𝑥1 , por las incógnitas 𝑥𝑖 del sistema; y 𝐵 ∈ 𝑀𝑚𝑥1 , por los términos independientes 𝑏𝑖
del sistema. Como se indicó, con la definición de multiplicación de matrices, es fácil
ver que la representación matricial 𝐴𝑋 = 𝐵 se reduce a la representación explícita del
sistema de ecuaciones lineales:
𝐴𝑋 = 𝐵
𝑎11 𝑎12 𝑎13 … 𝑎1𝑛 𝑥1 𝑏1
𝑎21 𝑎22 𝑎23 … 𝑎2𝑛 𝑥2 𝑏2
𝑎31 𝑎32 𝑎33 … 𝑎3𝑛 ∗ 𝑥3 = 𝑏3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
(𝑎𝑚1 𝑎𝑚2 𝑎𝑚3 … 𝑎𝑚𝑛 )𝑚×𝑛 (𝑥𝑛 )𝑛×1 (𝑏𝑚 )
𝑚×1
⋮ ⋮
( 𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + ⋯ + 𝑎𝑚𝑛 𝑥𝑛 )𝑚𝑥𝑛 (𝑏𝑚 )𝑚×1
2
del sistema lineal, cada una de ellas se reduce a una identidad:
ai1 s1 + ai2 s2 + · · · + ain sn = bi i = 1, 2, . . . , m
Solo existen tres posibilidades de solución de un sistema lineal:
No existe solución: No existe un conjunto de valores para las incógnitas xi que
satisfaga todas las ecuaciones simultáneamente.
𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
C. S. = ∅
Sistema inconsistente
Resolver el sistema da una falsedad.
Solución única: Existe uno y solo un conjunto de valores para las incógnitas 𝑥𝑖 que
satisface todas las ecuaciones simultáneamente.
Se dice que existe un único vector que es solución para el sistema.
𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
𝑥1
𝑥2
C. S. ={𝑉𝑖 ∈ 𝑉}, 𝑉𝑖 particular 𝑉1 → 𝑋𝑗 𝑢𝑛𝑖𝑐𝑎 𝑥3
⋮
𝑥
( 𝑛)
a) Solución única trivial (Trivial: sin importancia)
C. S. ={0𝑣 ∈ 𝑉}
0
0
𝑋𝑗 = 0 𝑋𝑛𝑥1 = 0
⋮
( 0)
Su solución se ubicará en el punto de origen
b) Solución única no trivial Al menos tiene una variable distinta de cero
C. S. ={𝑉1 ∈ 𝑉}
0
0
∃𝑋𝑗 ≠ 0 𝑋𝑛𝑥1 ≠ 0𝑛𝑥1 0
⋮
𝑋
( 𝑗)
Infinitas soluciones: Existen infinito conjunto de valores para las incógnitas 𝑥𝑖 que
satisfacen todas las ecuaciones simultáneamente. Es sencillo probar que si un sistema
tiene más de una solución, tiene, en realidad, un número infinito de soluciones.
𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
C. S. ={∀ 𝑉𝑖 ∈ 𝑉/ 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛}
C. S. = 𝑊𝑖 𝑠. 𝑒. 𝑣. C. S. = 𝑊𝑖 𝑠𝑢𝑏𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜
3
Homogéneo: si y solo si todas las ecuaciones están igualadas a cero.
𝐵𝑚𝑥1 = 0𝑚𝑥1
No Homogéneo: si y solo si todas las ecuaciones difieren de cero.
𝐵𝑚𝑥1 ≠ 0𝑚𝑥1
Según el número de incógnitas
3𝑥 − 5𝑦 = 7
2𝑥 − 8𝑦 = −5
Si se multiplica la primera ecuación por -2 y la segunda por 4:
4
Definición 3.5 (Sistemas lineales homogéneos y no homogéneos) Un sistema de
ecuaciones lineales 𝐴𝑋 = 𝐵 se llama homogéneo si 𝐵 = 𝑂 . Si 𝐵 ≠ 𝑂 el sistema se
llama no homogéneo.
2 2 2 2 12 (1⁄2)𝑓1 1 1 1 1 6 1 1 1 16
3 12 𝑓2 − 𝑓1 0
(𝐴|𝐵)~ (1 1 3 3 12 1 1 3 0 2 26
| ) ~( | ) ( | )
1 1 2 3 12 1 1 2 3 12 𝑓3 − 𝑓1 0 0 1 26
1 3 3 3 14 1 3 3 3 14 𝑓4 − 𝑓1 0 2 2 2 8 (1⁄2)𝑓4
1 1 1 16 1 1 1 16 1 1 1 1 6
0 0 2 26 0 1 1 14 0 1 1 1 4
~( | ) ~( | ) ~( | )
0 0 1 26 0 0 1 26 0 0 1 2 6
0 1 1 1 4 𝑓4 ⟷ 𝑓2 0 0 2 2 6 𝑓4 − 2𝑓3 0 0 0 −2 −6 −(1⁄2)𝑓4
1 1 1 16
0 1 1 14
~( | ) = (𝐶|𝐷)
0 0 1 26
0 0 0 13
El sistema 𝐶𝑋 = 𝐷
𝑥1 + 𝑥2 + 𝑥3 + 𝑥4 = 6,
𝑥 + 𝑥3 + 𝑥4 = 4,
{ 2
𝑥3 + 2𝑥4 = 6,
𝑥4 = 3,
es equivalente al original 𝐴𝑋 = 𝐵, pero es más fácil de resolver. Se lo resuelve al
empezar a encontrar el valor de las incógnitas desde la última ecuación hacia la
primera:
𝑥4 = 3,
𝑥 = 6 − 2𝑥4 = 6 − 2 ∗ 3 = 0,
{ 3
𝑥2 = 4 − 𝑥3 − 𝑥4 = 4 − 0 − 3 = 1,
𝑥1 = 6 − 𝑥2 − 𝑥3 − 𝑥4 = 6 − 1 − 0 − 3 = 2,
Hemos encontrado que el sistema tiene solución y que tal solución es única.
Verifiquemos que la solución encontrada del sistema 𝐶𝑋 = 𝐷 es también solución del
sistema original 𝐴𝑋 = 𝐵. Es decir, si la matriz
5
𝑆 = (2 1 0 3) 𝑇
es solución del sistema 𝐶𝑋 = 𝐷, también es solución del sistema 𝐴𝑋 = 𝐵:
2 2 2 12 2 12
1 1 3 3 1 12
( )( ) = ( )
1 1 2 3 0 12
1 3 3 3 3 14
Ejemplo
Resolver el sistema lineal del ejemplo anterior por el método de Gauss-Jordan.
Solución.
Hallemos la matriz escalonada reducida por filas de la matriz ampliada del sistema
partiendo desde la ya encontrada matriz escalonada:
2 2 2 2 12 (1⁄2)𝑓1 1 1 1 1 6 1 1 1 16
3 12 𝑓2 − 𝑓1 0
(𝐴|𝐵)~ (1 1 3 3 12 1 1 3 0 2 26
| ) ~( | ) ( | )
1 1 2 3 12 1 1 2 3 12 𝑓3 − 𝑓1 0 0 1 26
1 3 3 3 14 1 3 3 3 14 𝑓4 − 𝑓1 0 2 2 2 8 (1⁄2)𝑓4
1 1 1 16 1 1 1 1 6 𝑓1 − 𝑓2 1 0 0 0 2
0 0 2 26 0 1 1 14 0 1 1 1 4 𝑓 − 𝑓3
~( | ) ~( | ) ~( | ) 2
0 0 1 26 0 0 1 26 0 0 1 2 6
0 1 1 1 4 𝑓4 ⟷ 𝑓2 0 0 2 26 0 0 0 −2 −6 −(1⁄2)𝑓4
1 0 0 0 2 1 0 0 02
0 1 0 −1 −2 𝑓2 + 𝑓4 0 1 0 01
~( | ) ~( | ) = (𝐸|𝐹)
0 0 1 2 6 2𝑓3 − 𝑓4 0 0 1 00
0 0 0 1 3 0 0 0 13
El sistema lineal 𝐸𝑋 = 𝐹, equivalente al sistema original 𝐴𝑋 = 𝐵, puede escribirse
explícitamente como
𝑥 = 2, 𝑦 = 1, 𝑧 = 0, 𝑤 = 3,
el cual, a su vez, es ya la solución del sistema.
Obsérvese que en este caso el sistema lineal tiene solución única y que:
1. El rango de la matriz de coeficientes es igual al rango de la matriz ampliada:
𝑟𝑎𝑛𝐴 = 4 = 𝑟𝑎𝑛(𝐴 | 𝐵)
2. Dicho rango es igual al número de incógnitas:
𝑟𝑎𝑛𝐴 = 𝑟𝑎𝑛(𝐴 |𝐵) = 4 = 𝑛
Resolver por el método de Gauss-Jordan el sistema lineal
𝑥 + 2𝑦 + 𝑤 = 7,
{𝑥 + 𝑦 + 𝑧 − 𝑤 = 3,
3𝑥 + 𝑦 + 5𝑧 − 7𝑤 = 1.
6
Solución.
Sea (𝐴 | 𝐵) la matriz ampliada del sistema lineal. Hallemos su matriz escalonada
reducida por filas:
1 2 0 1 7 1 2 0 1 7
(𝐴|𝐵) = (1 1 1 | )
−1 3 2𝑓 − 𝑓1 ~ ( 0 −1 1 −2 −4 ) −𝑓2
|
3 1 5 −7 1 𝑓3 − 3𝑓1 0 −5 5 −10 −20
1 2 0 1 7 𝑓1 − 2𝑓2 1 0 2 −3 −1
~ (0 1 −1 2 | 4 ) ~ ( 0 1 −1 2 | 4 ) = (𝐶|𝐷)
0 −5 5 −10 −20 𝑓3 + 5𝑓2 0 0 0 0 0
La tercera ecuación
0𝑥 + 0𝑦 + 0𝑧 + 0𝑤 = 0
del sistema 𝐶𝑋 = 𝐷 tiene como solución cualesquiera conjunto de valores de las
incógnitas 𝑥, 𝑦, 𝑧 𝑦 𝑤. Por lo tanto,cualesquiera solución de las dos primeras
ecuaciones será también solución de la tercera. Por ello el sistema lineal 𝐶𝑋 = 𝐷 lo
escribimos así:
x + 2z − 3w = −1,
{
y − z + 2w = 4.
Para empezar a dar la solución del sistema, pensemos solamente en la segunda
ecuación. Parece que hay una gran amplitud para los valores de y, z y w. Intentemos
escogiendo valores arbitrarios para 𝑧 y 𝑤. Sean 𝑧 = 𝑡 ∈ 𝑅 y 𝑤 = 𝑢 ∈ 𝑅. Para la
incógnita 𝑦 ya no podemos escoger cualquier valor, sino que lo encontramos
despejando 𝑦 de la segunda ecuación:
𝑦 = 4 + 𝑧 − 2𝑤 = 4 + 𝑡 − 2𝑢.
Procedamos de igual manera con la primera ecuación. Como los valores de 𝑧 y 𝑤 ya
están fijados, despejamos x:
𝑥 = −1 − 2𝑧 + 3𝑤 = −1 − 2𝑡 + 3𝑢
Escribamos la solución del sistema 𝐶𝑋 = 𝐷 en forma de la matriz
−1 − 2𝑡 + 3𝑢
4 + 𝑡 − 2𝑢
𝑆=( ) 𝑡, 𝑢 ∈ ℝ
𝑡
𝑢
Como los parámetros 𝑡 y 𝑢 pueden asumir cualquier valor en los números reales
tenemos que el sistema 𝐶𝑋 = 𝐷 tiene número infinito de soluciones. Por ejemplo, 𝑆1 y
𝑆2 son dos de dichas soluciones:
3 6
1 0
𝑆1 = ( ) si 𝑡 = 1, 𝑢 = 2 y 𝑆2 = ( ) si 𝑡 = −2, 𝑢 = 1
1 −2
2 1
Podríamos verificar que 𝑆1 y 𝑆2 son soluciones del sistema 𝐶𝑋 = 𝐷 y también del
sistema 𝐴𝑋 = 𝐵. Comprobemos que la matriz 𝑆 es solución del sistema original 𝐴𝑋 =
𝐵 que se nos dio a resolver. Sean 𝑡, 𝑢 ∈ 𝑅. Entonces:
7
−1 − 2𝑡 + 3𝑢
1 2 0 1
4 + 𝑡 − 2𝑢
𝐴 ∗ 𝑆 = (1 1 1 −1) ( ) 𝑡, 𝑢 ∈ ℝ
𝑡
3 1 5 −7
𝑢
(−1 − 2t + 3u) + 2(4 + t − 2u) + 0 + u 7
( (−1 − 2t + 3u) + (4 + t − 2u) + t − u ) = (3) = 𝐵
3(−1 − 2t + 3u) + (4 + t − 2u) + 5t − 7u 1
Ejemplo
Si es posible, resolver el sistema lineal
𝑥 + 2𝑦 + 3𝑧 = 6,
{−2x + 3y − 5z = 4,
x + 9y + 4z = 10.
Solución. c
Sea (𝐴 | 𝐵) la matriz ampliada del sistema lineal. Hallemos su matriz escalonada
reducida por filas:
1 2 3 6 1 2 3 6 1 2 3 6
(𝐴|𝐵) = (−2 3 −5| 4 ) 𝑓2 + 2𝑓1 ~ (0 7 1|16) (0 7 1| 4 ) = (𝐶|𝐷)
1 9 4 10 𝑓3 − 𝑓1 0 7 1 4 𝑓3 − 𝑓2 0 0 0 −12
El sistema equivalente (𝐶𝑋 = 𝐷) puede escribirse así:
𝑥 + 2𝑦 + 3𝑧 = 6
{−2x + 3y − 5z = 4,
0x + 0y + 0z = − 12.
Claramente se ve que no existen números 𝑥, 𝑦 y 𝑧 que satisfagan la tercera ecuación.
Si la tercera ecuación no tiene solución, entonces el sistema lineal 𝐴𝑋 = 𝐵 tampoco
tiene solución.
Observemos que, en este caso, el rango de la matriz de los coeficientes es menor que
el rango de la matriz ampliada del sistema:
𝑟𝑎𝑛𝐴 = 2 < 3 = 𝑟𝑎𝑛(𝐴 |𝐵).
En los tres ejemplos anteriores hemos encontrado que en los que existe solución, el
rango de la matriz de los coeficientes es igual al rango de la matriz ampliada del
sistema. Si, además, ese rango es igual al número de incógnitas la solución es única;
pero si el rango es menor al número de incógnitas, el sistema lineal tiene número
infinito de soluciones. También hemos encontrado que si el rango de la matriz de los
coeficientes es menor que el rango de la matriz ampliada del sistema, entonces el
sistema no tiene solución. Por supuesto, los ejemplos estudiados no son suficientes
8
para concluir que esto siempre es así. Sin embargo, se puede demostrar que esto
ocurre así efectivamente, por lo que enunciamos el siguiente teorema
9
Ejemplo
Usar la regla de Cramer para encontrar la solución del sistema lineal
𝑥 + 2𝑦 + 3𝑧 = 13,
{2𝑥 + 3𝑦 + 𝑧 = 10,
3𝑥 + 𝑦 + 2𝑧 = 13
Solución.
Sea 𝐴𝑋 = 𝐵 la representación matricial del sistema. Hallemos el determinante de la
matriz de coeficientes:
1 2 3
|𝐴| = |2 3 1| = −18 ≠ 0
3 1 2
Entonces el sistema tiene solución única que la hallamos con la regla de Cramer:
1 13 2 3 1
𝑥= |10 3 1| = (−36) = 2
−18 −18
13 1 2
1 1 13 3 1
𝑦= |2 10 1| = (−18) = 1
−18 −18
3 13 2
1 1 2 13 1
𝑧= |2 3 10| = (−54) = 3
−18 −18
3 1 13
Ejercicio
Sea el sistema lineal:
−𝑥 + 𝑦 − 𝑧 = 𝑚 − 𝑝 + 2,
(𝑝 + 1)𝑥 + 𝑦 + 𝑧 = 2𝑚 + 2,
{
𝑥 + 𝑧 = 𝑚,
(𝑝 + 1)𝑥 − 𝑦 + 𝑧 = 𝑝 − 2
10
𝑝 0 0 𝑚 𝑝 0 0 𝑚 𝑝 0 0 𝑚
1 1 1 𝑚+2 𝑓2 − 𝑓3 0 1 0 2 0 1 0 2
( | 𝑚 ) ~( | 𝑚 ) ~( | ) ~
1 0 1 1 0 1 1 0 1 𝑚
1 −1 1 𝑝 − 𝑚 − 2 𝑓4 − 𝑓1 1 −1 1 𝑝 − 𝑚 − 2 𝑓4 + 𝑓2 1 0 1 𝑝 − 𝑚 𝑓4 − 𝑓3
𝑝 0 0 𝑚
0 1 0 2
( | 𝑚 ) = (𝐶|𝐷)
1 0 1
0 0 0 𝑝 − 2𝑚
Dependiendo de los valores de 𝑚 𝑦 𝑝 el rango de la matriz 𝐴 sera igual o menor que el
rango de la matriz ampliada (𝐴 | 𝐵) y, por lo tanto, el sistema 𝐴𝑋 = 𝐵 tendrá o no
solución. Estudiemos cada caso.
Sea 𝑝 ≠ 2𝑚.
Entonces 𝑟𝑎𝑛(𝐴) = 2 < 3 = 𝑟𝑎𝑛(𝐴| 𝐵)
Sea 𝑝 = 2𝑚.
El sistema 𝐴𝑋 = 𝐵 se convierte en el sistema
2𝑚𝑥 = 𝑚,
{y = 2,
𝑥 + 𝑧 = 𝑚.
Sea 𝐸𝑋 = 𝐹 su representación matricial. El determinante de la matriz de los
coeficientes es
2𝑚 0 0
|𝐸| = | 0 1 0| = 2𝑚
1 0 1
El valor del determinante depende del valor de m. Entonces:
11
a) Sean 𝑝, 𝑚 ∈ 𝑅 tales que 𝑝 = 2𝑚 y 𝑚 ≠ 0. Entonces el sistema dado tiene la
solución única
1⁄2
𝑆=( 2 )
𝑚 − (1⁄2)
b) Sean 𝑚 = 0 y 𝑝 = 0. Entonces el sistema dado tiene número infinito de
soluciones dados por la matriz
−𝑟
𝑆=(2) 𝑟∈ℝ
𝑟
c) ) Sean 𝑝, 𝑚 ∈ 𝑅 tales que 𝑝 ≠ 2𝑚. Entonces el sistema dado no tiene
solución.
Resumen
1. Matriz Ampliada
Sea 𝑆𝑖 un Sistema de Ecuaciones Lineales (S.E.L) representadas por:
𝐴mxn ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
(𝐴𝑚𝑥𝑛 ⃒𝐵𝑚×1 )
# 𝑓𝑖𝑛𝑖𝑡𝑜 𝑑𝑒 𝑜𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑎𝑙𝑒𝑠
𝑀é𝑡𝑜𝑑𝑜 𝑑𝑒 𝐺𝑎𝑢𝑠𝑠 − 𝐽𝑜𝑟𝑑𝑎𝑛
(𝐴∗ 𝑚𝑥𝑛 ⃒𝐵∗ 𝑚×1 )
2. Matriz inversa
Sea 𝑆𝑖 un Sistema de Ecuaciones Lineales (S.E.L) representadas por:
𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
Condición: 𝑚 = 𝑛: # 𝐸𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 = # 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠
𝐴𝑚𝑥𝑛 = 𝐴𝑛𝑥𝑛 → ∃ |𝐴𝑛𝑥𝑛 | → |𝐴𝑛𝑥𝑛 | ≠ 0
𝐴 es inversible → Existirá 𝐴𝑛𝑥𝑛 −1
𝐴𝑛𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
𝐴𝑛𝑥𝑛 −1 ∗ 𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐴𝑛𝑥𝑛 −1 ∗ 𝐵𝑛𝑥1
𝐼𝑛𝑥𝑛 ∗ 𝑋𝑛𝑥1 −1 = 𝐴𝑛𝑥𝑛 −1 ∗ 𝐵𝑛𝑥1
𝑋𝑛𝑥1 = 𝐶𝑛𝑥1
Sucede siempre que busque solución única
3. Crammer o por determinantes
Sea 𝑆𝑖 un Sistema de Ecuaciones Lineales (S.E.L) representadas por:
𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 𝐵𝑚𝑥1
Condición: 𝑚 = 𝑛: # 𝐸𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 = # 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠
𝐴𝑚𝑥𝑛 = 𝐴𝑛𝑥𝑛 → ∃ |𝐴𝑛𝑥𝑛 | → |𝐴𝑛𝑥𝑛 | ≠ 0
𝑎11 𝑎12 … 𝑎1(𝑖−1) 𝑏1 𝑎1(𝑖+1) … 𝑎1𝑛
1 𝑎21 𝑎22 … 𝑎2(𝑖−1) 𝑏2 𝑎2(𝑖+1) … 𝑎2𝑛
𝑥𝑖 = | || 𝑖 = 1,2,3, … , 𝑛
|𝐴| | ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛(𝑖−1) 𝑏𝑛 𝑎𝑛(𝑖+1) … 𝑎𝑛𝑛
12
Análisis
1. m=n
ii.|𝑨𝒏𝒙𝒏 | = 𝟎
Espero Infinitas soluciones o ninguna solución
a) Si es homogéneo
Espero Infinitas soluciones
→ C. S. = 𝑊𝑖 {∀𝑉𝑖 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛}(𝑠𝑢𝑏𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜)
b) Si es no homogéneo
Espero Infinitas soluciones o ninguna solución
→ C. S. = 𝑊𝑖 v C. S. = ∅
Se resuelve por matriz ampliada
2. m < n
No puedo encontrar solución única
a) Sistema homogéneo: 𝐴𝑚𝑥𝑛 ∗ 𝑋𝑛×1 = 0𝑚𝑥1
Espero infinitas soluciones
b) Sistema no homogéneo
Espero infinitas soluciones o ninguna solución
→ C. S. = 𝑊𝑖 v C. S. = ∅ → 𝑆𝑜𝑙𝑢𝑐𝑖𝑜𝑛 𝑒𝑠 𝑓𝑎𝑙𝑠𝑜
Se resuelve con ampliada
3. m > n
Solución depende del sistema
i. Solución única
ii. Infinitas soluciones → 𝑊𝑖 𝑒𝑠 𝑆. 𝑒. 𝑣. 𝑜 𝑠𝑢𝑏𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜
iii. Ninguna solución → C. S. = ∅
Ejemplo:
𝑥1 + 2𝑥2 − 𝑥3 + (1⁄2)𝑥4 = 0
{−𝑥1 + (1⁄3)𝑥3 + 2𝑥4 = 0
−(1⁄4)𝑥1 + 2𝑥2 − 𝑥3 + 𝑥4 = 0
13
𝑥1
1 2 −1 1⁄2 𝑥2
( −1 0 1⁄3 2 ) (𝑥 )
3
−(1⁄4) 2 −1 1
3𝑥4 𝑥4 4𝑥1
Análisis:
𝑚 = 3, 𝑛 = 4; 𝑚 < 𝑛 Escasamente determinado
Sistema homogéneo
Espero infinitas soluciones
Método la ampliada
1 2 −1 (1⁄2) 0 1 2 −1 (1⁄2) 0
( −1 0 (1⁄3) 2 |0) 𝑓2 + 𝑓1 ~ (0 2 −(2⁄3) (5⁄2)|0) (1⁄2)𝑓2 ~
−(1⁄4) 2 −1 1 0 𝑓3 + (1⁄4)𝑓1 0 (5⁄2) −(5⁄4) (9⁄8) 0
1 2 −1 (1⁄2) 0 1 2 −1 (1⁄2) 0
(0 1 ⁄
−(1 3 ) (5 ⁄ )
4 |0) ~ (0 1 ⁄
−(1 3 ) (5⁄4)|0) ~
0 (5⁄2) −(5⁄4) (9⁄8) 0 𝑓3 − (5⁄2)𝑓2 0 0 −(5⁄12) −2 0 −(12⁄5)𝑓3
1 2 −1 (1⁄2) 0
(0 1 −(1⁄3) (5⁄4) |0)
0 0 1 (24⁄5) 0
𝝀𝒙 + 𝒚 + 𝒛 = 𝟏
a) { 𝒙 + 𝝀𝒚 + 𝒛 = 𝝀
𝒙 + 𝒚 + 𝝀𝒛 = 𝝀𝟐
Análisis: 𝑚 = 𝑛 = 3 → ∃ |𝐴𝑛𝑥𝑛 |
Calculando su determinante se obtiene:
14
|𝐴| ≠ 0 𝑠𝑠𝑖 𝜆 ≠ −2 ∧ 𝜆 ≠ 1 ⇒ ∃𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 ú𝑛𝑖𝑐𝑎 𝑠𝑖 𝜆 ≠ −2 ∨ 𝜆 ≠ 1
𝜆 1 1 𝜆 1−𝜆 1−𝜆 𝜆 −1 −1 𝑓1 + 𝑓2
𝐶 − 𝐶 (𝜆 2
△ 𝑧 = |1 𝜆 𝜆| 2 1 = |1 𝜆−1 𝜆 − 1 | = − 1) |1 1 1 | =
1 1 𝜆2 𝐶3 − 𝐶1 1 0 𝜆2 − 1 1 0 𝜆+1
𝜆+1 0 0
1 1
△ 𝑧 = (𝜆 − 1)2 | 1 1 1 | = (𝜆 − 1)2 (𝜆 + 1) | | = (𝜆 − 1)2 (𝜆 + 1)2
0 𝜆+1
1 0 𝜆+1
△𝑧 (𝜆2 − 1)2 (𝜆 + 1)2
𝑧= = =
|𝐴| (𝜆 + 2)(𝜆 − 1)2 (𝜆 + 2)
−(1 + 𝜆) 1 (𝜆 + 1)2
𝐶. 𝑆 = ( , , )
(𝜆 + 2) (𝜆 + 2) (𝜆 + 2)
1 1 11 1 1 11
(1 1 1|1) 𝑓2 − 𝑓1 ∼ (0 0 0|0)
1 1 1 1 𝑓3 − 𝑓1 0 0 00
El sistema inicial quedaría de la siguiente forma:
15
𝑥+𝑦+𝑧 =1
Si 𝑧 = 𝑡 ∧ 𝑦 = 𝑢 𝑐𝑜𝑛 𝑢, 𝑡 ∈ ℝ ⇒ 𝑥 = 1 − 𝑡 − 𝑢 al despejar
Obteniéndose infinitas soluciones con el siguiente conjunto solución
𝐶. 𝑆 = (1 − 𝑡 − 𝑢, 𝑢, 𝑡)𝑐𝑜𝑛 𝑢, 𝑡 ∈ ℝ
(𝝀 + 𝟐)𝒂𝒐 + 𝒂𝟏 + 𝒂𝟐 = 𝟏
𝒂𝒐 + (𝝀 + 𝟐)𝒂𝟏 + 𝒂𝟐 = 𝟏
b)
𝒂𝒐 + 𝒂𝟏 + (𝝀 + 𝟐)𝒂𝟐 = 𝟏
{(𝝀 + 𝟑)𝒂𝒐 + (𝟐𝝀 + 𝟒)𝒂𝟏 + (𝟏 − 𝝀)𝒂𝟐 = 𝟐
(𝜆 + 2) 1 1 1
𝑎0
1 (𝜆 + 2) 1 1
( ) (𝑎1 ) = ( )
1 1 (𝜆 + 2) 𝑎2 1
(𝜆 + 3) (2𝜆 + 4) (1 − 𝜆) 2
Análisis
𝑚 > 𝑛 Sistema No Homogéneo. Solución depende del sistema.
(𝜆 + 2) 1 1 1 (𝜆 + 2) 1 1 1
1 (𝜆 + 2) 1 1 (𝜆 + 2) 1
~( 1 1
( | ) | )
1 1 (𝜆 + 2) 1 1 1 (𝜆 + 2) 1
(𝜆 + 3) (2𝜆 + 4) (1 − 𝜆) 2 𝑓4 − (𝑓1 + 2𝑓2 − 𝑓3 ) 0 0 0 0
(𝜆 + 2) 1 1 𝑓1 + 𝑓2 + 𝑓3 (𝜆 + 4) (𝜆 + 4) (𝜆 + 4)
|𝐴| = | 1 (𝜆 + 2) 1 | =| 1 (𝜆 + 2) 1 |
1 1 (𝜆 + 2) 1 1 (𝜆 + 2)
1 1 1 1 0 0
|𝐴| = (𝜆 + 4) |1 (𝜆 + 2) 1 | 𝐶2 − 𝐶1 = (𝜆 + 4) |1 (𝜆 + 1) 0 |
1 1 (𝜆 + 2) 𝐶3 − 𝐶1 1 0 (𝜆 + 1)
−2 1 1 1 𝑓1 + 2𝑓2 0 −3 33 0 −3 3 3
1 −2 11 1 −2 11 1 −2 1 1
( | ) ~( | ) ~( | )
1 1 −2 1 𝑓3 − 𝑓2 0 3 −3 0 𝑓3 + 𝑓1 0 0 0 3
−1 −4 5 2 𝑓4 − 𝑓2 0 −6 6 3 𝑓4 − 2𝑓1 0 0 0 −3
16
Si 𝜆 = −1
1 1 11 1 1 11
1 1 1 1 𝑓2 − 𝑓1 0 0 00
( | ) ~( | )
1 1 1 1 𝑓3 − 𝑓1 0 0 00
2 2 2 2 𝑓4 − 2𝑓1 0 0 00
Como existe solo una ecuación y 3 variables, es decir 𝑚 < 𝑛 existen infinitas
soluciones, cuyo conjunto solución será.
𝐶. 𝑆 = (1 − 𝑡 − 𝑢, 𝑢, 𝑡)𝑢, 𝑡 ∈ ℝ
0 −2 2 0 𝑓1 − 𝑓2 0 0 0 0 0 0 0 0
(0 −2 2 |0) ~( 0 −2 2 |0) −(1⁄2)𝑓2 ~ ( 0 1 −1|0)
−1 1 −1 0 −1 1 −1 0 −1 1 −1 0 𝑓3 − 𝑓2
0 0 0 0 0 0 0 0 𝑓1 ↔ 𝑓3 1 0 0 0
( 0 1 −1|0) ~ (0 1 −1|0) ~ (0 1 −1|0)
−1 0 0 0 −𝑓3 1 0 0 0 0 0 0 0
Tenemos el siguiente sistema equivalente:
𝑥=0
{ Si 𝑧 = 𝑡 → 𝑦 = 𝑡; 𝑡𝜖ℝ
𝑦−𝑧 =0
2 −1 3 2 𝑓1 − 𝑓2 2 0 2 2 (1⁄2)𝑓1 1 0 1 1
(0 −1 1 |0) ~ (0 −1 1|0) −𝑓2 ~ (0 1 −1|0)
0 1 −1 1 𝑓3 + 𝑓2 0 0 01 0 0 0 1
Si observamos la última matriz equivalente:
17
Si 𝑚 = 1
4 0 4 4 𝑓1 − 4𝑓4 0 −4 8 −4 −(1⁄4)𝑓1 0 1 −2 1
(0 0 𝑓
0 |0) 2 ↔ 𝑓3 ~ (1 1 −1| 2 ) ~ (1 1 −1|2) 𝑓2 − 𝑓1
1 1 −1 2 𝑓3 + 𝑓2 0 0 0 0 0 0 0 0
0 1 −2 1 𝑓1 ↔ 𝑓2 1 0 1 1
~ (1 0 1 | 1) ~ (0 1 −2|1)
0 0 0 0 0 0 0 0
Este sistema tiene 𝑚 = 2 ∧ 𝑛 = 3, por lo tanto, infinitas soluciones.
Si 𝑧 = 𝑡 entonces 𝑥 = 1 − 𝑡 ∧ 𝑦 = 1 + 2𝑡, por lo que el conjunto solución es:
𝐶. 𝑆 = {∀ 𝑣𝑖 ∈ ℝ3 ⁄𝑥 = 1 − 𝑡, 𝑦 = 1 + 2𝑡, 𝑧 = 𝑡 ∕ 𝑧 ∈ ℝ}
(𝝀 + 𝟏)𝒂𝒐 + 𝒂𝟏 + 𝒂𝟐 = 𝟏
𝒂 + (𝝀 + 𝟏)𝒂𝟏 + 𝒂𝟐 = 𝟏
d 𝒐
𝒂𝒐 + 𝒂𝟏 + (𝝀 + 𝟏)𝒂𝟐 = 𝟏
{(𝝀 + 𝟑)𝒂𝒐 (𝟐𝝀 + 𝟒)𝒂𝟏 + (𝟏 − 𝝀)𝒂𝟐 = 𝟐
Análisis
𝑚 > 𝑛 Sistema No Homogéneo. Solución depende del sistema
(𝜆 + 1) 1 1 1 𝑓1 ↔ 𝑓3 1 1 (𝜆 + 1) 1
1 (𝜆 + 1) 1 1 1 (𝜆 + 1) 1 1 𝑓 − 𝑓1
( | ) ~( | ) 2
1 1 (𝜆 + 1) 1 (𝜆 + 1) 1 1 1 𝑓3 − (𝜆 + 1)𝑓1
(𝜆 + 3) (2𝜆 + 4) (1 − 𝜆) 2 (𝜆 + 3) (2𝜆 + 4) (1 − 𝜆) 2 𝑓4 − 𝑓1 − 𝑓2 − 𝑓3
1 1 (𝜆 + 1) 1 𝜆 ≠ 0 1 1 (𝜆 + 1) 1
0 𝜆 −𝜆 0 (1⁄𝜆)𝑓2 0 1 −1 0
~( | ) ~( | )
0 −𝜆 −𝜆2 − 2𝜆 −𝜆 (1⁄𝜆)𝑓3 0 −1 −𝜆 − 2 −1 𝑓3 + 𝑓2
0 (𝜆 + 1) (−2 − 2𝜆) −1 0 (𝜆 + 1) (−2 − 2𝜆) −1 𝑓4 − (𝜆 + 1)𝑓2
1 1 (𝜆 + 1) 1 1 1 (𝜆 + 1) 1
0 1 −1 0 0 1 −1 0
~( | ) ~( (𝜆 + 3)(1 + 𝜆)𝑓3 | (1 + 𝜆)𝑓3 )
0 0 −(𝜆 + 3) −1 −(1 + 𝜆)𝑓3 0 0
0 0 −(1 + 𝜆) −1 (𝜆 + 3)𝑓4 0 0 −(1 + 𝜆)(𝜆 + 3) −2(𝜆 + 3) 𝑓4 + 𝑓3
1 1 (𝜆 + 1) 1
0 1 −1 0
( | )
0 0 (𝜆 + 3)(1 + 𝜆)𝑓3 (1 + 𝜆)𝑓3
0 0 0 −2
Si 𝜆 ≠ 0 entonces no existe solución.
Ahora cuando 𝜆 = 0 se tiene:
1 1 11 1 1 1 1 𝑓1 − 𝑓4 1 0 3 2
1 1 1 1 𝑓2 − 𝑓1 0 0 0 0 0 0 0 0
( | ) ~( | ) ~( | )
1 1 1 1 𝑓3 − 𝑓1 0 0 0 0 0 0 0 0
3 4 1 2 𝑓4 − 3𝑓1 0 1 −2 −1 0 1 −2 −1
Existen infinitas soluciones cuyo conjunto solución es:
18
(2 − 3𝑡, 2𝑡 − 1, 𝑡)𝑡 ∈ ℝ
𝒂𝒙 + 𝒚 + 𝒛 = 𝒂
𝒙 + 𝒂𝒚 − 𝒛 = 𝟏
e) {
𝟑𝒙 + 𝒚 + 𝒃𝒛 = 𝟐
𝒙−𝒚−𝒛=𝟏
Análisis
𝑚 > 𝑛 Sistema No Homogéneo. Solución depende del sistema
𝑎 1 1 𝑎 𝑓1 − 𝑎𝑓4 0 1 + 𝑎 1 + 𝑎 0 (1⁄1 + 𝑎)𝑓1 , 𝑎 ≠ −1
1 𝑎 −1 1 𝑓2 − 𝑓4 0 𝑎+1 0 0 (1⁄1 + 𝑎)𝑓2 , 𝑎 ≠ −1
( | ) ≈( | ) ≈
3 1 𝑏 2 𝑓3 − 3𝑓4 0 4 𝑏 + 3 −1
1 −1 −1 1 1 −1 −1 1
0 1 1 0 0 1 1 0 𝑓1 + 𝑓2
0 1 0 0 𝑓 − 𝑓 0 0 −1 0 −𝑓2
( | ) 2 1
≈( | )
0 4 𝑏 + 3 −1 𝑓3 − 4𝑓1 0 0 𝑏 − 1 −1 𝑓3 + (𝑏 − 1)𝑓2
1 −1 −1 1 𝑓4 + 𝑓1 1 0 0 1
0 1 0 0 Si 𝑎 ≠ −1 ∧ 𝑏 𝜖 𝑅 el sistema no tiene solución. Eso se referencia en la
0 0 1 0
( | ) tercera fila pues dice que 0 = −1. Lo cual es absurdo.
0 0 0 −1
1 0 0 1
Si 𝑎 = −1
−1 1 1 −1 𝑓1 + 𝑓4 0 0 0 0
1 −1 −1 1 𝑓2 − 𝑓4 0 0 0 0
( | ) ≈( | )
3 1 𝑏 2 𝑓3 − 3𝑓4 0 4 𝑏 + 3 −1 (1⁄4)𝑓3
1 −1 −1 1 1 −1 −1 1
0 1 (𝑏 + 3)⁄4 − 1⁄4 0 1 (𝑏 + 3)⁄4 − 1⁄4
( | ) ≈( | )
1 −1 −1 1 𝑓2 + 𝑓1 1 0 (𝑏 − 1)⁄4 3⁄4
Una vez escalonada la matriz se tiene que existen infinitas soluciones pues 𝑚 < 𝑛 y
𝑟𝑎𝑛(𝐴) = 𝑟𝑎𝑛(𝐴|𝐵).
(3⁄4) − ((𝑏 − 1)⁄4)𝑡
𝐶. 𝑆 = (−(1⁄4) − ((𝑏 + 3)⁄4)𝑡)
𝑡
(𝒂 − 𝟏)𝒙 + 𝒚 − 𝒛 = 𝒂
(𝒂 − 𝟏)𝒙 + (𝒃 + 𝟐)𝒚 + 𝒛 = 𝒃
f)
(𝒂 − 𝟏)𝒙 + (𝒃 + 𝟐)𝒚 + (𝒃 + 𝟏)𝒛 = 𝒃𝟐
{ (−𝟐𝒃 − 𝟐)𝒚 − (𝒃 + 𝟒)𝒛 = 𝟐𝒂 − 𝒃𝟐 − 𝒃
Análisis
𝑚 > 𝑛 Sistema No Homogéneo. Solución depende del sistema
𝑎−1 1 −1 𝑎 𝑓1 − 𝑓2
𝑎−1 𝑏+2 1 𝑏
( | ) ≈
𝑎−1 𝑏+2 𝑏+1 𝑏2 𝑓3 − 𝑓2
0 −2𝑏 − 2 −(𝑏 + 4) 2𝑎 − 𝑏2 − 𝑏
0 −𝑏 − 1 −2 𝑎−𝑏
𝑎−1 𝑏+2 1 𝑏
( | ) ≈
0 0 𝑏 𝑏2 − 𝑏
0 −2𝑏 − 2 −(𝑏 + 4) 2𝑎 − 𝑏2 − 𝑏 𝑓4 − 2𝑓1
19
0 −𝑏 − 1 −2 𝑎 − 𝑏
𝑎−1 𝑏+2 1 𝑏
( | )
0 0 𝑏 𝑏2 − 𝑏
0 0 −𝑏 −𝑏2 + 𝑏 𝑓4 + 𝑓3
0 −𝑏 − 1 −2 𝑎 − 𝑏 Como una fila se hace cero, entonces se
𝑎−1 𝑏+2 1 𝑏 hace un nuevo análisis. 𝑚 = 𝑛 = 3 → ∃|𝐴|
( | )
0 0 𝑏 𝑏2 − 𝑏
0 0 0 0
0 −𝑏 − 1 −2
−𝑏 − 1 −2
|𝑎 − 1 𝑏 + 2 1 | = −(𝑎 − 1) | | = −(𝑎 − 1)(−𝑏 − 1)(𝑏)
0 𝑏
0 0 𝑏
= (𝑎 − 1)(𝑏 + 1)𝑏
𝑎≠1
Por lo tanto, para que exista solución única debe ocurrir:{ 𝑏 ≠ 0
𝑏 ≠ −1
Se va hallar el valor de 𝑧 utilizando Cramer
0 −𝑏 − 1 𝑎 − 𝑏
|𝑎 − 1 𝑏 + 2 𝑏 | −𝑏 − 1 𝑎 − 𝑏
∆𝑧 2 −(𝑎 − 1)(𝑏2 − 𝑏) | |
0 0 𝑏 −𝑏 0 1
𝑧= = =
∆𝑥𝑦𝑧 (𝑎 − 1)(𝑏 + 1)(𝑏) (𝑎 − 1)(𝑏 + 1)(𝑏)
2
(𝑎 − 1)(𝑏 + 1)(𝑏 − 𝑏)
=
(𝑎 − 1)(𝑏 + 1)(𝑏)
𝑧 =𝑏−1
Si 𝒃 = 𝟎
0 −1 −2 𝑎 −𝑓1
0 1 2 −𝑎 0 1 2 −𝑎 1
(𝑎 − 1 2 1 |0 ) ≈( | ) ≈( | )
𝑎 − 1 2 1 0 𝑓2 − 2𝑓1 𝑎−1 0 −3 2𝑎 ( )𝑓
0 0 0 0 𝑎−1 2
0 1 2 −𝑎
( | ) 𝐶𝑜𝑛 𝑎 ≠ 1
1 0 −3⁄(𝑎 − 1) 2𝑎⁄(𝑎 − 1)
2𝑎 3
𝑥 = 𝑎−1 + 𝑎−1 𝑡
Por lo que el C.S es {𝑦 = −𝑎 − 2𝑡 𝑎 ≠ 1
𝑧=𝑡
Si 𝒂 = 𝟏
0 −𝑏 − 1 −2 1 − 𝑏 𝑓1 + 2𝑓2 0 𝑏+3 0 1 + 𝑏 𝑓1 − 𝑓2
(0 𝑏+2 1 |𝑏 ) ≈ (0 𝑏+2 1|𝑏 ) 𝑓2 − 𝑓3
0 0 𝑏 𝑏2 − 𝑏 (1⁄𝑏)𝑓3 0 0 1 𝑏−1
0 1 −1 1 𝑓1 + 𝑓3 0 1 0 𝑏
≈ (0 𝑏 + 2 0 |1 ) 𝑓2 − (𝑏 + 2)𝑓1 ≈ (0 0 𝑏 + 2|−𝑏 − 1) 𝑓2 − (𝑏 + 2)𝑓3
0 0 1 𝑏−1 0 0 1 𝑏−1
0 1 0𝑏 Para que exista solución el valor de b debe
(0 0 0|−𝑏2 − 2𝑏 + 1) ser: 𝑏 = −1 ± √2.
0 0 1 𝑏−1 𝐶. 𝑆 = {𝑥𝜖𝑅, 𝑏, 𝑏 − 1}𝑏 ≠ 0
20
𝒙+𝒚+𝒛=𝟏
𝒈) { 𝒂𝒙 + 𝒃𝒚 + 𝒄𝒛 = 𝒎
𝒂𝟐 𝒙 + 𝒃𝟐 𝒚 + 𝒄𝟐 𝒛 = 𝒎𝟐
Análisis
𝑚 = 𝑛 Sistema No Homogéneo. Existencia del determinante.
1 1 1 𝐶2 − 𝐶1 1 0 0 𝑏−𝑎 𝑐−𝑎
=|𝑎 =| |
|𝑎 𝑏 𝑐 | 𝐶3 − 𝐶1 𝑏−𝑎 𝑐−𝑎 | (𝑏 − 𝑎)(𝑏 + 𝑎) (𝑐 − 𝑎)(𝑐 + 𝑎)
𝑎2 𝑏2 𝑐2 𝑎2 𝑏2 − 𝑎2 𝑐 2 − 𝑎2
1 1 = (𝑏 − 𝑎)(𝑐 − 𝑎)(𝑐 − 𝑏)
(𝑏 − 𝑎)(𝑐 − 𝑎) | |
(𝑏 + 𝑎) (𝑐 + 𝑎)
−𝒙 + 𝒚 − 𝒛 = 𝒂 − 𝒃 + 𝟐
(𝒃 + 𝟏)𝒙 + 𝒚 + 𝒛 = 𝟐𝒂 + 𝟐
𝒉) {
𝒙+𝒛 =𝒂
(𝒃 + 𝟏)𝒙 − 𝒚 + 𝒛 = 𝒃 − 𝟐
−1 1 −1 𝑎 − 𝑏 + 2 𝑓1 + 𝑓3 0 1 0 2𝑎 − 𝑏 + 2
𝑏+1 1 1 2𝑎 + 2 𝑓 − 𝑓4 0 2 0 2𝑎 − 𝑏 + 4 𝑓2 − 2𝑓1
( | ) 2 ( | )
1 0 1 𝑎 1 0 1𝑎
𝑏+1 −1 1 𝑏 − 2 𝑏+1 −1 1 𝑏−2
21
0 1 0 2𝑎 − 𝑏 + 2 Para que exista solución −2𝑎 + 𝑏 = 0 es decir
0 0 0 −2𝑎 + 𝑏 𝑏 = 2𝑎
( | )
1 0 1 𝑎
𝑏+1 −1 1 𝑏−2
Si 𝑏 ≠ 2𝑎 No existe solución
0 1 0
1 1
|𝐴| = | 1 0 1| = − | | = −(1 − (2𝑎 + 1)) = 2𝑎.
2𝑎 + 1 1
2𝑎 + 1 −1 1
|𝐴| ≠ 0 ↔ 𝑎 ≠ 0
2𝑎 − 𝑏 + 2 1 0 2 1 0 2 1 0
|𝐴𝑥 | = | 𝑎 0 1| = | 𝑎 0 1| 𝑓2 − 𝑓3 = |−𝑎 + 2 1 0|
𝑏−2 −1 1 2𝑎 − 2 −1 1 2𝑎 − 2 −1 1
2 1
|𝐴𝑥 | = | |=2+𝑎−2 =𝑎
−𝑎 + 2 1
𝑎 1
𝑥= =
2𝑎 2
0 2 0
1 1
|𝐴𝑦 | = | 1 𝑎 1| − 2 | | = −2(1 − 2𝑎 − 1) = 4𝑎
2𝑎 + 1 1
2𝑎 + 1 2𝑎 − 2 1
4𝑎
𝑦= =2
2𝑎
0 1 2 𝐶3 − 2𝐶2 0 1 0
1 𝑎
|𝐴𝑧 | = | 1 0 𝑎 | =| 1 0 𝑎 | = −| |
2𝑎 + 1 2𝑎
2𝑎 + 1 −1 2𝑎 − 2 2𝑎 + 1 −1 2𝑎
2𝑎2 − 𝑎 𝑎 − 1
𝑧= =
2𝑎 2
22
Ejercicios propuestos:
1. Determinar una ecuación que relacione a, b y c de modo que el sistema lineal
sea consistente para cualesquiera valores de a, b y c.
𝑥 + 2𝑦 − 3𝑧 = 𝑎 2𝑥 + 2𝑦 + 3𝑧 = 𝑎 3𝑥 + 2𝑦 − 4𝑧 = 𝑎
𝑎. {2𝑥 + 3𝑦 + 3𝑧 = 𝑏 𝑏. {3𝑥 − 𝑦 + 5𝑧 = 𝑏 𝑐. {−4𝑥 + 𝑦 − 𝑧 = 𝑏
5𝑥 + 9𝑦 − 6𝑧 = 𝑐 𝑥 − 3𝑦 + 2𝑧 = 𝑐 7𝑥 + 12𝑦 − 22𝑧 = 𝑐
−𝟏 𝟐 𝟏 𝟎
2. Se tiene el sistema 𝑨𝑿 = 𝑩 con 𝑨 = ( 𝟑 −𝟏 𝟐) y 𝑩 = (𝟎), se pide:
𝟎 𝟏 𝒂 𝟎
a. Estudiar el sistema según el parámetro a
𝟏
b. Si 𝑩 = (𝟏) estudiar el sistema según el parámetro a.
𝟏
3. Dados los sistemas lineales:𝑨𝑿 = 𝑩𝟏 y 𝑨𝑿 = 𝑩𝟐 , donde la matriz 𝑨𝟑𝒙𝟑 de
ambos sistemas es la misma
𝟐𝒙 − 𝒚 + 𝟑𝒛 = 𝟏 𝒙 − 𝟐𝒚 + 𝟑𝒛 = 𝟏 𝒙+𝒚−𝒛=𝒂
𝒅. {𝒙 + 𝟐𝒚 − 𝒛 = −𝒃 𝒆. {𝟐𝒙 + 𝒂𝒚 = 𝟐𝒃 𝒇. {𝟐𝒙 − 𝒚 + 𝒛 = 𝟎
𝒙 + 𝒂𝒚 − 𝟔𝒛 = −𝟏𝟎 𝟒𝒙 − 𝟐𝒚 + 𝒃𝒛 = 𝒃 𝒙 − 𝟐𝒚 − 𝒂𝒛 = 𝒂𝟐 − 𝒂
𝒂𝒙 + 𝒚 + 𝒛 = 𝒂 𝟑𝒙 + 𝒚 + 𝒂𝒛 = 𝟎
𝒙 + 𝒂𝒚 − 𝒛 = 𝟏 𝒙−𝒚−𝒛=𝟎
𝒈. { 𝒉. {
𝟑𝒙 + 𝒚 + 𝒃𝒛 = 𝟐 𝒃𝒙 + 𝒚 + 𝒛 = 𝟎
𝒙−𝒚−𝒛=𝟏 𝒙 + 𝒃𝒚 − 𝒛 = 𝟎
(𝒂 + 𝟏)𝒙 + 𝒚 + 𝒛 = 𝒂 (𝒂 − 𝟏)𝒙 + 𝒚 − 𝒛 = 𝒂
𝒙 + (𝒂 + 𝟏)𝒚 + 𝒛 = 𝟏 (𝒂 − 𝟏)𝒙 + (𝒃 + 𝟐)𝒚 + (𝒃 + 𝟏)𝒛 = 𝒃𝟐
𝒊. 𝒋.
𝒙 + 𝒚 + (𝒂 + 𝟏)𝒛 = 𝟏 (𝒂 − 𝟏)𝒙 + (𝒃 + 𝟐)𝒚 + 𝒛 = 𝒃
{(𝒂 + 𝟑)𝒙 + (𝟐𝒂 + 𝟒)𝒚 + (𝟏 − 𝒂)𝒛 = 𝟐 𝟐
{(−𝟐𝒃 − 𝟐)𝒚 − (𝒃 + 𝟒)𝒛 = 𝟐𝒂 − 𝒃 − 𝒃
23
4. ESPACIOS VECTORIALES
Definición 4.1 (Espacio vectorial) Sean:〈𝑉, 𝐾,⊕,⊙〉
𝑽 : un conjunto no vacío. Debe ser Grupo Abeliano
𝑲 : un campo; un conjunto auxiliar.
+ : una operación interna definida sobre V;
· : una operación externa definida de K en V
Se dice que (𝑉, 𝐾, +,·) es un espacio vectorial si y solamente si:
𝑉𝑥𝑉 → 𝑉
+: {(𝑣 , 𝑣 ) ↦ 𝑣𝑖 + 𝑣𝑗 = 𝑣𝑘 𝜖𝑉 es la ley de composición interna
𝑖 𝑗
𝐾𝑥𝑉 → 𝑉
. : {(𝛼, 𝑣 ) ↦ 𝛼. 𝑣𝑗 = 𝑣𝑙 𝜖𝑉 es la ley de composición externa
𝑗
4.2 Propiedades
Suma de vectores
Ejercicios resueltos 1
1) (ℝ,ℝ, +,∙)
24
V: ℝ 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑑𝑒 𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 𝑎, 𝑏, 𝑐
K: ℝ 𝑐𝑎𝑚𝑝𝑜 𝑎𝑢𝑥𝑖𝑙𝑖𝑎𝑟 𝛼, 𝛽, 𝜆
+: L.C.I. suma vectorial ∀ (𝑎, 𝑏) ∈ 𝑅;(𝑎 + 𝑏) = 𝑐 ∈ ℝ
*: L.C.E. multiplicación escalar por vector ∀ 𝑎 ∈ 𝑅, ∀ 𝛼 ∈ 𝑅; (𝛼 ∗ 𝑎) = 𝑐 ∈ ℝ
25
= 𝛼𝑓(𝑥) + 𝛼𝑔(𝑥) Distributiva en R
= (𝛼𝑓)(𝑥) + (𝛼𝑔)(𝑥) Definición de * en F
= (𝛼𝑓 + 𝛼𝑔)(𝑥) Definición de + en F
𝑎 𝑏 𝑒 𝑓
Sea 𝐴 = ( ) ∧ 𝐵=( )
𝑐 𝑑 𝑔 ℎ
𝑎 𝑏 𝑒 𝑓
= 𝛼 [( )+( )]
1 𝛼(𝐴 + 𝐵) 𝑐 𝑑 𝑔 ℎ Sustitución
𝑎+𝑒 𝑏+𝑓
= 𝛼( )
𝑐+𝑔 𝑑+ℎ Suma de matrices
𝛼(𝑎 + 𝑒) 0
=( ) ∗ Definición prod. Escalar ejercicio
0 𝛼(𝑑 + ℎ)
2 𝛼𝐴 + 𝛼𝐵 𝑎 𝑏 𝑒 𝑓
= 𝛼( )+𝛼( )
𝑐 𝑑 𝑔 ℎ Sustitución
26
𝛼𝑎 0 𝛼𝑒 0
=( )+( )
0 𝛼𝑑 0 𝛼ℎ Definición prod. Escalar ejercicio
𝛼𝑎 + 𝛼𝑒 0
=( )
0 𝛼𝑑 + 𝛼ℎ Suma de matrices
𝛼(𝑎 + 𝑒) 0
=( ) ∗ Distributiva en un K
0 𝛼(𝑑 + ℎ)
1 𝛼𝐴 + 𝛽𝐴 𝑎 𝑏 𝑎 𝑏
= 𝛼( )+𝛽( )
𝑐 𝑑 𝑐 𝑑 Sustitución
𝛼𝑎 0 𝛽𝑎 0
=( )+( )
0 𝛼𝑑 0 𝛽𝑑 Definición prod. escalar ejercicio
𝛼𝑎 + 𝛽𝑎 0
=( ) ∗
0 𝛼𝑑 + 𝛽𝑑 Suma de matrices
2 (𝛼 + 𝛽)𝐴 𝑎 𝑏
= (𝛼 + 𝛽) ( )
𝑐 𝑑 Sustitución
(𝛼 + 𝛽)𝑎 0
=( )
0 (𝛼 + 𝛽)𝑑 Definición prod. escalar ejercicio
𝛼𝑎 + 𝛽𝑎 0
=( ) ∗ Distributiva en un K
0 𝛼𝑑 + 𝛽𝑑
1 (𝛼⨀𝛽) ∙ 𝐴 = (𝛼⨀𝛽) ∙ (𝑎 𝑏
)
𝑐 𝑑 Sustitución
(𝛼𝛽)𝑎 0
=( ) ∗
0 (𝛼𝛽)𝑑 Definición prod. escalar ejercicio
2 𝛼 ∙ (𝛽 ∙ 𝐴) 𝑎 𝑏
= 𝛼 ∙ [𝛽. ( )]
𝑐 𝑑 Sustitución
𝛽. 𝑎 0
= 𝛼 ∙ [( )]
0 𝛽. 𝑑 Definición prod. escalar ejercicio
𝛼. (𝛽. 𝑎) 0
=( )
0 𝛼. (𝛽. 𝑑) Definición prod. escalar ejercicio
(𝛼𝛽)𝑎 0
=( ) ∗ Asociativa en un K
0 (𝛼𝛽)𝑑
27
Como 1 = ∗ y 2 = ∗ se concluye que 1 = 2 con lo que se comprueba la
demostración.
1∙𝑎 0
=( )
0 1 ∙ 𝑑 Definición prod. escalar ejercicio
𝑎 0 Existencia del neutro mult.
=( )
0 𝑑
𝒂 𝒃 𝒆 𝒇 𝒂 𝒃
( )+( )=( )
𝒄 𝒅 𝒈 𝒉 𝒄 𝒅
Clausurativa para la suma
𝑎 𝑏 𝑒 𝑓 𝑖 𝑗
1 (𝐴 + 𝐵) + 𝐶 = (( )+( )) + ( ) Sustitución
𝑐 𝑑 𝑔 ℎ 𝑘 𝑙
𝑎 𝑏 𝑖 𝑗 Definición de suma de matrices
=( )+( )
𝑐 𝑑 𝑘 𝑙 ejercicio.
𝑎 𝑏 Definición de suma de matrices
=( ) ∗
𝑐 𝑑 ejercicio.
𝑎 𝑏 𝑒 𝑓 𝑖 𝑗
2 𝐴 + (𝐵 + 𝐶) = ( ) + (( )+( )) Sustitución
𝑐 𝑑 𝑔 ℎ 𝑘 𝑙
𝑎 𝑏 𝑒 𝑓 Definición de suma de matrices
=( )+( )
𝑐 𝑑 𝑔 ℎ ejercicio.
𝑎 𝑏 Definición de suma de matrices
=( ) ∗
𝑐 𝑑 ejercicio.
𝑎 𝑏 𝑒 𝑓
(1) 𝐴 + 𝐵 =( )+( ) Sustitución
𝑐 𝑑 𝑔 ℎ
𝑎 𝑏 (∗)
=( ) Definición de suma de matrices ejercicio.
𝑐 𝑑
28
(2) 𝐵 + 𝐴 𝑒 𝑓 𝑎 𝑏
=( )+( ) Sustitución
𝑔 ℎ 𝑐 𝑑
𝑒 𝑓
=( ) (∗∗) Definición de suma de matrices ejercicio.
𝑔 ℎ
Como (1) = (∗) y (2) = (∗∗) se concluye que (1) ≠ (2) con lo que no se comprueba
la demostración.
Al no cumplir la propiedad conmutativa para la suma de matrices definida en el
ejercicio, se concluye que V no es espacio vectorial.
d) El conjunto V del literal anterior en las que sus operaciones se definen
como sigue:
𝒂 𝒃 𝒆 𝒇 𝒆 𝒇 𝒂 𝒃 𝟎 𝟎
( )+( )=( ) ∧ 𝜶( )=( )
𝒄 𝒅 𝒈 𝒉 𝒈 𝒉 𝒄 𝒅 𝟎 𝜶𝒅
Distributiva de ∙ respecto a +
P.D. ∀𝛼𝜖𝐾, ∀(𝐴, 𝐵) ∈ (𝑀)2𝑥2 : 𝛼(𝐴 + 𝐵) = 𝛼𝐴 + 𝛼𝐵
𝑏𝑎 𝑒 𝑓
(1) 𝛼(𝐴 + 𝐵) = 𝛼 (( )+( )) Sustitución
𝑑𝑐 𝑔 ℎ
𝑒 𝑓 Definición de suma de matrices
= 𝛼( )
𝑔 ℎ ejercicio.
0 0 Definición de prod. escalar
=( ) (∗)
0 𝛼ℎ matrices ejercicio.
𝑎 𝑏 𝑒 𝑓
(2) 𝛼𝐴 + 𝛼𝐵 = 𝛼( )+𝛼( ) Sustitución
𝑐 𝑑 𝑔 ℎ
0 0 0 0 Definición de prod. escalar
=( )+( )
0 𝛼𝑑 0 𝛼ℎ matrices ejercicio.
0 0 Definición de suma de matrices
=( ) (∗)
0 𝛼ℎ ejercicio.
Como (1) = (∗) y (2) = (∗) se concluye que (1) = (2) con lo que se comprueba la
demostración.
Conmutativa
𝑎 𝑏 𝑒 𝑓
(1) 𝐴 + 𝐵 =( )+( ) Sustitución
𝑐 𝑑 𝑔 ℎ
𝑒 𝑓
=( ) (∗) Definición de suma de matrices ejercicio.
𝑔 ℎ
𝑒 𝑓 𝑎 𝑏
(2) 𝐵 + 𝐴 = ( )+( ) Sustitución
𝑔 ℎ 𝑐 𝑑
𝑎 𝑏 (∗∗)
=( ) Definición de suma de matrices ejercicio.
𝑐 𝑑
Como (1) = (∗) y (2) = (∗∗) se concluye que (1) ≠ (2) con lo que no se comprueba la
demostración.
Al no cumplir la propiedad conmutativa para la suma de matrices definida en el
ejercicio, se concluye que V no es espacio vectorial.
29
𝒂𝝐𝑹
e) Sea 𝑽 = {((𝒂, 𝒃, 𝒂 − 𝒃)| )} con la suma ⊕ definida como:
𝒃𝝐𝑹+
(𝒂𝟏 , 𝒃𝟏 , 𝒂𝟏 − 𝒃𝟏 ) ⊕ (𝒂𝟐 , 𝒃𝟐 , 𝒂𝟐 − 𝒃𝟐 ) = (𝒂𝟏 + 𝒂𝟐 − 𝟑, 𝒃𝟏 𝒃𝟐 , 𝒂𝟏 − 𝒃𝟏 𝒃𝟐 + 𝒂𝟐 − 𝟑) y la
multiplicación por un escalar:𝒌⨂(𝒂, 𝒃, 𝒂 − 𝒃) = (𝒌𝒂 − 𝟑𝒌 + 𝟑, 𝒃𝒌 , 𝒌(𝒂 − 𝟑) − 𝒃𝒌 + 𝟑)
= (𝑎1 + 𝑎2 + 𝑎3 − 6, 𝑏1 𝑏2 𝑏3 , 𝑎1 + 𝑎2 + 𝑎3 − 𝑏1 𝑏2 𝑏3 − 6) 3
= (𝑎1 + 𝑎2 + 𝑎3 − 6, 𝑏1 𝑏2 𝑏3 , 𝑎1 + 𝑎2 + 𝑎3 − 𝑏1 𝑏2 𝑏3 − 6) 3
30
= (𝑎 + 3 − 3, 𝑏(1), 𝑎 − 𝑏(1) + 3 − 3) Def. ⊕ entre u y e
= (𝑎, 𝑏, 𝑎 − 𝑏) = 𝑢 Operaciones
𝑒 ⊕ 𝑢 = (3,1,2) + (𝑎, 𝑏, 𝑎 − 𝑏) Sustitución
= (3 + 𝑎 − 3, (1)𝑏, 3 − (1)𝑏 + 𝑎 − 3) Def. ⊕ entre e y u
= (𝑎, 𝑏, 𝑎 − 𝑏) = 𝑢 Operaciones
̂ 𝝐𝑽, : 𝒖 + 𝒖
5. Existencia del Inverso Aditivo: 𝑷. 𝑫. , ∀𝒖 𝝐𝑽, ∃𝒖 ̂=𝒖
̂+𝒖=𝒆
1 (−𝑎+6)𝑏−1
Sea 𝑢 = (𝑎, 𝑏. 𝑎 − 𝑏) ∧ 𝒖
̂ = (−𝑎 + 6, , )
𝑏 𝑏
1. Clasurativa: ∀ 𝑢 ∈ 𝑉, ∀ 𝑘 ∈ 𝐾: (𝑘 ∙ 𝑢) ∈ 𝑉
Sea 𝑢 = (𝑎, 𝑏. 𝑎 − 𝑏)
𝒌⨂(𝒂, 𝒃, 𝒂 − 𝒃) = (𝒌𝒂 − 𝟑𝒌 + 𝟑, 𝒃𝒌 , 𝒌(𝒂 − 𝟑) − 𝒃𝒌 + 𝟑) Def. 𝒌⨂𝒖
(𝑘 ∙ 𝑢) ∈ 𝑉 pues los elementos que pertenecen a V deben cumplir:
𝒌𝒂 − 𝟑𝒌 + 𝟑 ∈𝑅
𝒌
{ 𝒃 ∈ 𝑅 𝑝𝑢𝑒𝑠 𝑏 ∈ 𝑅 +
+
𝒌
𝒌(𝒂 − 𝟑) − 𝒃 + 𝟑 𝑐𝑢𝑚𝑝𝑙𝑒 𝑐𝑜𝑛 𝑠𝑒𝑟 𝑙𝑎 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎 𝑝𝑟𝑖𝑚𝑒𝑟𝑎 𝑦 𝑠𝑒𝑔𝑢𝑛𝑑𝑎 𝑐𝑜𝑜𝑟𝑑𝑒𝑛𝑎𝑑𝑎
31
4. Distributiva de ⨂ respecto a ⊕ (∀𝑘 ∈ 𝐾, ∀, 𝑢, 𝑣 ∈ 𝑉): 𝑘⨂(𝑢 ⊕ 𝑣) = 𝑘⨂𝒖 ⊕ 𝑘⨂𝑣
Sea 𝑢 = (𝑎1 , 𝑏1 , 𝑎1 − 𝑏1 ) ∧ 𝑣 = (𝑎2 , 𝑏2 , 𝑎2 − 𝑏2 )
𝑘⨂(𝑢 ⊕ 𝑣) = 𝑘⨂((𝑎1 , 𝑏1 , 𝑎1 − 𝑏1 ) + (𝑎2 , 𝑏2 , 𝑎2 − 𝑏2 )) Sustitución
= 𝑘⨂(𝑎1 + 𝑎2 − 3, 𝑏1 𝑏2 , 𝑎1 − 𝑏1 𝑏2 + 𝑎2 − 3) Def. ⊕
= (𝑘(𝑎1 + 𝑎2 − 3) − 3𝑘 + 3, (𝑏1 𝑏2 )𝑘 , 𝑘(𝑎1 + 𝑎2 − 3) − (𝑏1 𝑏2 )𝑘 + 3) Def. ⨂
= (𝑘𝑎1 + 𝑘𝑎2 − 6𝑘 + 3, (𝑏1 𝑏2 )𝑘 , 𝑘𝑎1 + 𝑘𝑎2 − 6𝑘 − (𝑏1 𝑏2 )𝑘 + 3) Operaciones
𝑘⨂𝒖 ⊕ 𝑘⨂𝑣 = 𝑘⨂(𝑎1 , 𝑏1 , 𝑎1 − 𝑏1 ) ⊕ 𝑘⨂(𝑎2 , 𝑏2 , 𝑎2 − 𝑏2 ) Sustitución
= (𝑘𝑎1 − 3𝑘 + 3, 𝑏1 𝒌 , 𝒌(𝑎 − 𝟑) − 𝑏1 𝒌 + 𝟑) ⊕ (𝑘𝑎2 − 3𝑘 + 3, 𝑏2 𝒌 , 𝒌(𝑎2 − 𝟑) − 𝑏2 𝒌 + 𝟑) Def. ⨂
2. Multiplicativa: si u = v, entonces αu = αv
𝐷𝑒𝑚𝑜𝑠𝑡𝑟𝑎𝑐𝑖ó𝑛. Sean 𝛼 ∈ 𝐾, 𝑢 ∈ 𝑉 , 𝑣 ∈ 𝑉 𝑦 𝑤 ∈ 𝑉
𝑢 = 𝑣 hipótesis,
𝛼𝑢 = 𝛼𝑢 axioma de identidad de la igualdad,
𝛼𝑢 = 𝛼𝑣 v se sustituye por u en la igualdad anterior ya que u = v.
Teorema 4.2 (Propiedades cancelativas) Sean (𝑉, 𝐾, +,·) un espacio vectorial, 𝛼 ∈
𝐾, 𝑢 ∈ 𝑉 , 𝑣 ∈ 𝑉 y 𝑤 ∈ 𝑉 . Se verifican las siguientes propiedades:
1. Cancelativa de la suma: si 𝑢 + 𝑤 = 𝑣 + 𝑤, entonces 𝑢 = 𝑣.
2. Cancelativa de la multiplicación: si 𝛼 ≠ 0 y 𝛼 · 𝑢 = 𝛼 · 𝑣, entonces 𝑢 = 𝑣.
𝐷𝑒𝑚𝑜𝑠𝑡𝑟𝑎𝑐𝑖ó𝑛. Sean α ∈ K, u ∈ V, v ∈ V y w ∈ V.
1. Cancelativa de la suma:
𝑢 + 𝑤 = 𝑣 + 𝑤 hipótesis,
(𝑢 + 𝑤) + (−𝑤) = (𝑣 + 𝑤) + (−𝑤) propiedad aditiva,
𝑢 + (𝑤 + (−𝑤)) = 𝑣 + (𝑤 + (−𝑤)) propiedad asociativa,
𝑢 + 0𝑣 = 𝑣 + 0𝑣 definición de, opuesto aditivo
𝑢 = 𝑣 definición de neutro aditivo.
32
2. Cancelativa de la multiplicación: sea 𝛼 ≠ 0; entonces, existe 𝛼 −1 :
𝛼·𝑢 = 𝛼·𝑣 hipótesis,
𝛼 −1 · [𝛼 · 𝑢] = 𝛼 −1 ·[𝛼 · 𝑣] propiedad multiplicativa,
(𝛼 −1 𝛼) · 𝑢 = (𝛼 −1 𝛼) · 𝑣 propiedad asociativa mixta,
1·𝑢 = 1·𝑣 definición de inverso multiplicativo en K,
𝑢 = 𝑣 definición de 1.
Teorema 4.3 (Propiedades de los espacios vectoriales) Sea (𝑉, 𝐾, +,·) un espacio
vectorial. Entonces, para todo 𝛼 ∈ 𝐾 y todo 𝑣 ∈ 𝑉 , se tiene que:
𝟏. 𝜶 · 𝟎𝒗 = 𝟎𝒗. 𝟐. 𝟎 · 𝒗 = 𝟎𝒗.
𝟑. 𝒂 · 𝒗 = 𝟎𝒗 ⇔ 𝜶 = 𝟎 ∨ 𝒗 = 𝟎𝒗. 𝟒. (−𝟏) · 𝒗 = −𝒗.
𝛼 · 0𝑣 = 𝛼 · 0𝑣 + 0𝑣. 1
0 · 𝑣 = 0 · 𝑣 + 0𝑣. (1)
Entonces, por la propiedad transitiva de la igualdad aplicada a (1) 𝑦 (2), tenemos que:
0 · 𝑣 + 0 · 𝑣 = 0 · 𝑣 + 0𝑣.
De esta igualdad se concluye que 0·v también es un neutro aditivo en V . Pero 0v es
único. Entonces: 0 · 𝑣 = 0𝑣.
33
𝛼 −1 · (𝛼 · 𝑣) = 𝛼 −1 ·0𝑣 multiplicativa
(𝛼 −1 𝛼) = 𝛼 −1 0𝑣 asociativa mixta
1. 𝑣 = 𝛼 −1 . 0𝑣 definición de 𝛼 −1 ,
𝑣 = 𝛼 −1 . 0𝑣 definición de 1,
𝑣 = 0𝑣 definición de 0v
.
𝑊 = {∀𝑣𝑖 ∈ 𝑉/ 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛 }
Propiedades
34
Multiplicación de un escalar por vector:
(∀ 𝑣𝑖 ∈ 𝑊, 𝛼 ∈ 𝐾) → (𝛼𝑣𝑖 ) = 𝑣𝑘 ∈ 𝑊
Ejemplo:
El conjunto
i) 𝐿. 𝐶. 𝐼: 𝑃𝐷: ∀ 𝑢, 𝑣 ∈ 𝑊: (𝑢 + 𝑣) ∈ 𝑊
= (∝ 𝑥1 , ∝ 𝑥2 , 3 ∝ 𝑥1 + 2 ∝ 𝑥2 ) Distributiva de ∙ respecto a + en R
= 𝑣 + 𝑢 + es conmutativa,
35
= 𝑣⊕𝑢 ⊕ es restricción de + a W y u ∈ W y v ∈ W.
= (𝑢 + 𝑣) + 𝑤 + es asociativa
= (𝑢 ⊕ 𝑣) ⊕ 𝑤 ⊕ es restricción de + a W y u ∈ W, v ∈ W y w ∈ W
Veamos que e ∈ W: 0 = 3 · 0 + 2. 0 = 0 + 0 = 0.
Por lo tanto, si w ∈ W, tenemos que w ∈ V , de donde:
w ⊕ e = w + e = w + 0R3 = w.
𝑤⊕ 𝑤
̂ = 𝑤 + (−𝑤) = 0R3 .
= (𝛼𝛽) ⊙ 𝑤 ⊙ es restricción de · a W y w ∈ W
.
6. Neutro multiplicativo: (∀𝑤 ∈ 𝑊)(1 ⊙ 𝑤 = 𝑤), donde 1 ∈ K:
= 𝑤1 es el neutro multiplicativo en V y w ∈ V
36
1. 𝑊 ≠ ∅;
2. (∀𝑢 ∈ 𝑊)(∀𝑣 ∈ 𝑊)(𝑢 + 𝑣 ∈ 𝑊) (la restricción de + a W es cerrada); y
3. (∀𝛼 ∈ 𝐾)(∀𝑤 ∈ 𝑊)(𝛼𝑤 ∈ 𝑊) (la restricción de · a W es cerrada).
𝛼𝑤 = 0 · 𝑤 = 0𝑣 ∈ 𝑊.
En otras palabras, en 𝑊 debe estar, al menos, el vector nulo de 𝑉 . Y este elemento es
también el vector nulo de 𝑊.
Ahora, si aplicamos nuevamente la segunda condición al elemento 𝑤 de 𝑊, pero esta
vez con 𝛼 = −1, podemos concluir (con ayuda de la cuarta propiedad enunciada en el
teorema que:
𝛼𝑤 = −1 · 𝑤 = −𝑤 ∈ 𝑊.
Es decir, en 𝑊 también está, a más de 𝑤, su inverso aditivo,−𝑤. Por lo tanto, para
cada elemento de 𝑊, su inverso aditivo es el mismo inverso aditivo de este elemento
considerado un elemento de 𝑉 .
Observaciones
1. La segunda y la tercera condiciones del teorema pueden ser reemplazadas por la
siguiente:
(∀𝛼 ∈ 𝐾)(∀𝑢 ∈ 𝑊)(∀𝑣 ∈ 𝑊)(𝛼𝑢 + 𝑣 ∈ 𝑊).
Ejercicios
1. Determine si los siguientes subconjuntos son subespacios de 𝑹𝟑 .
Compruebe su respuesta.
a) 𝑺 = {(𝒂, 𝒃, 𝒄)⁄𝒂 + 𝒃 − 𝟑 = 𝟐𝒄: 𝒂, 𝒃, 𝒄 ∈ 𝑹}
37
a) P.D. 𝑆 ≠ ∅ es decir que 0𝑣 ∈ 𝑆
𝑎+𝑏−3
𝑆 = {(𝑎, 𝑏, ) : 𝑎, 𝑏, 𝑐 ∈ 𝑅 }
2
𝑎=0
El 0𝑣 ∈ 𝑅3 = (0,0,0) tiene la forma {𝑏 = 0 por lo tanto un elemento que
𝑐=0
pertenece a 𝑆 debería cumplir con esas condiciones, lo cual no ocurre pues los
𝑎=0
elementos de 𝑆 son de la forma: { 𝑏=0 por lo que se
𝑐 = (0 + 0 − 3)/2 = −3/2
concluye que 0𝑣 ∉ 𝑆, es decir 𝑆 no es s.e.v.
𝑎1 + 𝑏1 𝑎2 + 𝑏2
𝑢+𝑣 = (𝑎1 , 𝑏1 , ) + (𝑎2 , 𝑏2 , ) Definición de u y v
2 2
𝑎1 + 𝑏1 𝑎2 + 𝑏2
= (𝑎1 + 𝑎2 , 𝑏1 + 𝑏2 , + ) Definición de + en R3
2 2
𝑎1 + 𝑎2 𝑏1 + 𝑏2
= (𝑎1 + 𝑎2 , 𝑏1 + 𝑏2 , + ) Asociativa, Conmutativa en R
2 2
𝑥1 + 𝑦1
= (𝑥1 , 𝑦1 , ) 𝑥1 = 𝑎1 + 𝑎2 ∧ 𝑦1 = 𝑏1 + 𝑏2
2
𝑎+𝑏
𝛼∙𝑢 = 𝛼 ∙ (𝑎, 𝑏, ) Definición de 𝛼 y u
2
𝑎+𝑏 Definición de producto escalar por vector en
= (𝛼𝑎, 𝛼𝑏, 𝛼 ( ))
2 R3.
𝛼𝑎 + 𝛼𝑏 Distributiva en R
= (𝛼𝑎, 𝛼𝑏, ( ))
2
38
𝑥+𝑦
= (𝑥, 𝑦, ) 𝑥 = 𝛼𝑎 ∧ 𝑦 = 𝛼𝑏
2
d) 𝑾𝟐 = {(𝒙𝟏 , 𝒙𝟐 , 𝒙𝟑 ) ∈ 𝑹𝟑 ∶ |𝒙𝟏 + 𝒙𝟐 | = 𝒙𝟑 }
𝑖. 𝑃. 𝐷. 𝑤 ≠ ∅ → 0𝑣 𝜖 𝑊
0𝑣 = 0 + 0𝑥 + 0𝑥 2
𝑎0 = 0 𝑃. 𝐷: 3𝑎0 − 5𝑎1 = 𝑎2
𝑎2 = 0 =0 3
2 𝑎2 = 0 3
Como 1 = 3 ∧ 2 = 3 → 1 = 2 es decir ⇒ 0𝑣 𝜖 𝑊3
39
𝛼𝑝(𝑥) = 𝛼𝑎0 + 𝛼𝑎1 𝑥 + (3𝛼𝑎0 − 5𝛼𝑎1 )𝑥 2
𝑆𝑖 𝛼(𝑎0 ) = 𝑑0 ∧ 𝛼(𝑎1 ) = 𝑑1 →
(𝑚 − 1)
= (2𝑚 + 2) | 0 | = −𝑚(𝑚 − 1)(2𝑚 + 2)
𝑚 1
𝑚≠0
Para que exista solución única {𝑚 ≠ −1
𝑚≠1
Si 𝒎 = 𝟏
(2𝑚 + 2) (𝑚 − 1) (𝑚 + 3) 0 4 0 4 0 𝑓1 − 4𝑓3
( 0 (𝑚 − 1) −(𝑚 − 1)|0) = (0 0 0 |0)
𝑚 1 −1 0 1 1 −1 0
0 −4 8 0 −(1⁄4)𝑓1 0 1 −2 0 0 1 −2 0 𝑓1 ↔ 𝑓3
~ (0 0 0|0) ~ (0 0 0|0) ~ (0 0 0|0)
1 1 −1 0 1 1 −1 0 𝑓3 − 𝑓1 1 0 10
1 0 10 𝑥1 = −𝑥3 = −𝑡
(0 1 −2|0) Sea 𝑥3 = 𝑡 entonces se tiene: { 𝑥 = 2𝑥 = 2𝑡
2 3
0 0 00
𝑥1 = −𝑥3 = −𝑡
Por lo tanto el 𝐶. 𝑆 = {(𝑥1 , 𝑥2 , 𝑥3 ) ∈ 𝑅3 ⁄ , 𝑥 = 𝑡 ∧ 𝑡 ∈ 𝑅}, es decir
𝑥2 = 2𝑥3 = 2𝑡 3
P.D 𝑊1 𝑒𝑠 𝑠. 𝑒. 𝑣 𝑑𝑒 𝑅3
i) 𝑊1 ≠ ∅ es decir PD. 0𝑣 ∈ 𝑊1
40
Un elemento que ∈ a 𝑊1 tiene la forma (−𝑡, 2𝑡, 𝑡), vamos a comprobar que
0𝑣 = (0,0,0) ∈ 𝑅3 es parte de 𝑊. En efecto 0𝑣 = (0,0,0) = (−0,2 ∗ 0,0) cuando
𝑡 = 0.
Sea:
𝑢 = (−𝑡1 , 2𝑡1 , 𝑡1 ) , 𝑣 = (−𝑡2 , 2𝑡2 , 𝑡2 ) ∧ 𝛼 ∈ 𝐾
𝛼𝑢 + 𝑣 = 𝛼(−𝑡1 , 2𝑡1 , 𝑡1 ) + (−𝑡2 , 2𝑡2 , 𝑡2 ) Definición de u, v, 𝛼
(2𝑚 + 2) (𝑚 − 1) (𝑚 + 3) 0 2 −1 3 0 𝑓1 − 𝑓2
( 0 (𝑚 − 1) −(𝑚 − 1) | 0 ) = ( 0 −1 1 |0)
𝑚 1 −1 0 0 1 −1 0 𝑓3 + 𝑓2
2 0 2 0 (1⁄2)𝑓1 1 0 1 0
(0 −1 1|0) −𝑓2 ~ (0 1 −1|0)
0 0 00 0 0 0 0
𝑥 = −𝑥 = −𝑡
Sea 𝑥3 = 𝑡 entonces se tiene: { 1𝑥 = 𝑥3 = 𝑡
2 3
𝑥1 = −𝑥3 = −𝑡
Por lo tanto el 𝐶. 𝑆 = {(𝑥1 , 𝑥2 , 𝑥3 ) ∈ 𝑅3 ⁄ 𝑥2 = 𝑥3 = 𝑡 , 𝑥3 = 𝑡 ∧ 𝑡 ∈ 𝑅}, es decir
Si 𝒎 = −𝟏
(2𝑚 + 2) (𝑚 − 1) (𝑚 + 3) 0 0 −2 2 0 𝑓1 − 𝑓2
( 0 (𝑚 − 1) −(𝑚 − 1)|0) = ( 0 −2 2 | 0)
𝑚 1 −1 0 −1 1 −1 0 −𝑓3
0 0 00 0 0 0 0 𝑓1 ↔ 𝑓3 0 0 0 0
(0 −2 2|0) −(1⁄2)𝑓2 ~ (0 1 −1|0) ~ (0 1 −1|0)
1 −1 10 1 −1 1 0 𝑓3 + 𝑓2 1 0 0 0
𝑥1 = 0
Sea 𝑥3 = 𝑡 entonces se tiene: {
𝑥2 = 𝑥3 = 𝑡
41
𝑥1 = 0
Por lo tanto el 𝐶. 𝑆 = {(𝑥1 , 𝑥2 , 𝑥3 ) ∈ 𝑅3 ⁄ , 𝑥 = 𝑡 ∧ 𝑡 ∈ 𝑅} es decir
𝑥2 = 𝑥3 = 𝑡 3
e) 𝑺𝟐 = {𝑨 ∈ 𝑴𝒏𝒏 ⁄𝑻𝒓(𝑨𝑻 ) = 𝟎}
i) 𝑆2 ≠ ∅ es decir PD. 0𝑣 ∈ 𝑆2
Sea
0 ⋯ 0 0 ⋯ 0
0𝑣 = 0𝑛𝑥𝑛 → 0𝑛𝑥𝑛 = ( ⋮ ⋱ ⋮) → (0𝑛𝑛 )𝑇 = ( ⋮ ⋱ ⋮)
0 ⋯ 0 𝑛𝑥𝑛 0 ⋯ 0 𝑛𝑥𝑛
𝑇𝑟(0𝑛𝑛 )𝑇 = 𝑇𝑟0𝑛𝑥𝑛 = 0 + 0 + 0 + ⋯ + 0 = 0
Sea:
= 𝑇𝑟((𝛼𝐴)𝑇 + 𝐵𝑇 ) (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇
=0 Operación en R
𝒂𝟎 − 𝒂𝟏 + 𝒂𝟐 = 𝟎
f) 𝑾𝟑 = {𝒑(𝒙) = 𝒂𝟎 + 𝒂𝟏 𝒙 + 𝒂𝟐 𝒙𝟐 | 𝒂 }
𝟐𝒂𝟎 − 𝟐𝟏 + 𝒂𝟐 = 𝟎
Análisis
𝑚 = 2, 𝑛 = 3 entonces se utiliza la matriz ampliada. Se espera infinitas
soluciones.
1 −1 10 1 −1 10
( | ) ~( ~
2 −(1⁄2) 1 0 𝑓2 − 2𝑓1 0 (3⁄2) −1|0) (2⁄3)𝑓2
1 −1 1 0 𝑓1 + 𝑓2 1 0 1⁄3 0
( | ) ( | )
0 1 −(2⁄3) 0 0 1 −(2⁄3) 0
42
Al escalonar la matriz, se tienen las variables 𝑎0 𝑦 𝑎1 en función de 𝑎2 ∈ 𝑅, por
lo que 𝑊3 se puede expresar como:
𝑎0 = −(1⁄3)𝑎2
𝑊3 = {𝑝(𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 ∕ ∕ 𝑎2 ∈ 𝑅}, es decir:
𝑎1 = (2⁄3)𝑎2
El 0𝑣 = 0 + 0𝑥 + 0𝑥 2
Al reemplazar en un elemento genérico de 𝑊3 observamos que 0𝑣 ∈ 𝑊3 pues
𝑎2 = 0 ∈ 𝑅
𝑎
{ 0 = −(1 ⁄ 3)𝑎2 = −(1⁄3)0 = 0
𝑎1 = (2⁄3)𝑎2 = (2⁄3)0 = 0
Sea:
= −(1⁄3)𝑐2 + (2⁄3)𝑐2 𝑥 + 𝑐2 𝑥 2
Como 𝛼𝑝1 (𝑥) + 𝑝2 (𝑥) tiene la forma característica de un elemento de 𝑊3 se
concluye que pertenece al mismo.
∑ 𝛼𝑗 𝑣𝑗 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 + ⋯ +𝛼𝑛 𝑣𝑛
𝑗=1
43
Definición 4.4 (Un vector es combinación lineal de vectores) Sean (𝑉, 𝐾, +,·) un
espacio vectorial y 𝑣1 , 𝑣2 , . . . , 𝑣𝑛 elementos de V. Un vector 𝑢 ∈ 𝑉 es una combinación
lineal de los vectores 𝑣1 , 𝑣2 , . . . , 𝑣𝑛 si existen n escalares 𝛼1 , 𝛼2 , . . . , 𝛼𝑛 tales que
.
𝑛
𝑢 = ∑ 𝛼𝑗 𝑣𝑗 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + 𝛼3 𝑣3 + ⋯ +𝛼𝑛 𝑣𝑛
𝑗=1
Ejemplo
Sea 𝒑 un vector del espacio (𝑷𝟐 [𝒙], 𝑹, +,·) definido por 𝒑(𝒙) = 𝟏 + 𝒙 − 𝒙𝟐 para
todo 𝒙 ∈ 𝑹. ¿Es p una combinación lineal de 𝒒 ∈ 𝑷𝟐 [𝒙] y 𝒓 ∈ 𝑷𝟐 [𝒙] donde
𝒒(𝒙) = 𝟏 + 𝟐𝒙𝟐 y 𝒓(𝒙) = 𝟐 + 𝒙 + 𝒙𝟐 para todo x ∈ R?
1 + 𝑥 − 𝑥 2 = 𝛼(1 + 2𝑥 2 ) + 𝛽(2 + 𝑥 + 𝑥 2 )
para todo x ∈ R.
Ahora bien, si realizamos la suma de los dos polinomio en el lado derecho de la
igualdad, obtenemos que:
para todo x ∈ R.
Entonces, por la definición de igualdad de polinomios, tenemos que α y β, en el caso
de que existieran, satisfarían el siguiente sistema de tres ecuaciones:
𝛼 + 2𝛽 = 1
𝛽 = 1
2𝛼 + 𝛽 = −1.
Veamos qué valores de α y β satisfacen este sistema. Para ello, trabajemos con la
matriz ampliada de este sistema:
1 2 1 1 2 1 𝑓1 − 2𝑓2 1 0 −1
(0 1| 1 ) ~ (0 1 | 1 ) ~ (0 1| 1 )
2 1 −1 𝑓3 − 2𝑓1 0 −3 −3 𝑓3 + 3𝑓2 0 0 0
44
Como el rango de la matriz es 2, entonces el sistema tiene solución única:
𝛼 = −1 y 𝛽 = 1. Veamos, entonces, si estos valores satisfacen la igualdad
𝜶𝒒(𝒙) + 𝜷𝒓(𝒙) = (−1)(1 + 2𝑥 2 ) + (1)(2 + 𝑥 + 𝑥 2 )
= 1 + 𝑥 − 𝑥2
= 𝑝(𝑥).
Es decir, existen dos escalares 𝛼 y 𝛽 tales que 𝑝 = 𝛼𝑞 + 𝛽𝑟. En otras palabras, 𝑝 sí
es una combinación lineal de 𝑞 y 𝑟.
Ejemplo
¿Para qué valores del número real 𝒂 el vector 𝒖 = (𝒂, 𝟎, 𝟎) ∈ 𝑹𝟑 es una
combinación lineal de los vectores 𝒗 = (𝟎, 𝟏, 𝟏) y 𝒘 = (𝟏, −𝟏, 𝟏)?
𝒖 = 𝜶𝒗 + 𝜷𝒘.
Supongamos que esos dos escalares existen. Entonces, debe satisfacerse la
siguiente igualdad:
(𝑎, 0,0) = 𝛼(0,1,1) + 𝛽(1, −1,1)
= (𝛽, 𝛼 − 𝛽, 𝛼 + 𝛽),
0 1 𝑎 0 1 𝑎 0 1 𝑎
(1 −1|0) 𝑓2 − 𝑓3 ~ (0 −2|0) 𝑓2 + 2𝑓3 ~ (0 0| 2𝑎 )
1 1 0 1 1 0 𝑓3 − 𝑓1 1 0 −𝑎
Para que el sistema tenga solución, debemos tener que 2𝑎 = 0; es decir, que 𝑎 = 0.
Por lo tanto, el vector nulo de 𝑅3 es una combinación lineal de (0,1,1) y (1,−1,1) (los
escalares respectivos son 𝛼 = 0 y 𝛽 = 0.
Ejercicios:
𝟐 𝟏
1. Sea 𝒑𝒊 (𝒙) = 𝟏 − 𝟑 𝒙 + 𝟐 𝒙𝟑 y sea 𝑺 = {𝟏 + 𝒙, 𝒙𝟐 − 𝟐𝒙𝟑 , 𝟏 − 𝒙 + 𝒙𝟐 , 𝟏}
Verificar si 𝒑𝒊 (𝒙) es combinación lineal de 𝑺.
Sea 𝑆 = {𝑝1 (𝑥), 𝑝2 (𝑥), 𝑝3 (𝑥), 𝑝4 (𝑥)} entonces por la definición se tiene:
𝒑𝒊 (𝒙) = 𝜶𝒑𝟏 (𝒙) + 𝜷𝒑𝟐 (𝒙) + 𝜸𝒑𝟑 (𝒙) + 𝜹𝒑𝟒 (𝒙) que al reemplazar:
45
2 1
1 − 𝑥 + 𝑥3 = 𝛼(1 + 𝑥) + 𝛽(𝑥 2 − 2𝑥 3 ) + 𝛾(1 − 𝑥 + 𝑥 2 ) + 𝛿(1)
3 2
= (𝛼 + 𝛾 + 𝛿) + (𝛼 − 𝛾)𝑥 + (𝛽 + 𝛾)𝑥 2 + (−2𝛽)𝑥 3
𝛼+𝛾+𝛿 =1
2
𝛼−𝛾 =−
3
𝛽+𝛾 =0
1
{ −2𝛽 =
2
Análisis
𝑚 = 𝑛 = 4 → 𝐴𝑛 → ∃|𝐴𝑛 |
1 0 1 1
1 0 −1
|𝐴4 | = |1 0 −1 0 1 1
| = −1 |0 1 1| = −1 | | = −2 ≠ 0
0 1 1 0 −2 0
0 −2 0
0 −2 0 0
La solución debe ser única No Trivial. Utilizaremos Matriz Ampliada.
1 0 1 1 1 1 0 1 1 1
1 0 −1 0 −(2⁄3) 𝑓2 − 𝑓1 0 0 −2 −1 −(5⁄3)
( | ) ~( | )
0 1 1 0 0 0 1 1 0 0
0 −2 0 0 (1⁄2) 0 −2 0 0 (1⁄2) 𝑓4 + 2𝑓3
1 0 1 1 1 1 0 1 1 1 𝑓1 − 𝑓2
0 0 −2 −1 −(5⁄3) −(1⁄2)𝑓2 0 0 1 (1⁄2) (5 ⁄ 6 )
( | ) ~( | )
0 1 1 0 0 0 1 1 0 0 𝑓3 − 𝑓2
0 0 2 0 (1⁄2) 0 0 2 0 (1⁄2) 𝑓4 − 2𝑓2
1 0 0 0 −(5⁄12)
0 0 1 0 (1⁄4)
( | )
0 1 0 0 −(1⁄4)
0 0 0 1 (7⁄6)
El conjunto solución será:
𝟑 𝟏
2. Verifique si la matriz 𝑨 = ( ) se puede expresar como combinación lineal
𝟏 −𝟏
𝟏 𝟎 𝟎 𝟎 𝟎 𝟐 𝟎 𝟏
de las matrices 𝑩 = ( ),𝑪 = ( ),𝑫 = ( ),𝑬 = ( )
𝟏 𝟎 𝟏 𝟏 𝟎 −𝟏 𝟏 𝟎
Realizando el mismo procedimiento anterior tenemos:
3 1 1 0 0 0 0 2 0 1
( ) = 𝛼( )+𝛽( )+𝛾( )+𝛿( )
1 −1 1 0 1 1 0 −1 1 0
𝛼 0 0 0 0 2𝛾 0 𝛿
=( )+( )+( )+( )
𝛼 0 𝛽 𝛽 0 −𝛾 𝛿 0
46
𝛼 2𝛾 + 𝛿
=( )
𝛼+𝛽+𝛿 𝛽−𝛾
1 0 0 0 3 1 0 0 0 3 1 0 0 0 3
0 0 2 1 1 0 0 2 1 1 0 0 2 1 1 𝑓2 − 2𝑓3
( | ) ~( | ) ~( | )
1 1 0 1 1 𝑓3 − 𝑓1 0 1 0 1 −2 𝑓3 − 𝑓4 0 0 1 1 −1
0 1 −1 0 −1 0 1 −1 0 −1 0 1 −1 0 −1 𝑓4 + 𝑓3
1 0 0 0 3 1 0 0 0 3 1 0 0 0 3
0 0 0 −1 3 0 0 0 −1 3 −𝑓2 0 0 0 1 −3
( | ) ( | ) ~( | )
0 0 1 1 −1 𝑓3 + 𝑓2 0 0 1 0 2 0 0 1 0 2
0 1 0 1 −2 𝑓4 + 𝑓2 0 1 0 0 1 0 1 0 0 1
Cuyo conjunto solución es:
{𝛼 = 3, 𝛽 = 1, 𝛾 = 2, 𝛿 = −3}
Por lo que:𝐴 = 3𝐵 + 𝐶 + 2𝐷 − 3𝐸
3. Expresar (−𝟐, −𝟖, −𝟔) como combinación lineal de (𝟏, −𝟏, 𝟏) 𝒚 (𝟐, 𝟑, 𝟒)
La definición de C.L dice:
(−2, −8, −6) = 𝛼(1, −1,1) + 𝛽(2,3,4)
(−2, −8, −6) = (𝛼, −𝛼, 𝛼) + (2𝛽, 3𝛽, 4𝛽)
(−2, −8, −6) = (𝛼 + 2𝛽, −𝛼 + 3𝛽, 𝛼 + 4𝛽)
Formando el sistema:
−2 = 𝛼 + 2𝛽
{−8 = −𝛼 + 3𝛽
−6 = 𝛼 + 4𝛽
Análisis 𝑚 = 3, 𝑛 = 2 → Matriz Ampliada. Solución depende del sistema
1 2 −2 1 2 −2 1 2 −2 𝑓1 − 2𝑓3 1 0 2
(−1 3|−8) 𝑓2 + 𝑓1 ~ (0 5|−10) ~ (0 5|−10) 𝑓2 − 5𝑓3 ~ (0 0| 0 )
1 4 −6 𝑓3 − 𝑓1 0 2 −4 (1⁄2)𝑓3 0 1 −2 0 1 −2
Cuyo conjunto solución es:
𝛼=2
{
𝛽 = −2
Por lo tanto (−2, −8, −6) = 2(1, −1,1) − 2(2,3,4)
47
4.6 Cápsula lineal de un conjunto
Definición 4.5 (Cápsula) Sean (V, K, +,·) un espacio vectorial y S ⊂ V tal que S ≠ ∅.
La cápsula de S es el conjunto formado por todos los elementos de 𝑉 que se pueden
expresar como una combinación lineal de elementos de 𝑆. En otras palabras, la
cápsula de 𝑆 es el conjunto de todas las combinaciones lineales de elementos de 𝑆. La
cápsula de 𝑆 es representada por 〈𝑆〉. Por lo tanto:
〈𝑆〉 = {𝑣 ∈ 𝑉 ∶ ∑𝑛𝑗=1 𝛼𝑗 𝑣𝑗 , 𝛼𝑗 ∈ 𝐾, 𝑣𝑗 ∈ 𝑉}.
𝑝(𝑥) = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3
para todo x ∈ R.
Por otro lado, como 𝑝 ∈ 〈𝑆〉, existen 𝛼, 𝛽, 𝛾 y 𝛿 en 𝑅 tales que
𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 = (𝛼 + 𝛽 + 𝛾) + 𝛼𝑥 + 𝛽𝑥 2 + 𝛾𝑥 3 ,
por la definición de igualdad entre polinomios, podemos concluir que:
〈𝑆 〉 = {𝑝(𝑥) = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 ∈ 𝑃3 [𝑥] ∶
α + β + γ = a, α = b, β = c, γ = d}.
Para determinar cómo son los elementos de 〈𝑆〉, debemos determinar los coeficientes
𝑎, 𝑏, 𝑐 𝑦 𝑑 (esto es lo que significa calcular 〈𝑆〉). Para ello, resolvamos el sistema de
cuatro ecuaciones lineales:
𝛼 + 𝛽 + 𝛾 = 𝑎
𝛼 = 𝑏
𝛽 = 𝑐
𝛾 = 𝑑.
1 1 1𝑎 1 1 1 𝑎 𝑓1 + 𝑓2 1 0 0 𝑏
1 0 0 𝑏 𝑓2 − 𝑓1 0 −1 −1 𝑏 − 𝑎 0 −1 −1 𝑏 − 𝑎 𝑓 + 𝑓4
( | ) ~( | ) ~( | ) 2
0 1 0 𝑐 0 1 0 𝑐 𝑓3 + 𝑓2 0 0 −1 𝑐 + 𝑏 − 𝑎 𝑓3 + 𝑓4
0 0 1𝑑 0 0 1 𝑑 0 0 1 𝑑
48
1 0 0 𝑏 1 0 0 𝑏
0 −1 0 𝑏−𝑎+𝑑 −𝑓2 0 1 0 𝑎−𝑏−𝑑
( | ) ~( | )
0 0 0 𝑐+𝑏−𝑎+𝑑 0 0 0 𝑐+𝑏−𝑎+𝑑
0 0 1 𝑑 0 0 1 𝑑
Por lo tanto, el sistema tiene solución si y solo si se verifica que:
−𝑎 + 𝑏 + 𝑐 + 𝑑 = 0.
De esta manera, la cápsula de S está formada por todos los vectores p tal que
Ejemplo
= {(𝑎, 𝑏) ∈ 𝑹𝟐 ∶ 𝛼 = 𝑎, −𝛼 + 3𝛽 = 𝑏, 𝛼, 𝛽 ∈ 𝑅}
Por lo tanto, para caracterizar los elementos de 〈𝑆〉, debemos determinar las
condiciones bajos las cuales el sistema
α=a
−α + 3β = b
tenga solución. Para ello, observemos que:
1 0𝑎 1 0 𝑎 1 0 𝑎
( | ) ~( | ) ~( |(𝑏 + 𝑎)⁄3)
−1 3 𝑏 𝑓2 + 𝑓1 0 3 𝑏 + 𝑎 (1 ⁄ 3 )𝑓2 0 1
De manera que el sistema tiene solución para cualquier par de valores para a y b, ya
que el determinante de la matriz de coeficientes es diferente de 0 independientemente
de los valores de 𝑎 y de 𝑏.
En otras palabras:
(𝑎, 𝑏) ∈ 〈𝑆〉 ⇐⇒ 𝑎 ∈ 𝑅 𝑦 𝑏 ∈ 𝑅.
Por lo tanto:
〈𝑆〉 = {(𝑎, 𝑏) ∈ 𝑅2 ∶ 𝑎 ∈ 𝑅, 𝑏 ∈ 𝑅} = 𝑅2
Ejercicios
1. Hallar el conjunto de vectores generados por 𝑺𝒊
𝑺𝒊 = {𝟏 + 𝒙, 𝒙𝟐 − 𝟐𝒙𝟑 , 𝟏 − 𝒙 + 𝒙𝟐 , 𝟏}
49
= (𝛼 + 𝛾 + 𝛿) + (𝛼 − 𝛾)𝑥 + (𝛽 + 𝛾)𝑥 2 + (−2𝛽)𝑥 3
𝛼 + 𝛾 + 𝛿 = 𝑎0
𝛼 − 𝛾 = 𝑎1
{
𝛽 + 𝛾 = 𝑎2
−2𝛽 = 𝑎3
La solución debe ser única No Trivial. Utilizaremos Matriz Ampliada.
1 0 1 1 𝑎0 1 0 1 1 𝑎0
1 0 −1 0 𝑎1 𝑓2 − 𝑓1 0 0 −2 −1 𝑎1 − 𝑎0
( | ) ~( | 𝑎 )
0 1 1 0 𝑎2 0 1 1 0 2
0 −2 0 0 𝑎3 0 −2 0 0 𝑎3 𝑓4 + 2𝑓3
1 0 1 1 𝑎0 1 0 1 1 𝑎0 𝑓1 − 𝑓2
0 0 −2 −1 𝑎1 − 𝑎0 −(1⁄2)𝑓2 0 0 1 (1⁄2) (𝑎0 − 𝑎1 )⁄2
( | 𝑎 ) ~( | 𝑎2 )
0 1 1 0 2 0 1 1 0 𝑓3 − 𝑓2
0 0 2 0 3𝑎 + 2𝑎2 0 0 2 0 𝑎 3 + 2𝑎 2 𝑓4 − 2𝑓2
𝟐 𝟏 𝟏 𝟎
2. Sea 𝑺 = {( ),( )} Hallar el conjunto generador.
𝟎 𝟎 𝟏 𝟏
Como un elemento genérico de las matrices 2x2 tiene 4 variables, necesitaré al menos
4 vectores para que genere todo el e.v (𝑀2𝑥2 , 𝑅, +,∙), por lo que se supone que se
tendrá un s.e.v que tendrá 4 − 2 = 2 condiciones.
𝑎11 𝑎12 2 1 1 0
(𝑎
21 𝑎22 ) = 𝛼 (0 0) + 𝛽 (1 1
)
𝑎11 𝑎12 2𝛼 𝛼 𝛽 0
(𝑎
21 𝑎22 ) = ( 0 0
)+(
𝛽 𝛽
)
𝑎11 𝑎12 2𝛼 + 𝛽 𝛼
(𝑎
21 𝑎22 ) = ( 𝛽 𝛽
)
50
𝑎11 = 2𝛼 + 𝛽
𝑎12 = 𝛼
{
𝑎21 = 𝛽
𝑎22 = 𝛽
Análisis 𝑚 > 𝑛 → 𝐴4𝑥2 → ∄|𝐴| → 𝑆. 𝑁. 𝐻 → 𝑀𝑎𝑡𝑟𝑖𝑧 𝐴𝑚𝑝𝑙𝑖𝑎𝑑𝑎.
1 −2 −1 0 0 1 −2 −1 0 0 𝑓1 + 𝑓2 1 −2 0 −1 0
( | ) ~( | ) ~( | )
1 −2 0 −1 0 𝑓2 − 𝑓1 0 0 1 −1 0 0 0 1 −1 0
Es decir:
𝑎 𝑎12
〈𝑆〉 = 𝑊𝑖 = {∀𝐴𝑖 = (𝑎11 𝑎22 )⁄ 𝑎11 = 2𝑎12 + 𝑎22 ; 𝑎21 = 𝑎22 }
21
2𝑎 + 𝑎22 𝑎12
〈𝑆〉 = 𝑊𝑖 = {( 12 )}
𝑎22 𝑎22
𝟏
3. Sea 𝑺𝟐 = {(𝟏, −𝟏, 𝟐 𝟏), ( ,
𝟐
−𝟏, 𝟎, 𝟏) , (𝟏 𝟐 𝟏 𝟎)} ∈ 𝑹𝟒 . Determinar el
conjunto generador.
〈𝑆〉 = {𝑣𝑖 = (𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) ∈ 𝑅4 }
1
(𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ) = 𝛼(1, −1,2,1) + 𝛽 ( , −1,0,1) + 𝛾(1,2,1,0)
2
1
= (𝛼, −𝛼, 2𝛼, 𝛼) + ( 𝛽, −𝛽, 0, 𝛽) + (𝛾, 2𝛾, 𝛾, 0)
2
1
= (𝛼 + 𝛽 + 𝛾, −𝛼 − 𝛽 + 2𝛾, 2𝛼 + 𝛾, 𝛼 + 𝛽)
2
51
1 1⁄2 1 𝑥1 1 1⁄2 1 𝑥1
−1 −1 2 𝑥2 𝑓2 + 𝑓1 0 − 1⁄2 3 𝑥2 + 𝑥1
( |𝑥 ) ≈( | ) ≈
2 0 1 3 3 𝑓 − 2𝑓1 0 −1 −1 𝑥3 − 2𝑥1 −𝑓3
1 1 𝑥
0 4 𝑓4 − 𝑓1 0 1⁄2 −1 𝑥4 − 𝑥1
1 1⁄2 1 𝑥1 𝑓1 − (1⁄2)𝑓3
0 − 1⁄2 3 𝑥2 + 𝑥1 𝑓 + (1⁄2)𝑓3
( | ) 2 ≈
0 1 1 2𝑥1 − 𝑥3
0 1⁄2 −1 𝑥4 − 𝑥1 𝑓4 − (1⁄2)𝑓3
1 0 1 ⁄2 (𝑥3 )⁄2
0 0 7⁄2 (2𝑥2 + 4𝑥1 − 𝑥3 )⁄2
( | ) ≈
0 1 1 2𝑥1 − 𝑥3
0 0 −3⁄2 (2𝑥4 − 4𝑥1 + 𝑥3 )⁄2 −(2⁄3)𝑓4
4. Demuestre que
𝑺𝟏 = {(𝟏, 𝟎, 𝟔, 𝟒), (𝟐, 𝟎, 𝟒, −𝟏), (−𝟏, 𝟎, 𝟐, 𝟓)} ∧ 𝑺𝟐 = {(𝟏, 𝟎, −𝟐, −𝟓), (𝟎, 𝟎, 𝟖, 𝟗)}
Forman o generan el mismo subespacio.
Para 𝑆1 tenemos:
(𝑎, 𝑏, 𝑐, 𝑑) = 𝛼(1,0,6,4) + 𝛽(2,0,4, −1) + 𝛾(−1,0,2,5)
1 2 −1 𝑎 1 2 −1 𝑎
0 0 0 𝑏 0 0 0 𝑏
( | ) ≈( | ) ≈
6 4 2 𝑐 𝑓3 − 6𝑓1 0 −8 8 𝑐 − 6𝑎 −(1⁄8)𝑓3
4 −1 5 𝑑 𝑓4 − 4𝑓1 0 −9 9 𝑑 − 4𝑎 −(1⁄9)𝑓4
52
1 2 −1 𝑎 𝑓1 − 2𝑓4 1 0 1 (−2𝑎 + 𝑐)⁄4
0 0 0 𝑏 0 0 0 𝑏
( | ) ≈( | )
0 1 −1 (6𝑎 − 𝑐)⁄8 𝑓3 − 𝑓4 0 0 0 (8𝑑 + 22𝑎 − 9𝑐)⁄72
0 1 −1 (4𝑎 − 𝑑) ⁄ 9 0 1 −1 (4𝑎 − 𝑑)⁄9
Por lo tanto:
〈𝑆1 〉 = {(𝑎, 𝑏, 𝑐, 𝑑) ∈ 𝑅4 ⁄𝑏 = 0 ∧ 8𝑑 + 22𝑎 − 9𝑐 = 0}
Para 𝑆2 en cambio:
(𝑎, 𝑏, 𝑐, 𝑑) = 𝛼(1,0, −2, −5) + 𝛽(0,0,8,9)
1 0𝑎 1 0 𝑎 1 0 𝑎
0 0𝑏 0 0 𝑏 0 0 𝑏
( | ) ≈( | ) ≈( | )
−2 8 𝑐 𝑓3 + 2𝑓1 0 8 𝑐 + 2𝑎 0 8 𝑐 + 2𝑎 𝑓3 − 8𝑓4
−5 9 𝑑 𝑓4 + 5𝑓1 0 9 𝑑 + 5𝑎 𝑓4 − 𝑓3 0 1 𝑑 + 3𝑎 − 𝑐
1 0 𝑎
0 0 𝑏
( | )
0 0 9𝑐 − 22𝑎 − 8𝑑
0 1 𝑑 + 3𝑎 − 𝑐
Por lo tanto:
〈𝑆2 〉 = {(𝑎, 𝑏, 𝑐, 𝑑) ∈ 𝑅4 ⁄𝑏 = 0 ∧ 8𝑑 + 22𝑎 − 9𝑐 = 0}
Que son las mismas restricciones que tiene 𝑆1 por lo que concluimos que los 2
generan el mismo subespacio.
= { 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 ∈ 𝑃: [𝑥]𝛼 + 2𝛾 = 𝑎, 2𝛽 = 𝑏, 𝛼 = 𝑐}.
53
Entonces, para determinar los elementos a, b y c, debemos averiguar bajo qué
condiciones necesarias y suficientes el sistema
𝛼 + 2𝛾 = 𝑎
2𝛽 = 𝑏
𝛼 = 𝑐
tiene solución.
Para ello, miremos su matriz ampliada:
1 0 2𝑎 1 0 2 𝑎 𝑓1 + 𝑓3 1 0 0 𝑐
(0 2 0| 𝑏 ) ≈ (0 2 0 | 𝑏 ) (1⁄2)𝑓2 ≈ (0 1 0 |(𝑏)⁄2)
1 0 0 𝑐 𝑓3 − 𝑓1 0 0 −2 𝑐 − 𝑎 0 0 −2 𝑐 − 𝑎
Como el determinante de la matriz de coeficientes es diferente de 0,
independientemente de a, b y c, entonces el sistema tiene solución para todo a, b y c.
Por lo tanto 〈𝑆〉 = 𝑃2 [𝑥].
En otras palabras, el conjunto
{p,p′,p′′} genera todo 𝑃2 [𝑥]].
2 𝑥 𝑓1 − 2𝑓2 0 𝑥 − 2𝑦
( 1 |𝑦 ) ≈ (1| 𝑦 )
−4 𝑧 𝑓3 + 4𝑓2 0 𝑧 + 4𝑦
𝑥 − 2𝑦 = 0 𝑥 = 2𝑦
𝑆 = {(𝑥, 𝑦, 𝑧)| } = {(𝑥, 𝑦, 𝑧)| }
𝑧 + 4𝑦 = 0 𝑧 = −4𝑦
〈𝑆〉 = {(2𝑦, 𝑦, −4𝑦)}
𝛼1 𝑣1 + 𝛼2 𝑣2 +··· + 𝛼𝑛 𝑣𝑛 = 0𝑣 ⇒ 𝛼1 = 𝛼2 = ··· = 𝛼𝑛 = 0.
2. El conjunto S es linealmente dependiente (ld) si y solo si no es linealmente
independiente. Es decir, si la combinación lineal nula tiene un número infinito de
soluciones. En otras palabras, el conjunto S es ld si:
𝛼1 𝑣1 + 𝛼2 𝑣2 +··· + 𝛼𝑛 𝑣𝑛 = 0𝑣 ∧ ∃𝑗 ∈ {1,2, . . . , 𝑛}tal que 𝛼𝑗 ≠ 0.
54
De la definición es claro que un conjunto no puede ser linealmente independiente y
dependiente al mismo tiempo. Esto lo podemos ver de otra manera: la combinación
lineal nula produce un sistema de ecuaciones lineales homogéneo que, como
sabemos, o tiene una sola solución —la trivial—, o tiene un número infinito de
soluciones. En el primer caso, el conjunto es li; en el segundo, es ld.
Ejemplo
El conjunto 𝑺 = {𝒑, 𝒑′, 𝒑′′} es li en (𝑷𝟐 [𝒙], 𝑹, +,·), donde 𝒑(𝒙) = 𝟏 + 𝒙𝟐
para todo x ∈ R.
Solución. Supongamos que
𝛼1 𝑝 + 𝛼2 𝑝′ + 𝛼3 𝑝′′ = 0𝑣.
𝛼1 (1 + 𝑥 2 ) + 𝛼2 (2𝑥) + 𝛼3 (2) = ( 𝛼1 + 2 𝛼3 ) + 2 𝛼2 𝑥 + 𝛼1 𝑥 2 = 0 + 0𝑥 + 0𝑥 2
para todo x ∈ R.
Por lo tanto, por la definición de igualdad entre polinomios, tenemos que:
𝛼1 + 2 𝛼3 = 0, 2 𝛼2 = 0, 𝛼1 = 0,
Ejemplo
Sea 𝑺 = {(𝟏, 𝒂, 𝟏), (−𝟏, 𝟎, 𝟏), (𝟏 + 𝒂, 𝟏, 𝟎)} ⊂ 𝑹𝟑 . ¿Para qué valores de a el conjunto
S es li? ¿Para qué valores de a es ld?
Solución. Sean 𝛼, 𝛽 y 𝛾 escalares tales que:
𝛼(1, 𝑎, 1) + 𝛽(−1,0,1) + 𝛾(1 + 𝑎, 1,0) = (0,0,0).
Entonces, se verifica que:
(𝛼 − 𝛽 + (1 + 𝑎)𝛾, 𝑎𝛼 + 𝛾, 𝛼 + 𝛽) = (0,0,0).
𝑎𝛼 + 𝛾 = 0
𝛼 + 𝛽 = 0.
Ahora debemos determinar para qué valores de a, este sistema tiene como única
solución la trivial y para qué valores tiene un número infinito de soluciones. Para ello,
calculemos el determinante de la matriz de coeficientes del sistema:
55
1 −1 1 + 𝑎 𝑓1 + 𝑓3 2 0 1+𝑎
2 1+𝑎
|𝑎 0 1 | = |𝑎 0 1 | = −| | = (𝑎2 + 𝑎 − 2) = (𝑎 + 2)(𝑎 − 1)
𝑎 1
1 1 0 1 1 0
Por lo tanto, el determinante es igual a 0 si y solo si 𝑎 = −2 𝑜 𝑎 = 1.
Esto significa que el sistema tiene un número infinito de soluciones si y solo si 𝑎 = −2
o 𝑎 = 1. Por lo tanto, conjunto 𝑆 es linealmente dependiente cuando 𝑎 = −2 𝑜 𝑎 =
1; y es linealmente independiente si 𝑎 ≠ −2 𝑦 𝑎 ≠ 1.
Observaciones
1. Todo conjunto finito que contiene el vector nulo, es linealmente dependiente, pues
0𝑣 = 1 · 0𝑣; es decir, hay al menos un escalar diferente de 0 en la combinación nula.
2. Si un conjunto contiene un subconjunto linealmente dependiente, entonces el
conjunto también es linealmente dependiente.
3. Todo subconjunto de un conjunto linealmente independiente también es linealmente
independiente.
Haciendo un resumen podríamos decir:
Propiedades
1. Sea (𝑉, 𝐾, +,∙) un e.v sea 𝑆 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } ⊂ 𝑉 si ∃ 𝑣𝑖 ∈ 𝑆 que sea C.L → 𝑆 es L.D
2. Sea (𝑉, 𝐾, +,∙) un e.v sea 𝑆 = {𝑣1 , 𝑣2 , … , 𝑣𝑛 } ⊂ 𝑉 si ∄ 𝑣𝑖 ∈ 𝑆 que sea C.L → 𝑆 es L.I.
3. Sea 𝑆 = {𝑣𝑖 , 𝑣2 , … , 0𝑣 , … , 𝑣𝑛 } ⊂ 𝑉𝑒𝑣 . Si 0𝑣 ∈ 𝑆 → 𝑆 es L.D
56
𝑆 = {𝑓1 (𝑥), 𝑓2 (𝑥), … , 𝑓𝑛 (𝑥) } ⊂ 𝐹 𝑒. 𝑣 .
Para demostrar que S es L. I. o L. D. entonces:
𝑓1 (𝑥) 𝑓2 (𝑥) ⋯ 𝑓𝑛 (𝑥)
𝑓′ (𝑥) 𝑓′2 (𝑥) ⋯ 𝑓 ′ 𝑛 (𝑥)
| 1 |
|𝐴| = 𝑓"1 (𝑥) 𝑓"2 (𝑥) ⋯ 𝑓"𝑛 (𝑥)
| ⋮ ⋮ ⋱ ⋮ |
(𝑛−1) (𝑛−1) (𝑛−1)
𝑓1 (𝑥) 𝑓2 (𝑥) ⋯ 𝑓𝑛 (𝑥)
Ejercicios
1. Determinar si 𝑺 es L.I. o L.D.
1 1 1 1 1 1
|𝐴3 | = |1 −1 2 | 𝑓2 − 𝑓1 ≈ |0 −2 1 | = (1)(−2)(−2) = 4 ≠ 0
1 1 −1 𝑓3 − 𝑓1 0 0 −2
c) Sistema Homogéneo → espero S.U.T y por la propiedad S es L.I
Vamos a demostrarlo usando matriz ampliada.
1 1 1 0 1 1 1 0
(1 −1 2 |0) 𝑓2 − 𝑓1 ≈ (0 −2 1 |0) −(1⁄2)𝑓2 ≈
1 1 −1 0 𝑓3 − 𝑓1 0 0 −2 0
1 1 1 0 𝑓1 − 𝑓2 1 0 3⁄2 0
(0 1 −(1⁄2)|0) ≈ (0 1 −(1⁄2)|0) ≈
0 0 −2 0 0 0 −2 0 −(1 ⁄ 2 )𝑓3
1 0 3⁄2 0 𝑓1 − (3⁄2)𝑓3 1 0 00
(0 1 | )
−(1⁄2) 0 𝑓2 + (1⁄2)𝑓3 ≈ ( 0 1 0|0)
0 0 1 0 0 0 10
De aquí se concluye que 𝛼 = 0, 𝛽 = 0, 𝛾 = 0, es decir S es L.I.
57
2. Para que valores de 𝜶 S es L.I
𝑺 = {(𝟏 − 𝒙 + 𝜶𝒙𝟐 ), (𝟏 − 𝜶𝒙 + 𝒙𝟐 ), (𝜶 + 𝒙 + 𝒙𝟐 )}
a) Teorema de 0𝑣
0 + 0𝑥 + 0𝑥 2 = 𝛽1 (1 − 𝑥 + 𝛼𝑥 2 ) + 𝛽2 (1 − 𝛼𝑥 + 𝑥 2 ) + 𝛽3 (𝛼 + 𝑥 + 𝑥 2 )
S.E.L
(𝛽1 + 𝛽2 + 𝛼𝛽3 ) = 0
{(−𝛽1 − 𝛼𝛽2 + 𝛽3 ) = 0
(𝛼𝛽1 + 𝛽2 + 𝛽3 ) = 0
b. Análisis 𝑚 = 𝑛 = 3 → 𝐴𝑛 → ∃|𝐴𝑛 |
1 1 𝛼 1 1 𝛼 1 1 𝛼
𝐴3 = |−1 −𝛼 1 | 𝑓2 + 𝑓1 = | 0 1−𝛼 1 + 𝛼| = (𝛼 − 1) |0 1−𝛼 1 + 𝛼|
𝛼 1 1 𝑓3 − 𝑓1 𝛼−1 0 1−𝛼 1 0 −1 𝐶3 + 𝐶1
1 1 𝛼+1
1 𝛼+1 1 𝛼+1
(𝛼 − 1) |0 1−𝛼 1 + 𝛼| = (𝛼 − 1) | | = (𝛼 − 1) | |
1−𝛼 1 + 𝛼 𝑓2 − 𝑓1 −𝛼 0
1 0 0
= (𝛼)(1 − 𝛼)(𝛼 + 1)
−1
Para que |𝐴| ≠ 0 → 𝛼 ≠ { 0 y cuando ocurre aquello S es L.I.
1
Para los valores de 𝜶 que hace que S sea L.D. Hallar la 〈𝑺〉
Si 𝛼 = −1
𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 = 𝛽1 (1 − 𝑥 − 𝑥 2 ) + 𝛽2 (1 + 𝑥 + 𝑥 2 ) + 𝛽3 (−1 + 𝑥 + 𝑥 2 )
S.E.L
(𝛽1 + 𝛽2 − 𝛽3 ) = 𝑎0
{(−𝛽1 + 𝛽2 + 𝛽3 ) = 𝑎1
(−𝛽1 + 𝛽2 + 𝛽3 ) = 𝑎2
1 1 −1 𝑎0 1 1 −1 𝑎0 1 1 −1 𝑎0
(−1 1 | 𝑎
1 1 2 ) 𝑓 + 𝑓1 ≈ (0 2 |
0 1 𝑎 + 𝑎0 ) ≈ ( 0 2 0 |𝑎1 + 𝑎0 )
−1 1 1 𝑎2 𝑓3 + 𝑓1 0 2 0 𝑎2 + 𝑎0 𝑓3 − 𝑓2 0 0 0 𝑎2 − 𝑎1
〈𝑆〉 = 𝑊𝛼=−1 {𝑃2 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 ⁄𝑎2 − 𝑎1 = 0}
58
〈𝑆〉 = 𝑊𝛼=−1 {𝑃2 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎1 𝑥 2 }
Si 𝛼 = 0
𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 = 𝛽1 (1 − 𝑥) + 𝛽2 (1 + 𝑥 2 ) + 𝛽3 (𝑥 + 𝑥 2 )
S.E.L
𝛽1 + 𝛽2 = 𝑎0
{−𝛽1 + 𝛽3 = 𝑎1
𝛽2 + 𝛽3 = 𝑎2
1 1 0 𝑎0 1 1 0 𝑎0 1 1 0 𝑎0
(−1 0 1|𝑎1 ) 𝑓2 + 𝑓1 ≈ (0 1 1|𝑎1 + 𝑎0 ) ≈ (0 1 1| 𝑎1 + 𝑎0 )
0 1 1 𝑎2 0 1 1 𝑎2 𝑓3 − 𝑓2 0 0 0 𝑎2 − 𝑎1 − 𝑎0
〈𝑆〉 = 𝑊𝛼=0 {𝑃2 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 ⁄ 𝑎2 − 𝑎1 − 𝑎0 = 0}
Si 𝛼 = 1
𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 = 𝛽1 (1 − 𝑥 + 𝑥 2 ) + 𝛽2 (1 − 𝑥 + 𝑥 2 ) + 𝛽3 (1 + 𝑥 + 𝑥 2 )
S.E.L
𝛽1 + 𝛽2 + 𝛽3 = 𝑎0
{−𝛽1 − 𝛽2 + 𝛽3 = 𝑎1
𝛽1 + 𝛽2 + 𝛽3 = 𝑎2
1 1 1 𝑎0 1 1 1 𝑎0
(−1 −1 1|𝑎1 ) 𝑓2 + 𝑓1 ≈ (0 0 2|𝑎1 + 𝑎0 )
1 1 1 𝑎2 𝑓3 − 𝑓1 0 0 0 𝑎2 − 𝑎0
〈𝑆〉 = 𝑊𝛼=1 {𝑃2 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 ⁄ 𝑎2 − 𝑎0 = 0}
0 = 𝛾1 − 𝛾2 − 2𝛾3
0 = 2𝛾1 + 𝛼𝛾2 − 4𝛾3
59
Análisis:
𝑚 = 𝑛 = 3 ⇒ |𝐴|𝑒𝑥𝑖𝑠𝑡𝑒
1 −1 −2 1 0 0
|𝐴| = | 2 𝛼 −4 | = | 2 𝛼+2 0 |
−1 𝛽 𝛼2 + 𝛼 −1 𝛽−1 𝛼2 + 𝛼 − 2
𝐶2 + 𝐶1 𝐶3 + 2𝐶1
|𝐴| = (𝛼 + 2)(𝛼 2 + 𝛼 − 2)
= (𝛼 + 2)(𝛼 + 2)(𝛼 − 1)
= (𝛼 + 2)2 (𝛼 − 1)
S es linealmente independiente si y solo si 𝛼 ≠ −2 y 𝛼 ≠ 1
a) 𝑺𝟏 = {𝒖, 𝒖 + 𝒗, 𝒖 + 𝒗 + 𝒘}
Aplicando el teorema del Ov
∅𝑣 = 𝛼𝑢 + 𝛽(𝑢 + 𝑣) + 𝛾(𝑢 + 𝑣 + 𝑤)
= (𝛼 + 𝛽 + 𝛾)𝑢 + (𝛽 + 𝛾)𝑣 + 𝛾𝑤
Cuyo S.E.L es
𝛼+𝛽+𝛾 =0
{ 𝛽+𝛾 =0
𝛾=0
Como 𝑚 = 𝑛 = 3 Utilizamos el determinante para verificar si es L.I o L.D
1 1 1
|𝐴3 | = |0 1 1| = 1 ≠ 0 por lo que S1 es L.I.
0 0 1
𝑺𝟐 = {(𝒖 − 𝒗), (𝒗 − 𝒘), (𝒘 − 𝒖)}
Aplicando el teorema del Ov
∅𝑣 = 𝛼(𝑢 − 𝑣) + 𝛽(𝑣 − 𝑤) + 𝛾(𝑤 − 𝑢)
Cuyo S.E.L es
𝛼−𝛾 =0
{−𝛼 + 𝛽 = 0
−𝛽 + 𝛾 = 0
60
1 0 −1 1 0 −1 1 0 −1
|𝐴3 | = |−1 1 0 | = |0 1 −1| = |0 1 −1| = 0 por lo que S2 es L.D.
0 −1 1 0 −1 1 0 0 0
4. Sean a,b,c ∈ 𝑹. El siguiente sistema de polinomios será L.I o L.D.
𝑾 = {(𝒙 − 𝒂)(𝒙 − 𝒃), (𝒙 − 𝒂)(𝒙 − 𝒄), (𝒙 − 𝒃)(𝒙 − 𝒄)}
Aplicando el teorema del Ov
∅𝑣 = 𝛼(𝑥 − 𝑎)(𝑥 − 𝑏) + 𝛽(𝑥 − 𝑎)(𝑥 − 𝑐) + 𝛾(𝑥 − 𝑏)(𝑥 − 𝑐)
Cuyo S.E.L es
1 1 10 1 1 1 0 𝑓1 − 𝑓2
−1 0 −2 0 𝑓2 + 𝑓1 0 1 −1 0
( 1 0 −1|0) 𝑓3 − 𝑓1 ∼ (0 −1 −2|0) 𝑓3 + 𝑓2
−1 2 3 0 𝑓4 + 𝑓1 0 3 4 0 𝑓4 − 3𝑓2
61
1 0 2 0 𝑓1 − 2𝑓4 1 0 0 0
(0 1 −1|0) 𝑓2 + 𝑓4 ∼ (0 1 0 |0)
0 0 −3 0 𝑓3 + 3𝑓4 0 0 0 0
0 0 10 0 0 10
Es linealmente independiente ya que:
0 = 𝛼1 = 𝛼2 = 𝛼3
−1 2𝑒 𝑎𝑥 𝑥 2 𝑒 𝑎𝑥
|𝑆| = | 0 2𝑎𝑒 𝑎𝑥 2𝑥𝑒 𝑎𝑥
+ 𝑎𝑥 2 𝑒 𝑎𝑥 |
0 2𝑎2 𝑒 𝑎𝑥 2(𝑒 + 𝑎𝑥𝑒 ) + 𝑎(2𝑥𝑒 𝑎𝑥 + 𝑎𝑥 2 𝑒 𝑎𝑥 )
𝑎𝑥 𝑎𝑥
2𝑎𝑒 𝑎𝑥 𝑒 𝑎𝑥 (2𝑥 + 𝑎𝑥 2 )
|𝑆| = − | 2 𝑎𝑥 |
2𝑎 𝑒 𝑒 𝑎𝑥 (2 + 2𝑎𝑥 + 2𝑎𝑥 + 𝑎2 𝑥 2 )
2 cos(2𝑥) −2𝑠𝑒𝑛(2𝑥)
|𝑆| = | |
−4𝑠𝑒𝑛(2𝑥) −4cos(2𝑥)
|𝑆| = −8𝑐𝑜𝑠 2 (2𝑥) − 8𝑠𝑒𝑛2 (2𝑥)
|𝑆| = −8 → |𝑆| ≠ 0 → 𝑆 𝑒𝑠 𝐿𝐼
8. Analizar la dependencia e independencia de:
𝑺 = {𝒔𝒆𝒏(𝒙 + 𝜶), 𝒔𝒆𝒏(𝒙 + 𝜷), 𝒔𝒆𝒏(𝒙 + 𝜹)} si 𝛂, 𝛃, 𝛅 son constantes
62
⇒ S es linealmente dependiente.
Definición 4.7 (Base) Sean (𝑉, 𝐾, +,·) un espacio vectorial y 𝐵 ⊂ 𝑉 . El conjunto 𝐵 es
una base del espacio vectorial 𝑉 si y solamente si 𝐵 es linealmente independiente y 𝐵
genera 𝑉 ; es decir, el subespacio vectorial generado por 𝐵 es el espacio vectorial 𝑉 .
En otras palabras, 𝐵 es una base de 𝑉 si y solo si:
1. 𝐵 es linealmente independiente; y
2. 〈𝐵〉 = 𝑉 .
Ejemplo
El conjunto 𝐵 = {𝑝, 𝑝′, 𝑝′′}, donde 𝑝(𝑥) = 1 + 𝑥 2 para todo x ∈ R, es una base del
espacio vectorial (𝑃2 [𝑥], 𝑅, +,·).
Ejemplo
El conjunto
𝐵 = {1, 𝑥 − 1, (𝑥 − 1)2 , (𝑥 − 1)3 } es una base del espacio vectorial (𝑃3 [𝑥], 𝑅, +,·).
𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 = (𝛼 − 𝛽 + 𝛾 − 𝛿) + (𝛽 − 2𝛾 + 3𝛿)𝑥 + (𝛾 − 3𝛿)𝑥 2 + 𝛿𝑥 3 },
𝛾 − 3𝛿 = 𝑐
𝛿 = 𝑑.
Por lo tanto: ℎ𝐵𝑖 = { 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 ∈ 𝑃3 [𝑥] ∶ 𝑎, 𝑏, 𝑐 𝑦 𝑑 satisfacen el sistema
Ahora bien, la matriz de los coeficientes del sistema es la siguiente:
1 −1 1 −1 𝑎
0 1 −2 3 𝑏
( | )
0 0 1 −3 𝑐
0 0 0 1 𝑑
Como se puede ver, su determinante es diferente de 0 para cualquier a, b, c y d. Por lo
tanto, el sistema tiene solución para todo a, b, c y d. Esto significa que
63
〈𝐵〉 = 𝑃3 [𝑥].
(𝛼 − 𝛽 + 𝛾 − 𝛿) + (𝛽 − 2𝛾 + 3𝛿)𝑥 + (𝛾 − 3𝛿)𝑥 2 + 𝛿𝑥 3 = 0 + 0𝑥 + 0𝑥 2 + 0𝑥 3 ..
Ejemplo
𝒂 𝒃 𝒂 𝒃
El conjunto 𝑾 = {( ) ∈ 𝑴𝟐𝒙𝟐 ∶ | | = 𝟎} es un s.e.v de (𝑴𝟐 , 𝑹, +,∙). Encontrar
𝒄 𝒅 𝟏 𝟐
una base para W.
Solución:
𝑎 𝑏 𝑎 𝑏 𝑎 𝑏
𝑊 = {( ) ∈ 𝑀2𝑥2 ∶ | | = 0} = {( ) ∈ 𝑀2𝑥2 ∶ 2𝑎 − 𝑏 = 0}
𝑐 𝑑 1 2 𝑐 𝑑
𝑎 𝑏 𝑎 2𝑎
𝑊 = {( ) ∈ 𝑀2𝑥2 ∶ 2𝑎 = 𝑏} = 𝑊 = {( ) ∈ 𝑀2𝑥2 ∶ 𝑎, 𝑐, 𝑑 ∈ 𝑅}
𝑐 𝑑 𝑐 𝑑
Ahora bien, como:
𝑎 2𝑎 1 2 0 0 0 0
( ) = 𝑎( )+𝑐( )+𝑑( )
𝑐 𝑑 0 0 1 0 0 1
Tenemos que:
𝑎 2𝑎 1 2 0 0 0 0
𝑊 = {( ) = 𝑎( )+𝑐( )+𝑑( ) : 𝑎, 𝑐, 𝑑 ∈ 𝑅 }
𝑐 𝑑 0 0 1 0 0 1
1 2 0 0 0 0
𝐵 = 〈{( ),( ),( )}〉
0 0 1 0 0 1
64
Por lo tanto el conjunto
1 2 0 0 0 0
𝐵 = {( ),( ),( )}
0 0 1 0 0 1
Genera W ya que 〈𝐵〉 = 𝑊
Ahora probemos que B es linealmente independiente. Para ello, supongamos que
𝛼, 𝛽 𝑦 𝛾 escalares tales que:
1 2 0 0 0 0 0 0
𝛼( )+𝛽( )+𝛾( )=( )
0 0 1 0 0 1 0 0
Esta igualdad implica que:
𝛼 2𝛼 0 0
( )=( )
𝛽 𝛾 0 0
la que, a su vez, implica, por la definición de igualdad entre matrices, que se verifiquen
las siguientes igualdades: 𝛼 = 0, 2𝛼 = 0, 𝛽 = 0, 𝛾 = 0.
En resumen, la igualdad implica que 𝛼 = 𝛽 = 𝛾 = 0. Esto significa que B es un
conjunto linealmente independiente.
65
Ahora bien, B genera el espacio V y tiene m elementos. Entonces, como B′ es
linealmente independiente, por el teorema anterior se debe cumplir que n ≤ m. Si
ahora intercambiamos B y B′ en el razonamiento anterior, tenemos que m ≤ n. Es
decir, m = n.
Teorema 4.8 Todas las bases de un espacio vectorial tienen el mismo número de
elementos
Definición 4.8 (Dimensión) Sea (V,K,+,·) un espacio vectorial. El número de
elementos de cualquier base de 𝐵 se denomina dimensión del espacio vectorial 𝑉 . En
el caso de que V sea el espacio nulo, se asigna 0 a la dimensión de 𝑉 . Se acostumbra
a representar la dimensión de 𝑉 con 𝑑𝑖𝑚(𝑉 ).
Ejemplo
Dado que el conjunto
1 2 0 0 0 0
𝐵 = {( ),( ),( )} es una base del e.v.
0 0 1 0 0 1
𝑎 𝑏 𝑎 𝑏
𝑊 = {( ) ∈ 𝑀2𝑥2 ∶ | | = 0}.
𝑐 𝑑 1 2
podemos concluir que 𝑑𝑖𝑚(𝑊) = 3.
Cuando el número de elementos de una base es finito, se dice que el espacio vectorial
es de dimensión finita.
Las siguientes son las bases denominadas canónicas en el sentido de que se ajustan
a un canon o modelo ideal y son de los principales e.v que se estudia a este nivel.
Ejemplo
1. En el espacio vectorial (𝑅, 𝐾, +,·), el conjunto 𝐶 = {1} es linealmente independiente,
pues la igualdad 𝛼 · 1 = 0 implica necesariamente que 𝛼 = 0, ya que 1 ≠ 0
Adicionalmente, la cápsula de 𝐶 es 𝑅, pues
〈𝐶〉 = {𝛼 · 1 ∈ 𝑅 ∶ 𝛼 ∈ 𝑅} = {𝛼 ∈ 𝑅 ∶ 𝛼 ∈ 𝑅} = 𝑅.
Por lo tanto, 𝐶 es una base para (𝑅, 𝐾, +,·), y es la canónica. Además, 𝑑𝑖𝑚(𝑅) = 1.
de donde: 𝛼 = 𝛽 = 0.
66
4. En el espacio (𝑅𝑛 , 𝐾, +,·), la base canónica es:
𝐶 = {(1,0,0, . . . ,0), (0,1,0, . . . ,0), . . . , (0,0, . . . ,0,1)}. Entonces, 𝑑𝑖𝑚(𝑅𝑛 ) = 𝑛.
5. En el espacio (𝐶, 𝐾, +,·), la base canónica es:
𝐶 = {1, 𝚤}. Por lo tanto, 𝑑𝑖𝑚(𝐶) = 2.
Ejemplo
Determinar si el conjunto
𝑩 = {(𝟎, 𝟏, 𝟏), (𝟏, 𝟎, 𝟏), (𝟏, 𝟏, 𝟎)} es una base del espacio vectorial (𝑹𝟑 , 𝑲, +,·).
67
Por lo tanto, si la igualdad fuera verdadera, entonces 𝛼, 𝛽 y 𝛾 satisfarían el siguiente
sistema de ecuaciones:
𝛽 + 𝛾 = 0
𝛼 + 𝛾 = 0
𝛼 + 𝛽 = 0,
cuya matriz de coeficientes:
0 1 1
(1 0 1)
1 1 0
tiene determinante es diferente de 0, pues:
0 1 1 0 1 1
|1 0 1| = |0 −1 1| = 2
1 1 0 1 1 0
Por lo tanto, la solución del sistema es la trivial: 𝛼 = 𝛽 = 𝛾 = 0.
En otras palabras, el conjunto B es linealmente independiente y, por lo tanto, es una
base de 𝑅3 .
Ejemplo
El conjunto de 𝑹𝟑
𝑩 = {(𝟏, 𝟎, 𝟏), (𝟏, −𝟏, 𝟎)} es linealmente independiente. Obtener una base 𝑩′ para
𝑹𝟑 de manera que 𝑩′ contenga a 𝑩.
𝑅3 = {(𝑎, 𝑏, 𝑐) ∈ 𝑅3 : 𝛼 + 𝛽 = 𝑎, −𝛽 = 𝑏, 𝛼 = 𝑐)}.
Ahora determinemos las condiciones que deben cumplir a, b y c para que el sistema
𝛼 + 𝛽 = 𝑎
−𝛽 = 𝑏
𝛼 = 𝑐
tenga solución.
Para ello, trabajemos con su matriz ampliada:
1 1 𝑎 1 1 𝑎 1 1 𝑎
(0 −1|𝑏) ≈ (0 −1| 𝑏 ) ≈ (0 −1| 𝑏 )
1 0 𝑐 0 −1 𝑐 − 𝑎 0 0 𝑐−𝑎−𝑏
Por lo tanto, el sistema tiene solución si y solo si −𝑎 − 𝑏 + 𝑐 = 0.
68
Ahora busquemos un elemento de 𝑅 3 que no esté en 〈𝐵〉.
Por ejemplo, el vector (0,0,1) (la tercera coordenada no es la suma de las dos
primeras) no está en 〈𝐵〉. Por lo tanto, el conjunto 𝐵′ = 𝐵 ∪ {(0,0,1)} es linealmente
independiente. Como tiene tres elementos, 𝐵′ es una base de 𝑅 3 y contiene a B.
El siguiente es otro corolario del teorema.
Teorema 4.14 Sea (𝑉, 𝐾, +,·) un espacio vectorial de dimensión 𝑛. Si 𝑊 es un
subespacio vectorial propio de 𝑉 (es decir, 𝑊 ⊂ 𝑉 y 𝑊 ≠ 𝑉 ), entonces W tiene
dimensión finita y 𝑑𝑖𝑚(𝑊) < 𝑑𝑖𝑚(𝑉 ).
Teorema 4.15 Sean (𝑉, 𝐾, +,·) un espacio vectorial y S un subconjunto finito de V . Si
S es linealmente dependiente y 𝑣 ∈ 𝑆 es combinación lineal de los demás elementos
de S, entonces: 〈𝑆〉 = 〈𝑆 − {𝑣}〉.
Ejemplo 4.54
Sea
1 0 0 −2 2 2
𝑆 = {( ),( ),( )}
0 −1 −1 1 1 −3
Obtener:
1. la cápsula de 𝑆,〈𝑆〉 ; y
2. una base y la dimensión de 〈𝑆〉.
Solución.
1. Observemos que el conjunto S es linealmente dependiente, ya que
1 0 0 −2 2 2
2( ) + (−1) ( )=( )
0 −1 −1 1 1 −3
2 2
Por el teorema anterior, al eliminar el vector ( )
1 −3
de S, la cápsula de S menos ese vector sigue siendo igual a la cápsula de S:
〈𝑆〉 = 〈{(1 0
),(
0 −2
)}〉
0 −1 −1 1
𝑎 𝑏 𝑎 𝑏 1 0 0 −2
= {( ) ∈ 𝑀2𝑥2 : ( ) = 𝛼( )+𝛽( )}
𝑐 𝑑 𝑐 𝑑 0 −1 −1 1
𝛼 = 𝑎
−2𝛽 = 𝑏
−𝛽 = 𝑐
−𝛼 + 𝛽 = 𝑑
tenga solución. De las matrices equivalentes de la matriz ampliada:
69
1 0 𝑎 1 0 𝑎 1 0 𝑎
0 −2 𝑏 0 −2 𝑏 0 0 2𝑎 + 𝑏 + 2𝑑
( | )~( | )~( | )
0 −1 𝑐 0 −1 𝑐 0 0 𝑐+𝑎+𝑑
−1 1 𝑑 0 1 𝑑+𝑎 0 1 𝑑+𝑎
concluimos que el sistema tiene solución si
𝑐 + 𝑎 + 𝑑 = 0 y 2𝑎 + 𝑏 + 2𝑑 = 0
Por lo tanto:
〈𝑆〉 = {(𝑎 𝑏
) ∈ 𝑀2𝑥2 : 𝑐 + 𝑎 + 𝑑 = 0,2𝑎 + 𝑏 + 2𝑑 = 0 }
𝑐 𝑑
2. El conjunto
1 0 0 −2
{( ),( )}
0 −1 −1 −1
es el ideal para ser la base de 〈𝑆〉. Para confirmarlo, lo único que resta por hacer es
probar que es linealmente independiente. Para ello, sean α y β escalares tales que:
1 0 0 −2 0 0
𝛼( )+𝛽( )=( )
0 −1 −1 −1 0 0
De esta igualdad se obtiene:
𝛼 −2𝛽 0 0
( )=( )
−𝛽 −𝛼 + 𝛽 0 0
de donde tenemos que α = 0 y β = 0. Por lo tanto, este conjunto es linealmente
independiente y, por lo tanto, una base de 〈𝑆〉 Finalmente, podemos afirmar que
𝑑𝑖𝑚 〈𝑆〉 = 2.
Teorema 4.16 Sean (𝑉, 𝐾, +,·) un espacio vectorial de dimensión 𝑛 y 𝐵 ⊂ 𝑉 con 𝑛
elementos. Entonces, 𝐵 es una base de 𝑉 si y solo si 𝐵 genera 𝑉 ; es decir, si y solo si
〈𝐵〉 = 𝑉.
Ejemplo
𝑊 = {(𝑎, 𝑐, 𝑐, 𝑑) ∈ 𝑅4 ∶ 𝑎, 𝑐, 𝑑 ∈ 𝑅}.
Por lo tanto:
𝑊 = {(𝑎, 0,0,0) + (0, 𝑐, 𝑐, 0) + (0,0,0, 𝑑) ∈ 𝑹𝟒 ∶ 𝑎, 𝑐, 𝑑 ∈ 𝑅}
70
𝒂 − 𝟐𝒃 + 𝒄 = 𝟎
𝑊 = {(𝒂, 𝒃, 𝒄, 𝒅) ∈ ℝ𝟒 | 𝟑𝒂 − 𝟓𝒄 + 𝟐𝒅 = 𝟎 } 𝑩𝒂𝒔𝒆 𝒑𝒂𝒓𝒂 𝑾 =?
−𝟐𝒃 + 𝟑𝒄 − 𝟓𝒅 = 𝟎
1 −2 1 0 0 1 −2 1 0 0
(3 0 −5 2 |0) 𝑓2 − 3𝑓1 (0 6 −8 2 |0) (1⁄6)𝑓2
0 −2 3 −5 0 0 −2 3 −5 0
63 51
𝑎= 𝑑 𝑏= 𝑑 𝑐 = 13𝑑
3 3
𝑊 = {((63⁄3)𝑑, (51⁄3)𝑑, 13𝑑, 𝑑)}
5 13
𝑥=− 𝑧 𝑦= 𝑧
11 11
5
𝑥 = − 11 𝑧
𝑊 = {(𝑥, 𝑦, 𝑧)| }
13
𝑦 = 11 𝑧
5 13
𝑊 = {(− 𝑧, 𝑧, 𝑧)}
11 11
5 13
𝑊 = {𝑧(− 11 , 11 , 1)}
5 13
𝐵𝑤 = {(− 11 , 11 , 1)}
dim(𝐵𝑤) = 1
Para la dimensión de Bw
dim(𝑅3 ) = 3
71
# restricciones = 2
Sea 𝑺 = {𝟏 − 𝒕 − 𝟐𝒕𝟐 , 𝟐 + 𝒕 − 𝒕𝟐 , 𝒕 + 𝒕𝟐 }
a) ¿S es base de 𝑷𝟐 (𝒕)?
b) Si no lo es, hallar la cápsula de S y a partir de esa cápsula calcular su
base
𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 = 𝛼1 (1 − 𝑡 − 2𝑡 2 ) + 𝛼2 (2 + 𝑡 − 𝑡 2 ) + 𝛼3 (𝑡 + 𝑡 2 ) = 0 + 0𝑥 + 0𝑥 2
Análisis:
𝑚 = 𝑛 = 3 ⇒ |𝑆| existe
1 2 0
|𝑆| = |−1 1 1|
−2 −1 1
𝐶2 − 2𝐶1
1 0 0
|𝑆| = |−1 3 1| = 0
−2 3 1
Como |𝑆| = 0 ⇒ S es linealmente dependiente
Al ser linealmente dependiente no genera a 〈𝑃2 (𝑡)〉
1 2 0 0 𝑎0
(−1 1 1|0| 𝑎1 ) 𝑓2 + 𝑓1 ≈
−2 −1 1 0 𝑎2 𝑓3 + 2𝑓1
1 2 00 𝑎0
(0 3 1|0| 𝑎1 + 𝑎0 ) 𝑓2 ⁄3
0 3 10 𝑎2 + 2𝑎0 𝑓3 − 𝑓2
1 2 0 0 𝑎0 𝑓1 − 2𝑓2
(0 1 1/3|0| (𝑎1 + 𝑎0 )/3 )
0 0 0 0 𝑎2 + 𝑎0 − 𝑎1
1 0 −2⁄3 0 (𝑎0 − 2𝑎1 )/3
(0 1 1/3 |0| (𝑎1 + 𝑎0 )/3 )
0 0 0 0 𝑎2 + 𝑎0 − 𝑎1
2
𝑎0 − 3 𝑎2 = 0
1
𝑎1 + 3 𝑎2 = 0
𝑎2 = 𝑡
Presenta infinitas soluciones
⇒ no es linealmente independiente
〈𝑆〉 = {𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡 2 /𝑎0 − 𝑎1 + 𝑎2 = 0}
72
〈𝑆〉 = {𝑎0 + 𝑎0 𝑡 + 𝑎2 𝑡 + 𝑎2 𝑡 2 }
〈𝑆〉 = {𝑎0 (1 + 𝑡) + 𝑎2 (𝑡 + 𝑡 2 )}
𝐵𝑆 = {1 + 𝑡; 𝑡 + 𝑡 2 }
Comprobar si Bs es linealmente independiente
1 00 1 00 1 00
(1 1|0) 𝑓2 − 𝑓1 ≈ (0 1| 0 ) ≈ (0 1| 0)
0 10 0 1 0 𝑓3 − 𝑓2 0 00
𝛼1 = 0 𝛼2 = 0
⇒ 𝐵𝑠 es base de S
Definición 4.9 (Suma de subespacios) Sean (𝑉, 𝐾, +,·) un espacio vectorial y 𝑊1 y
𝑊2 dos subespacios vectoriales de V . Se define 𝑊1 + 𝑊2 por:
𝑊1 + 𝑊2 = {𝑣 ∈ 𝑉 ∶ 𝑣 = 𝑤1 + 𝑤2 , 𝑤1 ∈ 𝑊1 , 𝑤2 ∈ 𝑊2 }.
73
Sea 𝑈 = {𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 ∈ 𝑃3 [𝑥] ∶ 𝑎 − 2𝑏 − 𝑐 = 0, 𝑏 − 𝑐 − 𝑑 = 0} un
subespacio vectorial de (𝑃3 [𝑥], 𝑅, +,·). Encontrar un subespacio vectorial 𝑊 tal que
𝑃3 [𝑥] = 𝑈 ⊕ 𝑊.
= {(2𝑏 + 𝑏𝑥 + 𝑏𝑥 3 ) + (𝑐 + 𝑐𝑥 2 − 𝑐𝑥 3 ) ∈ 𝑃3 [𝑥]: 𝑏 ∈ 𝑅, 𝑐 ∈ 𝑅}
𝛼(2 + 𝑥 + 𝑥 3 ) + 𝛽(1 + 𝑥 2 − 𝑥 3 ) = 0 + 0𝑥 + 0𝑥 2 + 0𝑥 3 .
Por lo tanto:
(2𝛼 + 𝛽) + 𝛼𝑥 + 𝛽𝑥 2 + (𝛼 − 𝛽)𝑥 3 = 0 + 0𝑥 + 0𝑥 2 + 0𝑥 3 ,
de donde es inmediato que α = 0 y β = 0 son los únicos valores que satisface esta
igualdad. Por lo tanto, 𝐵1 es linealmente independiente. En resumen, hemos
encontrado una base para U, el conjunto 𝐵1 .
2. Una base para V que contenga a 𝐵1 . El procedimiento a seguir es el siguiente:
74
En primer lugar, busquemos un polinomio de 𝑃3 [𝑥]que no esté en U. Por ejemplo, 𝑥, ya
que 𝑎 ≠ 2𝑏 − 𝑐, pues 𝑎 = 0, 𝑏 = 1 𝑦 𝑐 = 0. Sea 𝐵2 = 𝐵1 ∪ {𝑥}. Como tiene tres
elementos, entonces no genera 𝑃3 [𝑥]cuya dimensión es 4.
Volvemos al segundo paso del procedimiento: buscar un vector que esté en 𝑃3 [𝑥]pero
no en 〈𝐵2 〉 Para esto, determinemos 〈𝐵2 〉:
〈𝐵2 〉 = {𝑝(𝑥) = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 ∈ 𝑃3[𝑥]
= 𝑝(𝑥) = 𝛼(2 + 𝑥 + 𝑥 3 ) + 𝛽(1 + 𝑥 2 − 𝑥 3 ) + 𝛾𝑥}
= 𝑝(𝑥) = (2𝛼 + 𝛽)(𝛼 + 𝛾)𝑥 + 𝛽𝑥 2 + (𝛼 − 𝛽)𝑥 3 }
Entonces, α, β y γ satisfacen el siguiente sistema de ecuaciones:
2𝛼 + 𝛽 = 𝑎
𝛼 + 𝛾 = 𝑏
𝛽 = 𝑐
𝛼 − 𝛽 = 𝑑.
Ahora determinemos las condiciones que deben cumplir a, b, c y d para que este
sistema tenga solución. Para ello, trabajemos con la matriz ampliada del sistema:
2 1 0𝑎 0 3 0 𝑎 − 2𝑑 0 0 0 𝑎 − 3𝑐 − 2𝑑
1 0 1𝑏 0 1 1 𝑏−𝑑 0 1 1 𝑏−𝑑
( | )~( | )~( | )
0 1 0 𝑐 0 1 0 𝑐 0 1 0 𝑐
1 −1 0𝑑 1 −1 0 𝑑 1 −1 0 𝑑
Por lo tanto, para que el sistema tenga solución, se debe satisfacer la igualdad:
𝑎 − 3𝑐 − 2𝑑 = 0.
Entonces:
〈𝐵2 〉 = {𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3 ∈ 𝑃3 [𝑥] ∶ 𝑎 − 3𝑐 − 2𝑑 = 0}.
𝑊 = {𝑎𝑥 + 𝑏𝑥 2 ∶ 𝑎 ∈ 𝑅, 𝑏 ∈ 𝑅}.
Ejemplo
Sean 𝑾 𝟏 = {(𝒙, 𝒚, 𝒛) ∈ 𝑹𝟑 ∶ 𝒙 + 𝒚 + 𝒛 = 𝟎} y
𝑾𝟐 = {(𝒙, 𝒚, 𝒛) ∈ 𝑹𝟑 ∶ 𝟐𝒙 + 𝒚 = 𝟎, 𝒚 − 𝒛 = 𝟎}
𝑹𝟑 = 𝑾 𝟏 ⊕ 𝑾𝟐.
75
= {(−𝑦 − 𝑧, 𝑦, 𝑧) ∈ 𝑅3 ∶ 𝑦 ∈ 𝑅, 𝑧 ∈ 𝑅}
Por lo tanto, el conjunto 𝐵2 = {(1, −2, −2)} genera 𝑊2 . Puesto que también es
linealmente independiente, pues tiene un solo elemento y ese elemento es diferente
de 0v, 𝐵2 es una base de 𝑊2 .
3. Determinación de 𝑊 1 + 𝑊2 . Recordemos que: 𝑊 1 + 𝑊2 = 〈𝐵1 ∪ 𝐵2 〉. Vamos a
probar que 𝐵1 ∪ 𝐵2 es linealmente independiente. Como tiene tres elementos,
entonces va a generar 𝑅3 , es decir, 𝑅3 = 𝑊 1 + 𝑊2. Pero esto implica, por el teorema
de la dimensión, que 𝑑𝑖𝑚(𝑊1 ∩ 𝑊2) = 0, de donde 𝑊1 ∩ 𝑊2 = {0𝑣}. Es
decir, 𝑊1 ⊕ 𝑊2 = 𝑅3 .
𝛽 − 2𝛾 = 0
que tiene solución única, la trivial, pues la matriz de coeficientes es equivalente a una
triangular superior cuyo rango es igual a 3:
−1 −1 1 0 −1 −1 1 0 −1 −1 1 0
(1 0 −2|0) ~ ( 0 −1 −1|0) ~ ( 0 −1 −1|0)
0 1 −2 0 0 1 −2 0 0 0 −3 0
Por lo tanto, 𝐵1 ∪ 𝐵2 es un conjunto linealmente independiente
Ejemplo
76
Sean 𝑾𝟏 , 𝑾𝟐 y 𝑾𝟑 tres subespacios vectoriales de un espacio vectorial V de
dimensión finita tales que:
1. 𝑾𝟏 ⊂ 𝑾𝟐 ;
2. 𝑾𝟏 + 𝑾𝟑 = 𝑾𝟐 + 𝑾𝟑 ; y
3. 𝑾𝟏 ∩ 𝑾𝟑 = 𝑾𝟐 ∩ 𝑾𝟑 .
Entonces 𝑾𝟏 = 𝑾𝟐 .
Solución. Del teorema de la dimensión, podemos afirmar que
𝑑𝑖𝑚(𝑊1 ∩ 𝑊3 ) = 𝑑𝑖𝑚(𝑊1 ) + 𝑑𝑖𝑚(𝑊3 ) − 𝑑𝑖𝑚(𝑊1 + 𝑊3 )
y que
𝑑𝑖𝑚(𝑊2 ∩ 𝑊3 ) = 𝑑𝑖𝑚(𝑊2 ) + 𝑑𝑖𝑚(𝑊3 ) − 𝑑𝑖𝑚(𝑊2 + 𝑊3 ).
La segunda hipótesis implica que
𝑑𝑖𝑚(𝑊1 + 𝑊3 ) = 𝑑𝑖𝑚(𝑊2 + 𝑊3 )
y la tercera,
𝑑𝑖𝑚(𝑊1 ∩ 𝑊3 ) = 𝑑𝑖𝑚(𝑊2 ∩ 𝑊3 ).
Por lo tanto:
𝑑𝑖𝑚(𝑊1 ) + 𝑑𝑖𝑚(𝑊3 ) − 𝑑𝑖𝑚(𝑊1 + 𝑊3 ) = 𝑑𝑖𝑚(𝑊2 ) + 𝑑𝑖𝑚(𝑊3 ) − 𝑑𝑖𝑚(𝑊2 + 𝑊3 )
𝑑𝑖𝑚(𝑊1 ) + 𝑑𝑖𝑚(𝑊3 ) = 𝑑𝑖𝑚(𝑊2 ) + 𝑑𝑖𝑚(𝑊3 )
𝑑𝑖𝑚(𝑊1 ) = 𝑑𝑖𝑚(𝑊2 ).
𝑊1 = {𝑤𝑖 ∈ 𝑉 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 1 } y
𝑊2 = {𝑤𝑗 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛2 },
4.7.2 Intersección
Sea 𝑊1 , 𝑊2 s.e.v de (𝑉, 𝐾, +,∙)
𝑊1 = {𝑤𝑖 ∈ 𝑉 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 1 } y
𝑊2 = {𝑤𝑗 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛2 },
77
4.7.3 Suma
Sea 𝑊1 , 𝑊2 s.e.v de (𝑉, 𝐾, +,∙)
𝑊1 = {𝑤𝑖 ∈ 𝑉 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 1 } y
𝑊2 = {𝑤𝑗 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛2 },
∃ 𝑊1 + 𝑊2 = 𝑊5 = {𝑤𝑚 ∈ 𝑉 ∕ 𝑤𝑚 = 𝑤1 + 𝑤2 }
𝑊1 = {𝑤𝑖 ∈ 𝑉 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 1 } y
𝑊2 = {𝑤𝑗 / 𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛2 },
𝑊1 𝑈 𝑊2 = W3 = C
𝑊1 ∩ 𝑤2 = 0v
𝑊1 + 𝑤2 = W3 = elementos
ii) 𝑊1, 𝑊2 se intersecan
𝑊1 𝑈 𝑊2= W3
𝑊1 ∩ 𝑊2 = W4
𝑊1 + 𝑊2 = W5
iii) 𝑊1 ⊂ 𝑊2
𝑊1 𝑈 𝑊2 = W2
𝑊1 ∩ 𝑊2 = W1
𝑊1 + 𝑊2 = W3
iv) W1 = W2
𝑊1 𝑈 𝑊2 = W1=W2
𝑊1 ∩ 𝑊2 = W1=W2
𝑊1 + 𝑊2 = W1=W3
v) W1 se interseca con W2
𝑊1 𝑈 𝑊2 = V
𝑊1 ∩ 𝑊2 = W3
78
𝑊1 + 𝑊2= V
vi) W1 y W2 son complementarios
𝑊1 𝑈 𝑊2 = Ve.v.
𝑊1 ∩ 𝑊2 = 0v Base (𝑤1 ∩ 𝑤2) = ∅
𝑑𝑖𝑚 (𝑤1 ∩ 𝑤2) = 0
𝑊1 + 𝑊2 = V
Ejercicio
a) Hallar el valor de 𝜷 para que 𝑺𝒊 tenga ∞ soluciones
b) Si 𝜷 = 𝟐 hallar la base y dimensión del C.S resultante =𝑾𝟏
c) Sea 𝑺𝟐 = {(−𝟏, −𝟐, 𝟑), (𝟎, 𝟏, 𝟐), (−𝟐, −𝟒, 𝟔)} Hallar 𝑾𝟐 = 〈𝑺𝟐 〉, 𝑩𝒂𝒔𝒆 𝒚 𝒅𝒊𝒎
d) Hallar (𝑾𝟏 ∩ 𝑾𝟐 ), (𝑾𝟏 + 𝑾𝟐 ), 𝑩𝒂𝒔𝒆 𝒚 𝒅𝒊𝒎
(𝟕 − 𝜷)𝒙 − 𝟐𝒚 − 𝟒𝒛 = 𝟎
𝑺𝒊 = { 𝟑𝒙 − 𝜷𝒚 − 𝟐𝒛 = 𝟎
𝟔𝒙 − 𝟐𝒚 − (𝟑 + 𝜷)𝒛 = 𝟎
a) Análisis 𝑚 = 𝑛 = 3 → |𝐴3 |
(7 − 𝛽) −2 −4 𝐶1 + 𝐶2 + 𝐶3 (1 − 𝛽) −2 −4
|𝐴| = | 3 −𝛽 −2 | = |(1 − 𝛽) −𝛽 −2 | =
6 −2 −(3 + 𝛽) (1 − 𝛽) −2 −(3 + 𝛽)
1 −2 −4 1 −2 −4
(1 − 𝛽) |1 −𝛽 −2 | 𝑓2 − 𝑓1 = (1 − 𝛽) |0 (2 − 𝛽) 2 |
1 −2 −(3 + 𝛽) 𝑓3 − 𝑓1 0 0 (1 − 𝛽)
|𝐴| = (1 − 𝛽)2 (2 − 𝛽)
1
Para que existan infinitas soluciones 𝛽 = {
2
b) Si 𝛽 = 2
5 −2 −4 0 𝑓1 − 𝑓2 2 0 −2 0 3𝑓1 − 2𝑓3 0 0 0 0
(3 −2 −2|0) ≈ (3 −2 −2|0) (1⁄3)𝑓2 ≈ (1 − 2⁄3 − 2⁄3|0)
6 −2 −5 0 𝑓3 − 𝑓2 3 0 −3 0 3 0 −3 0 𝑓3 − 3𝑓2
0 0 0 0 0 0 0 0
(1 − 2⁄3 ⁄ |
−2 3 0 ) ≈ ( 1 − 2⁄3 − 2⁄3|0) 𝑓2 + (2⁄3)𝑓3
0 2 −1 0 (1⁄2 𝑓3 ) 0 1 − 1⁄2 0
0 0 0 0
(1 0 −1 |0)
0 1 − 1 ⁄2 0
𝐶. 𝑆 = 𝑊1 = {(𝑥, 𝑦, 𝑧) ∈ 𝑅3 ⁄𝑥 − 𝑧 = 0; 𝑦 − (1⁄2)𝑧 = 0}
𝐶. 𝑆 = 𝑊1 = {(𝑧, (1⁄2)𝑧, 𝑧) ∈ 𝑅3 ⁄𝑧 ∈ 𝑅}
𝐶. 𝑆 = 𝑊1 = {𝑧(1, (1⁄2), 1) ∈ 𝑅3 ⁄𝑧 ∈ 𝑅}
79
𝑑𝑖𝑚(𝐵𝑊1 ) = 1
−𝛼 − 2𝛾 = 𝑥
{−2𝛼 + 𝛽 − 4𝛾 = 𝑦
3𝛼 + 2𝛽 + 6𝛾 = 𝑧
Análisis 𝑚 = 𝑛 = 3 → |𝐴3 |
−1 0 −2 (1⁄2)𝐶1 −1 0 −1
|−2 1 −4| = |−2 1 −2| = 0
3 2 6 3 2 3
S.N.H. entonces se espera infinitas o ninguna solución se realiza con matriz ampliada.
−1 0 −2 𝑥 −1 0 −2 𝑥 −𝑓1
(−2 1 −4|𝑦) 𝑓2 − 2𝑓1 ≈ ( 0 1 0 |𝑦 − 2𝑥 ) ≈
3 2 6 𝑧 𝑓3 + 3𝑓1 0 2 0 𝑧 + 3𝑥 𝑓3 − 2𝑓1
1 0 2 −𝑥 −𝑓1
(0 1 0 | 𝑦 − 2𝑧 )
0 0 0 7𝑥 − 2𝑦 + 𝑧 𝑓3 − 2𝑓1
〈𝑆2 〉 = 𝑊2 = {(𝑥, 𝑦, 𝑧) ∈ 𝑅3 ∕ 7𝑥 − 2𝑦 + 𝑧}
2𝑦 − 𝑧
〈𝑆2 〉 = 𝑊2 = {(𝑥, 𝑦, 𝑧) ∈ 𝑅3 ⁄𝑥 = }
7
2𝑦 − 𝑧
〈𝑆2 〉 = 𝑊2 = {( , 𝑦, 𝑧) 𝑦, 𝑧 ∈ 𝑅}
7
2 1
〈𝑆2 〉 = 𝑊2 = {𝑦 ( , 1,0) + 𝑧 (− , 0,1) 𝑦, 𝑧 ∈ 𝑅}
7 7
2 1
𝐵𝑊2 = {( , 1,0) , (− , 0,1)}
7 7
𝑑𝑖𝑚(𝑊2 ) = 2
d) Intersección
𝑥−𝑧=0
𝑊1 ∩ 𝑊2 = {(𝑥, 𝑦, 𝑧)⁄ 𝑦 − (1⁄2)𝑧 = 0 }
7𝑥 − 2𝑦 + 𝑧 = 0
1 0 −1 0 1 0 −1 0
(0 1 − 1⁄2|0) ≈ (0 1 − 1⁄2|0) ≈
7 −2 1 0 𝑓3 − 7𝑓1 0 −2 8 0 𝑓3 + 2𝑓2
80
1 0 −1 0 1 0 −1 0 𝑓1 + 𝑓3
(0 1 − 1⁄2|0) ≈ (0 1 − 1⁄2|0) 𝑓2 + (1⁄2)𝑓3 ≈
0 0 7 0 (1⁄7)𝑓3 0 0 1 0
1 0 00
(0 1 0|0)
0 0 10
𝑊1 ∩ 𝑊2 = (0,0,0)
𝐵(𝑊1∩𝑊2 ) = (∅)
𝑑𝑖𝑚(𝐵𝑊1 ∩𝑊2 ) = 0
e) Suma
𝑑𝑖𝑚(𝑊1 + 𝑊2 ) = 𝑑𝑖𝑚(𝑊1 ) + 𝑑𝑖𝑚(𝑊2 ) − 𝑑𝑖𝑚(𝑊1 ∩ 𝑊2 )
𝑑𝑖𝑚(𝑊1 + 𝑊2 ) = 1 + 2 − 0
𝑑𝑖𝑚(𝑊1 + 𝑊2 ) = 3
𝑎 𝑏
a) 𝑊1 = {( )⁄𝑑 = 𝑏 + 𝑐; 𝑏 = 𝑐, → 𝑑 = 2𝑏}
𝑐 𝑑
𝑎 𝑏
𝑊1 = {( )}
𝑏 2𝑏
𝑎 0 0 𝑏 1 0 0 1
𝑊1 = {( )+( )} = {𝑎 ( )+𝑏( )}
0 0 𝑏 2𝑏 0 0 1 2
1 0 0 1
𝐵(𝑊1) = {( ),( )}
0 0 1 2
𝑑𝑖𝑚𝐵(𝑊1 ) = 2
Vamos a comprobar que son L.I
0 0 1 0 0 1
( ) = 𝛼( )+𝛽( )
0 0 0 0 1 2
81
0 0 𝛼 𝛽
( )=( )
0 0 𝛽 2𝛽
0 0 1 0 0 1 −1 −1
b) ( ) = 𝛼( )+𝛽( )+𝛾( )
0 0 0 1 1 −1 −1 𝑠
0 0 𝛼−𝛾 𝛽−𝛾
( )=( )
0 0 𝛽 − 𝛾 𝛼 − 𝛽 + 𝑠𝛾
Formándose el siguiente sistema:
𝛼−𝛾 =0
𝛽−𝛾 =0
{
𝛽−𝛾 =0
𝛼 − 𝛽 + 𝑠𝛾 = 0
Análisis 𝑚 = 4 𝑛 = 3 →, 𝑚é𝑡𝑜𝑑𝑜 𝑚𝑎𝑡𝑟𝑖𝑧 𝑎𝑚𝑝𝑙𝑖𝑎𝑑𝑎
1 0 −1 0 1 0 −1 0 1 0 −1 0
0 1 −1 0 0 1 −1 0 0 1 −1 0
( | ) ≈( | ) ≈( | )
0 1 −1 0 3 𝑓 − 𝑓2 0 0 0 0 0 0 0 0
1 −1 𝑠 0 𝑓4 − 𝑓1 0 −1 𝑠 + 1 0 𝑓4 + 𝑓2 0 0 𝑠 0 (1⁄𝑠)𝑓4 , 𝑠 ≠ 0
1 0 −1 0 𝑓1 + 𝑓4 1 0 00
0 1 −1 0 𝑓2 + 𝑓4 0 1 00
( | ) ≈( | )
0 0 0 0 0 0 00
0 0 1 0 0 0 10
Para que 𝑆2 sea L.D el valor de 𝑠 = 0 es decir:
1 0 0 1 −1 −1
𝑆2 = {( ),( ),( )}
0 1 1 −1 −1 0
𝑎 𝑏 𝑎 𝑏 1 0 0 1 −1 −1
c) 〈𝑆2 〉 = {( )⁄ ( ) = 𝛼( )+𝛽( )+𝛾( )}
𝑐 𝑑 𝑐 𝑑 0 1 1 −1 −1 0
𝛼−𝛾 𝛽−𝛾
〈𝑆2 〉 = {(𝑎 𝑏 )⁄(𝑎 𝑏
)=( )}
𝑐 𝑑 𝑐 𝑑 𝛽−𝛾 𝛼−𝛽
Cuyo S.E.L es:
𝛼−𝛾 =𝑎
𝛽−𝛾 =𝑏
{𝛽 − 𝛾 = 𝑐
𝛼−𝛽 =𝑑
1 0 −1 𝑎 1 0 −1 𝑎 1 0 −1 𝑎
0 1 −1 𝑏 0 1 −1 𝑏 0 1 −1 𝑏
( | ) ≈( | ) ≈( | )
0 1 −1 𝑐 𝑓3 − 𝑓2 0 0 0 𝑐 − 𝑏 0 0 0 𝑐 − 𝑏
1 −1 0 𝑑 𝑓4 − 𝑓1 0 −1 1 𝑑 − 𝑎 𝑓4 + 𝑓2 0 0 0 𝑑−𝑎+𝑏
𝑐=𝑏
〈𝑆2 〉 = 𝑊2 = {(𝑎 𝑏
)⁄ }
𝑐 𝑑 𝑎 =𝑑+𝑏
82
〈𝑆2 〉 = 𝑊2 = {(𝑏 + 𝑑 𝑏
)} = {(
𝑏 𝑏
)+(
𝑑 0
)}
𝑏 𝑑 𝑏 0 0 𝑑
〈𝑆2 〉 = 𝑊2 == {𝑏 (1 1) + 𝑑 (1 0
)}
1 0 0 1
1 1 1 0
𝐵(𝑊2) = {( ),( )}
1 0 0 1
𝑑𝑖𝑚(𝐵(𝑊2 ) ) = 2
d) Intersección
𝑏=𝑐
𝑎 𝑏 𝑏+𝑐 =𝑑
𝑊1 ∩ 𝑊2 = {( )⁄ }
𝑐 𝑑 𝑏=𝑐
𝑎 =𝑏+𝑑
0 1 −1 0 0 𝑓1 − 𝑓3 0 0 0 0 0
0 1 1 −1 0 𝑓2 − 𝑓3 0 0 2 −1 0 (1⁄2)𝑓2
( | ) ≈( | ) ≈
0 1 −1 0 0 0 1 −1 0 0
1 −1 0 −1 0 𝑓4 + 𝑓3 1 0 −1 −1 0
0 0 0 0 0 0 0 0 0 0
0 0 1 −1⁄2 0 0 0 1 −1⁄2 0
( | ) ≈( | )
0 1 −1 0 0 3 𝑓 + 𝑓2 0 1 0 − 1⁄2 0
1 0 −1 −1 0 𝑓4 + 𝑓2 1 0 0 − 3⁄2 0
𝑎 = (3⁄2)𝑑
𝑎 𝑏
𝑊1 ∩ 𝑊2 = {( ) |𝑏 = (1⁄2)𝑑 }
𝑐 𝑑
𝑐 = (1⁄2)𝑑
𝑑𝑖𝑚(𝑊1 + 𝑊2 ) = 2 + 2 − 1 = 3
Estamos frente al caso 2
1 1 1 0 1 0 0 1
𝑆3 = 𝐵𝑊1 ∪ 𝐵𝑊2 = {( ),( ),( ),( )}
1 0 0 1 0 0 1 2
〈𝑆3 〉 = {(𝑎 𝑏 𝑎 𝑏 1 1 1 0 1 0 0 1
) ⁄( ) = 𝛼( )+𝛽( )+𝛾( )+𝛿( )}
𝑐 𝑑 𝑐 𝑑 1 0 0 1 0 0 1 2
83
𝛼+𝛽+𝛾 𝛼+𝛿
〈𝑆3 〉 = {(𝑎 𝑏
)=( )}
𝑐 𝑑 𝛼+𝛿 𝛽+𝛿
𝛼+𝛽+𝛾 =𝑎
𝛼+𝛿 =𝑏
{
𝛼+𝛿 =𝑐
𝛽+𝛿 =𝑑
1 1 0 1𝑎 1 1 0 1 𝑎 𝑓1 − 𝑓4
1 0 0 1 𝑏 𝑓 − 𝑓 0 −1 0 0 𝑏 − 𝑎 𝑓 + 𝑓4
( | )≈ 2 1
≈( | )≈ 2 ≈
1 0 0 1 𝑐 𝑓3 − 𝑓2 0 0 0 0 𝑐−𝑏
0 1 0 1𝑑 0 1 0 1 𝑑
1 0 0 0 𝑎−𝑑 1 0 0 0 𝑎−𝑑
0 0 0 1 𝑏−𝑎+𝑑 0 0 0 1 𝑏−𝑎+𝑑
( | ) ≈( | )
0 0 0 0 𝑐−𝑏 0 0 0 0 𝑐−𝑏
0 1 0 1 𝑑 𝑓4 − 𝑓2 0 1 0 0 𝑎−𝑏
〈𝑆3 〉 = {(𝑎 𝑏
) ⁄ 𝑐 − 𝑏 = 0}
𝑐 𝑑
𝑎 0 0 0
〈𝑆3 〉 = {(𝑎 𝑏
)} = {( )+(
0 𝑏
)+( )}
𝑏 𝑑 0 0 𝑏 0 0 𝑑
〈𝑆3 〉 = {𝑎 (1 0 0 1 0 0
)+𝑏( )+𝑑( )}
0 0 1 0 0 1
1 0 0 1 0 0
𝐵(𝑊1+𝑊2) = {( ),( ),( )}
0 0 1 0 0 1
𝑑𝑖𝑚(𝐵(𝑊1 +𝑊2 ) ) = 3
1 𝑚 1 0 1 𝑚 1 0 𝐹1 + 𝐹2
( | ) ( | )
𝑚 1 𝑚 − 1 0 𝐹2 − 𝑚𝐹1 0 1 − 𝑚2 −1 0
(1 𝑚 + 1 − 𝑚2 0 |0)
0 1 − 𝑚2 −1 0 (1⁄(1 − 𝑚2 ) 𝐹2 )𝑚 ≠ {−1,1}
1 𝑚 + 1 − 𝑚2 0 0 𝐹 − (𝑚 + 1 − 𝑚2 )𝐹2
( 2 | ) 1
0 1 −1⁄(1 − 𝑚 ) 0
1 0 (1 + 𝑚 − 𝑚2 )⁄(1 − 𝑚2 ) 0
( | )
0 1 −1⁄(1 − 𝑚2 ) 0
84
Para que existan soluciones 𝑚 ≠ 1; 𝑚 ≠ −1
𝑆1 = {𝑎0 (1 − 𝑡)}
BS1 = {1 − t} ⇒ dim(S1 ) = 1
Si 𝑚 = −1
1 −1 1 0 1 −1 1 0 1 −1 0 0
( | ) ≈ ( | )≈ ( | )
−1 1 −2 0 0 0 −1 0 0 0 10
𝑎 =0
𝐶. 𝑆 = 𝑆1 = {((𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡 2 )| 2 )} ⇒ 𝑆1 = {𝑎0 + 𝑎0 𝑡}
𝑎0 = 𝑎1
𝑆1 = {𝑎0 (1 + 𝑡)}
BS1 = {1 + t} ⇒ dim(S1 ) = 1
𝑺𝟐
−1 0 0 0 𝑎0 −𝐹1 1 0 0 0 −𝑎0
(−2 1 𝑎
−2| 0| 1 ) 𝐹2 − 2𝐹1 (0 1 −2| 0| 1 − 2𝑎0 )
𝑎
3 2 −4 0 𝑎2 𝐹3 + 3𝐹1 0 2 −4 0 𝑎2 + 3𝑎0 𝐹3 − 2𝐹2
1 0 0 0 −𝑎0
(0 1 −2| 0| 𝑎1 − 2𝑎0 )
0 0 0 0 𝑎2 + 7𝑎0 − 2𝑎1
〈𝑆2 〉 = {𝑎0 + 𝑎1 𝑡 + 𝑎2 𝑡 2 ⁄𝑎2 = 2𝑎1 − 7𝑎0 }
〈𝑆2 〉 = {𝑎0 (1 − 7𝑡 2 ) + 𝑎1 (𝑡 + 2𝑡 2 )}
85
𝑎0 = 0
𝑎1 = 0
𝑎2 = 0
〈𝑆1 ∩ 𝑆2 〉 = {0 + 0𝑡 + 0𝑡 2 } ⇒ 𝑑𝑖𝑚〈𝑆1 ∩ 𝑆2 〉 = 0
𝑑𝑖𝑚(𝑆1 + 𝑆2 ) = 𝑑𝑖𝑚(𝑆1 ) + 𝑑𝑖𝑚(𝑆2 ) − 𝑑𝑖𝑚(𝑆1 ∩ 𝑆2 )
=1+2−0
𝑑𝑖𝑚(𝑃2 (𝑡)) = 3 = 𝑑𝑖𝑚(𝑆1 + 𝑆2 )
𝐵𝑠1⨁𝑠2 = 𝐵𝑐 𝑃2(𝑡) = {1, 𝑡, 𝑡 2 }
86