0% encontró este documento útil (0 votos)
20 vistas22 páginas

Copia de 5-Espacios

Este documento introduce los conceptos básicos de los espacios vectoriales, incluyendo definiciones, propiedades y ejemplos de subespacios. Los espacios vectoriales son conjuntos donde están definidas operaciones de suma y producto por escalar que cumplen ciertas propiedades algebraicas.

Cargado por

rostannazarena
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
20 vistas22 páginas

Copia de 5-Espacios

Este documento introduce los conceptos básicos de los espacios vectoriales, incluyendo definiciones, propiedades y ejemplos de subespacios. Los espacios vectoriales son conjuntos donde están definidas operaciones de suma y producto por escalar que cumplen ciertas propiedades algebraicas.

Cargado por

rostannazarena
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 22

Espacios vectoriales

Andrés Abella

28 de mayo de 2023
Capı́tulo 1

Espacios vectoriales

Los espacios vectoriales son conjuntos en los cuales están definidas unas operaciones de suma y producto
por un escalar, con propiedades que generalizan las que verifican los vectores en el plano y el espacio. Es
una estructura muy general, que tiene aplicaciones en la mayorı́a de las áreas de la matemática. En este
capı́tulo trabajaremos sobre un cuerpo arbitrario k, aunque los ejemplos van a ser en R.

1.1. Definiciones y propiedades básicas


Un k-espacio vectorial es un conjunto V en el cual están definidas dos operaciones
+ ·
V ×V →V k×V →V
,
(u, v) 7→ u + v (a, v) 7→ a · v

que llamamos suma y producto por un escalar, que verifican los siguientes axiomas:

1. u + v = v + u, para todo u, v ∈ V (conmutativa);

2. u + (v + w) = (u + v) + w, para todo u, v, w ∈ V (asociativa);

3. Existe un elemento o ∈ V tal que v + o = v, para todo v ∈ V (existencia de neutro);

4. Para cada v ∈ V existe un elemento u ∈ V , tal que v + u = o, para todo v ∈ V (existencia de opuesto);

5. 1 · u = u, para todo u ∈ V ;

6. a · (u + v) = a · u + a · v, para todo a ∈ k, u, v ∈ V ;

7. (a + b) · v = a · v + b · v, para todo a, b ∈ k, v ∈ V ;

8. a · (b · v) = (ab) · v, para todo a, b ∈ k, v ∈ V .

A los elementos de V les llamamos vectores y en general los escribimos con las letras u, v, w, . . . , mientras
que a los de k les llamamos escalares y los escribimos con las letras a, b, c, . . . . Cuando no sea necesario
explicitar el cuerpo k, diremos simplemente que V es un espacio vectorial.
Observaciones 1.1.1. 1. La propiedad conmutativa implica que en el axioma 3 vale v + o = o + v = v y
en el axioma 4 vale v + u = u + v = o.

2. La propiedad asociativa permite sacar paréntesis y escribir u + v + w = u + (v + w) = (u + v) + w,


para todo u, v, w ∈ V . Lo mismo sucede cuando hay más sumandos.

1
Ejemplos 1.1.2. Ejemplos de espacios vectoriales.
1. El plano R2 y el espacio R3 .

2. El conjunto kn (n ≥ 1), con las operaciones usuales. En particular el cuerpo k es un k-espacio vectorial,
con la suma y producto usuales.

3. El conjunto de las matrices Mm×n (k) (m, n ≥ 1), con las operaciones usuales.
Proposición 1.1.3. Si V es un espacio vectorial, entonces valen las siguientes propiedades.
1. Existe un único elemento o ∈ V que verifica el axioma 3; se llama el vector nulo de V .

2. Para cada v ∈ V existe un único elemento en V que verifica el axioma 4; se llama el opuesto de v y
lo escribimos −v. El opuesto queda caracterizado por verificar v + (−v) = (−v) + v = o.

3. Si u, v, w ∈ V verifican u + v = u + w, entonces v = w (cancelativa de la suma).

4. Para todo v ∈ V vale 0 · v = o.

5. Para todo a ∈ k vale a · o = o.

6. Si a ∈ k y u, v ∈ V son tales que a · u = v con a ̸= 0, entonces u = a−1 · v.

7. Si a ∈ k y v ∈ V verifican a · v = o, entonces a = 0 o v = o.
Dem.
1. Si o′ ∈ V verifica v + o′ = v, para todo v ∈ V , entonces tomando v = o obtenemos o + o′ = o. Pero
aplicando la propiedad 3 a v = o′ obtenemos o′ + o = o′ . Luego o′ = o′ + o = o + o′ = o.

2. Sea v ∈ V . Supongamos que existen u, w ∈ V tales que v + u = o y v + w = o. Entonces

w = o + w = (v + u) + w = (u + v) + w = u + (v + w) = u + o = u.

Luego hemos probado la unicidad del opuesto.

3. La propiedad cancelativa se obtiene del cálculo siguiente

u+v = u+w ⇒ −u+(u+v) = −u+(u+w) ⇒ (−u+u)+v = (−u+u)+w ⇒ o+v = o+w ⇒ v = w.

4. Observar que valen

0 · v = (0 + 0) · v = 0 · v + 0 · v y 0·v =0·v+o ⇒ 0 · v + 0 · v = 0 · v + o,

luego la propiedad cancelativa implica 0 · v = o.

5. Esta propiedad se prueba en forma análoga a la anterior:

a · o = a · (o + o) = a · o + a · o ⇒ o+a·o=a·o+a·o ⇒ o = a · o.

6. La prueba consiste en multiplicar en ambos lados de la igualdad por a−1

v = a · u ⇒ a−1 · v = a−1 · (a · u) = a−1 a · u = 1 · u = u ⇒ a−1 · v = u.




7. Esta propiedad se deduce de la anterior: si a ̸= 0, entonces a · u = o implica u = a−1 · o = o.

2
Observación 1.1.4. Vale −v = (−1) · v, para todo v ∈ V . Esto se debe al cálculo siguiente

v + (−1) · v = 1 · v + (−1) · v = 1 + (−1) · v = 0 · v = o.

Se define la resta de dos vectores u y v mediante u − v := u + (−v).

Proposición 1.1.5. La resta verifica las propiedades siguientes.

1. Vale u = v − w si y solo si u + w = v, para todo u, v, w ∈ V .

2. Vale a · (u − v) = a · u − a · v, para todo a ∈ k, u, v ∈ V .

Dem. Ejercicio.
Si V es un espacio vectorial y D es un conjunto arbitrario (no vacı́o), entonces podemos considerar el
conjunto F(D, V ) de las funciones de D en V . Si f, g : D → V son funciones y a ∈ k, entonces definimos la
suma y el producto por un escalar f + g : D → V y a · f : D → V mediante

(f + g)(x) := f (x) + g(x), (a · f )(x) := a · f (x), ∀x ∈ D. (1.1)

Proposición 1.1.6. El conjunto F(D, V ) con las operaciones anteriores es un espacio vectorial.

Dem. Tenemos que probar que en F(D, V ) se verifican los 8 axiomas de espacio vectorial. Probaremos la
existencia de neutro y de opuesto. Consideremos la función nula θ : D → V definida por θ(x) = o, para
todo x ∈ D. Si f : D → V es una función arbitraria, entonces

(f + θ)(x) = f (x) + θ(x) = f (x) + o = f (x), ∀x ∈ D ⇒ f + θ = f.

Esto prueba que la función nula es el neutro de la suma. Dada f : D → V , definimos su opuesta −f : D → V
mediante (−f )(x) := −f (x), para todo x ∈ D. Luego
 
f + (−f ) (x) = f (x) + (−f )(x) = f (x) + − f (x) = o, ∀x ∈ D ⇒ f + (−f ) = θ.

La prueba de que en F(D, V ) se verifican los restantes axiomas es rutinaria y queda como ejercicio.

Ejemplo 1.1.7. Como R es un espacio vectorial, si D es un conjunto arbitrario, entonces F(D, R) es un


espacio vectorial. En particular, conjuntos del tipo F(R, R), F([0, 1], R), etc., son espacios vectoriales.

Sucesiones. Una sucesión en k es una función de N en k. Si a : N → k es una sucesión, entonces lo usual


es escribir an en vez de a(n) y referirnos a la sucesión mediante (a0 , a1 , . . . ), o (an )n∈N o simplemente (an ).
Como k es un k-espacio vectorial, entonces el conjunto de las sucesiones en k con la suma y producto por un
escalar definidos en (1.1), forman un k-espacio vectorial. Notar que si a = (an ) y b = (bn ) son dos sucesiones
y c ∈ k, entonces la suma y el producto por un escalar están definidos por a + b := (an + bn ) y c · a := (can ).

Nota: Por comodidad de notación, de ahora en adelante al producto por un escalar lo vamos a escribir av
en vez de a · v y al vector nulo lo escribiremos 0 (cero) en vez de o. Esto último puede ser un poco confuso al
principio, pero es la notación habitual y resulta cómoda de usar. También a menudo abreviaremos “espacio
vectorial” escribiendo solo “espacio”.
En lo que sigue de este capı́tulo, V denotará un espacio vectorial arbitrario.

3
1.2. Subespacios
Un subespacio de V es un subconjunto W ⊂ V que verifica las siguientes propiedades:

0 ∈ W; w1 , w2 ∈ W ⇒ w1 + w2 ∈ W ; a ∈ k, w ∈ W ⇒ aw ∈ W.

La siguiente proposición da una forma más rápida de chequear la condición de subespacio.


Proposición 1.2.1. Sea W un subconjunto de un espacio V . Entonces W es un subespacio de V si y solo
si se verifica
0 ∈ W ; w1 , w2 ∈ W, a ∈ k ⇒ w1 + aw2 ∈ W.
Dem. Ejercicio.
Ejemplos 1.2.2. 1. En todo espacio V , los subconjuntos {0} y V son subespacios. Al subespacio {0} se
le llama el subespacio trivial.

2. En R2 , toda recta que pasa por el origen, es decir todo conjunto de la forma W = {(x, y) ∈ R2 :
ax + by = 0} con a y b no simultáneamente nulos, es un subespacio.

3. En R3 , toda recta y todo plano que pasen por el origen son subespacios.

4. En el espacio de las matrices cuadradas, el conjunto formado por las matrices triangulares superiores
es un subespacio. Lo mismo sucede con las matrices triangulares inferiores.

5. Si I es un intervalo abierto de R y escribimos

C(I) = {f : I → R : f es continua} y D(I) = {f : I → R : f es derivable},

entonces D(I) ⊂ C(I) ⊂ F(I, R) son subespacios.

6. Los siguientes subconjuntos de R2 no son subespacios

W1 = {(x, y) : xy = 0}, W2 = {(x, y) : x ≥ 0 e y ≥ 0}.

Notar que cada uno de ellos verifica solo dos de las tres condiciones de subespacio.
Observación 1.2.3. Los únicos subespacios del cuerpo k pensado como k-espacio son k y {0}. Esto se debe
a que si W ⊂ k es un subespacio tal que W ̸= {0}, entonces existe 0 ̸= a ∈ W , luego 1 = a−1 a ∈ W y por
lo tanto b = b1 ∈ W , para todo b ∈ k. Esto implica W = k.
El interés en los subespacios viene dado por la siguiente proposición. La prueba es directa y queda como
ejercicio.
Proposición 1.2.4. Si W ⊂ V es un subespacio, entonces W es un espacio vectorial con las operaciones
de V restringidas a W .

Polinomios. En la enseñanza secundaria se suele definir un polinomio como una función p : R → R de la


forma
p(x) = a0 + a1 x + · · · + an xn , ∀x ∈ R,
para ciertos a0 , a1 . . . , an ∈ R y n ∈ N. Si escribimos R[x] al conjunto de todos los polinomios, entonces R[x]
está contenido en el espacio F(R, R) y es claro que R[x] es un subespacio de F(R, R).
La definición anterior funciona bien para los números reales y se puede extender naturalmente para todo
cuerpo k, pero lo que estamos llamando polinomio es en realidad una función polinómica. Intuitivamente,

4
un polinomio con coeficientes en k es una expresión del tipo a0 + a1 x + · · · + an xn , en la cual a0 , a1 . . . , an ∈ k
y la letra x es una indeterminada, es decir, un sı́mbolo que se puede cambiar por cualquier otro. Uno opera
con los polinomios de la manera usual, sumando coeficiente a coeficiente, etc.
Una manera de formalizar esta idea, es considerar un polinomio como una “sucesión finita”, es decir identi-
ficar el polinomio con la sucesión de sus coeficientes y luego completar con ceros

a0 + a1 x + · · · + an xn ↔ (a0 , a1 , . . . , an , 0, 0, . . . ).

En ese sentido, si V es el espacio de las sucesiones en k, entonces los polinomios se pueden pensar como el
subconjunto
W = {(an )n∈N ∈ V : ∃k ∈ N tal que an = 0, ∀n ≥ k} .
Es claro que la sucesión nula está en W y que si (an ) ∈ W y c ∈ k, entonces c(an ) ∈ W . Además, si
(an ), (bn ) ∈ W y k, h ∈ N son tales que an = 0, para todo n ≥ k y bn = 0, para todo n ≥ h, entonces
an +bn = 0, para todo n ≥ máx{h, k}. Luego W es un subespacio de V y por lo tanto es un espacio vectorial.
El producto de polinomios corresponde a un producto definido en W mediante lo siguiente: si α = (an ) y
β = (bn ), entonces αβ = (cn ), siendo

cn := a0 bn + a1 bn−1 + · · · an−1 b1 + an b0 , ∀n ∈ N.

La función f : k → W definida por f (a) := (a, 0, 0, . . . ) es inyectiva y preserva la suma y el producto, es


decir

(a, 0, 0, . . . ) + (b, 0, 0, . . . ) = (a + b, 0, 0, . . . ), (a, 0, 0, . . . ) · (b, 0, 0, . . . ) = (a · b, 0, 0, . . . ).

Luego podemos pensar k ⊂ W identificando k con f (k) ⊂ W . En base a lo anterior, escribiremos a =


(a, 0, 0, . . . ). Notar que con esta identificación vale

a(b0 , . . . , bn , 0, 0, . . . ) = (ab0 , . . . , abn , 0, 0, . . . ).

Además, si llamamos x = (0, 1, 0, 0, · · · ), entonces usando la fórmula del producto obtenemos

x = (0, 1, 0, 0, · · · ), x2 = (0, 0, 1, 0, 0, · · · ), x3 = (0, 0, 0, 1, 0, 0, · · · ), ...

Lo anterior implica

(a0 , a1 , . . . , an , 0, 0, . . . ) = (a0 , 0, 0, . . . ) + (0, a1 , 0, 0, . . . ) + · · · + (0, . . . , 0, an , 0, 0, . . . )


= (a0 , 0, 0, . . . ) + a1 (0, 1, 0, 0, . . . ) + · · · + an (0, . . . , 0, 1, 0, 0, . . . )
= a0 + a1 x + · · · + an xn .

Luego (a0 , a1 , . . . , an , 0, 0, . . . ) = a0 + a1 x + · · · + an xn y ası́ retomamos la notación usual de los polinomios.


Al conjunto de los polinomios con coeficientes en k lo escribimos k[x]. El polinomio nulo es p(x) = 0 y
corresponde a la sucesión nula (0, 0, . . . ). Si p(x) = a0 + a1 x + · · · + an xn con an ̸= 0, entonces decimos que
el polinomio p(x) tiene grado n. El polinomio nulo se dice que tiene grado −∞ y convendremos en que tiene
grado menor que n, para todo n ∈ N. Al conjunto de todos los polinomios de grado menor o igual a n lo
escribimos kn [x]. Notar que kn [x] contiene al polinomio nulo y es cerrado bajo la suma y el producto por
escalares, ası́ que kn [x] es un subespacio de k[x], para todo n ∈ N.
Observación 1.2.5. En contextos algebraicos conviene pensar los polinomios como objetos más que como
funciones. No hay problemas en pensar los polinomios como funciones cuando el cuerpo es R, pero aparecen
complicaciones al trabajar con cuerpos finitos (lo cual no haremos).

5
Combinaciones lineales y subespacios generados por conjuntos. Una combinación lineal de un
conjunto de vectores v1 , . . . , vn ∈ V es un vector de la forma w = a1 v1 + · · · + an vn , siendo a1 , . . . , an
escalares arbitrarios. Consideremos el conjunto formado por todas las combinaciones lineales de v1 , . . . , vn ,

[v1 , . . . , vn ] := {a1 v1 + · · · + an vn : a1 , . . . , an ∈ k}.

Proposición 1.2.6. Para todo v1 , . . . , vn ∈ V , el conjunto [v1 , . . . , vn ] es un subespacio de V .


Dem. El vector nulo 0 verifica 0 = 0v1 + · · · + 0vn , luego 0 ∈ [v1 , . . . , vn ]. Sean u, v ∈ [v1 , . . . , vn ] y c ∈ k.
Sabemos que existen escalares ai , bj ∈ k tales que u = a1 v1 + · · · + an vn y v = b1 v1 + · · · + bn vn , entonces

u + cv = (a1 v1 + · · · + an vn ) + c(b1 v1 + · · · + bn vn ) = (a1 + cb1 )v1 + · · · + (an + cbn )vn ∈ [v1 , . . . , vn ].

Observación 1.2.7. Es fácil de probar por inducción, que si un subespacio W contiene a v1 , . . . , vn , entonces
W contiene también a toda combinación lineal de v1 , . . . , vn y por lo tanto [v1 , . . . , vn ] ⊂ W . Luego [v1 , . . . , vn ]
es el “menor” subespacio de V que contiene a v1 , . . . , vn .
Al conjunto [v1 , . . . , vn ] se le llama el subespacio generado por v1 , . . . , vn .
Ejemplos 1.2.8. 1. Si v es un vector no nulo de R2 o R3 , entonces [v] = {tv : t ∈ R} es la recta por el
origen que pasa por v.
2. Si u, v ∈ R3 son dos vectores no colineales, entonces [u, v] = {su + tv : s, t ∈ R} es el plano por el
origen que pasa por u y v (o paralelo a u y v).
Finalizando, definimos [∅] := {0}, el cual es el menor subespacio que contiene al conjunto vacı́o ∅. Ası́
tenemos definido [X], para todo subconjunto finito X de V .

1.3. Dependencia lineal


Sean v1 , . . . , vn ∈ V . Decimos que el conjunto {v1 , . . . , vn } es linealmente dependiente (LD) si existen esca-
lares no todos nulos a1 , . . . , an tales que a1 v1 + · · · + an vn = 0. En caso contrario decimos que {v1 , . . . , vn } es
linealmente independiente (LI). También se dice que los vectores v1 , . . . , vn ∈ V son linealmente dependientes
o linealmente independientes, respectivamente.
La combinación lineal trivial de v1 , . . . , vn es 0v1 + · · · + 0vn = 0. Luego {v1 , . . . , vn } es LI si y solo si la
única forma de escribir el vector nulo como combinación lineal de v1 , . . . , vn es la trivial, y es LD si y solo
si el vector nulo se puede escribir como una combinación lineal no trivial de v1 , . . . , vn .
Ejemplos 1.3.1. 1. Consideremos el conjunto X = {(−4, 1), (1, 1), (1, −1)} ⊂ R2 . Para estudiar su
dependencia lineal, tenemos que ver si la única solución de la ecuación

a(1, −1) + b(−4, 1) + c(1, 1) = (0, 0)

es la trivial. Operando, obtenemos



a − 4b + c = 0
(a − 4b + c, −a + b + c) = (0, 0) ⇔
−a + b + c = 0

Este sistema es compatible indeterminado (tiene más incógnitas que ecuaciones). Luego el sistema
admite soluciones no triviales y por lo tanto X es LD. Las soluciones del sistema son de la forma
a = 25 b, c = 32 b y b libre. Eligiendo b = 2, obtenemos a = 5 y c = 3. Luego una combinación lineal no
trivial que da el vector nulo es

5(1, −1) + 2(−4, 1) + 3(1, 1) = (0, 0).

6
2. Sea X = {(1, 1, 1), (1, 2, 1), (2, 3, 3)} ⊂ R3 . Para estudiar su dependencia lineal, planteamos la ecuación
a(1, 1, 1) + b(1, 2, 1) + c(2, 3, 3) = (0, 0, 0).
Esta ecuación equivale al sistema homogéneo

 a + b + 2c = 0
a + 2b + 3c = 0 .
a + b + 3c = 0

1 1 2
Calculando el determinante del sistema, obtenemos 1 2 3 = 1. Como el determinante es distinto
1 1 3
de cero, la única solución que admite el sistema es la trivial y por lo tanto X es LI.
3. Sea X = {(2, 1, 3), (−1, 3, 2), (1, 11, 12)} ⊂ R3 . Razonando como en el caso anterior, planteamos la
ecuación
a(2, 1, 3) + b(−1, 3, 2) + c(1, 11, 12) = (0, 0, 0), (1.2)
y X es LI si y solo si la única solución de (1.2) es la trivial. La ecuación (1.2) equivale al sistema
homogéneo 
 2a − b + c = 0
a + 3b + 11c = 0 .
3a + 2b + 12c = 0

2 −1 1
El determinante del sistema es 1 3 11 = 0. Luego el sistema admite alguna solución no trivial,
3 2 12
y por lo tanto X es LD. Para obtener la combinación lineal no trivial hay que resolver el sistema.
Realizando los cálculos se obtiene que una solución es
2(2, 1, 3) + 3(−1, 3, 2) − (1, 11, 12) = (0, 0, 0),

4. Sea X = 1, 1 + x, 1 + x + x2 ⊂ R2 [x]. Si escribimos la combinación lineal




a1 + b(1 + x) + c 1 + x + x2 = 0,



 a+b+c = 0
2
entonces operando obtenemos: a + b + c + (b + c)x + cx = 0 ⇒ b+c = 0 .
c = 0

Claramente la única solución de ese sistema es la trivial, por lo tanto X es LI.
5. Es fácil de probar que si en kn consideramos
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, 0, . . . , 0, 1),
entonces {e1 , e2 , . . . , en } ⊂ kn es LI. En particular la base canónica {i, j, k} de R3 es un conjunto LI.
Observaciones 1.3.2. 1. Dado v ∈ V , el conjunto {v} es LD si y solo si v = 0 (esto se debe a la última
afirmación de la proposición 1.1.3).
2. Si en X = {v1 , . . . , vn } ⊂ V se cumple que existe algún i tal que vi = 0, entonces vale
0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vn = 0
y por lo tanto X es LD.

7
Proposición 1.3.3. Un conjunto X = {v1 , . . . , vn } ⊂ V (con n ≥ 2) es LD si y solo si X contiene un
vector que es combinación lineal de los restantes.

Dem. Si vi es combinación lineal de v1 , . . . , vi−1 , vi+1 , . . . , vn , entonces vi se puede escribir de la forma


vi = a1 v1 + · · · + ai−1 vi−1 + ai+1 vi+1 + · · · + an vn , luego

a1 v1 + · · · + ai−1 vi−1 + (−1)vi + ai+1 vi+1 + · · · + an vn = 0

es una combinación lineal no trivial de v1 , . . . , vn . Recı́procamente, si {v1 , . . . , vn } es LD, entonces existen


escalares no todos nulos b1 , . . . , bn tales que b1 v1 +· · ·+bn vn = 0. Luego si bi ̸= 0, entonces podemos despejar
vi de la igualdad anterior, obteniendo
       
−b1 −bi−1 −bi+1 −bn
vi = v1 + · · · + vi−1 + vi+1 + · · · + vn .
bi bi bi bi

Corolario 1.3.4. Un conjunto {u, v} es LD si y solo si existe a ∈ k tal que u = av o v = au.

Ejemplo 1.3.5. En el primer ejemplo 1.3.1.1 vimos que el conjunto X = {(−4, 1), (1, 1), (1, −1)} ⊂ R2 es
LD y que vale
5(1, −1) + 2(−4, 1) + 3(1, 1) = (0, 0).
A partir de esta fórmula vemos que podemos escribir cualquier vector de X como combinación de los
restantes, por ejemplo
−2 −3
(1, −1) = (−4, 1) + (1, 1).
5 5
A continuación veremos que si achicamos un conjunto LI vamos a seguir obteniendo un conjunto LI y que
si agrandamos un conjunto LD volvemos a obtener un conjunto LD.

Proposición 1.3.6. Sean A y B subconjuntos finitos de V , tales que A ⊂ B.

1. Si A es LD, entonces B es LD.

2. Si B es LI, entonces A es LI.

Dem. Supongamos A = {v1 , . . . , vn } y B = {v1 , . . . , vn , vn+1 , · · · , vm }. Si A es LD, entonces existen escalares


no todos nulos a1 , . . . , an tales que a1 v1 + · · · + an vn = 0. Luego

a1 v1 + · · · + an vn + 0vn+1 + · · · + 0vm = 0

es una combinación lineal no trivial de los elementos de B que da el vector nulo y por lo tanto B es LD. La
segunda afirmación es equivalente lógicamente a la primera (es el contrarrecı́proco).
Si agrandamos un conjunto LI no tenemos porqué seguir obteniendo un conjunto LI, de la misma forma que
si achicamos un LD no tenemos porqué seguir obteniendo un LD. Alcanza con pensar en

A = {(1, 0), (0, 1)}, B = {(1, 0), (0, 1), (1, 1)}, A, B ⊂ R2 .

Es claro que A es LI, B es LD y es A ⊂ B.


El siguiente resultado nos da una condición para agrandar un conjunto LI y que siga siendo LI.

Proposición 1.3.7. Si {v1 , . . . , vn } ⊂ V es LI y vn+1 ∈ V no es combinación lineal de v1 , . . . , vn , entonces


{v1 , . . . , vn , vn+1 } es LI.

8
Dem. Sean a1 , . . . , an+1 escalares tales que a1 v1 + · · · + an vn + an+1 vn+1 = 0. Si fuese an+1 ̸= 0, entonces
podrı́amos despejar vn+1 de la igualdad anterior y obtendrı́amos que vn+1 es combinación lineal de v1 , · · · , vn
en contra de nuestras hipótesis. Luego es an+1 = 0 y por lo tanto vale a1 v1 +· · ·+an vn = 0. Como {v1 , · · · , vn }
es LI, deducimos que es a1 = · · · = an = 0. Luego a1 , . . . , an , an+1 son todos nulos.
Por razones que veremos más adelante, nos interesa definir si el conjunto vacı́o ∅ es LD o LI. Como queremos
que se verifiquen todas las propiedades anteriores, entonces la proposición 1.3.6 nos fuerza a definir que el
conjunto vacı́o es LI (si fuese LD, entonces todos los subconjuntos finitos de V serı́an LD). De esta forma
tenemos definido el concepto de LD o LI para todo subconjunto finito de V .

Generadores. Sea B = {v1 , . . . , vn } un subconjunto de V . Decimos que B es un generador 1 de V si todo


vector de V se puede escribir como combinación lineal de v1 , . . . , vn , es decir, si [v1 , . . . , vn ] = V .

Ejemplo 1.3.8. Consideremos en R2 los conjuntos A1 = {(1, 2), (1, 1), (−3, 5)}, A2 = {(1, 2), (2, 3)} y
A3 = {(3, −6), (−5, 10)}. Vamos a investigar si son generadores de R2 . Empezamos por A1 .

a + b − 3c = x
(x, y) = a(1, 2) + b(1, 1) + c(−3, 5) ⇒ .
2a + b + 5c = y

Este sistema es compatible indeterminado (para todo valor de x, y). Esto nos dice que A1 es un generador.
Consideremos ahora A2 . 
a + 2b = x
(x, y) = a(1, 2) + b(2, 3) ⇒ .
2a + 3b = y
Este sistema es compatible determinado (para todo valor de x, y). Luego A2 es un generador. Consideremos
A3 . 
3a − 5b = x
(x, y) = a(3, −6) + b(−5, 10) ⇒ .
−6a + 10b = y
Si multiplicamos la ecuación de arriba por 2 y la sumamos a la de abajo, obtenemos 2x + y = 0. Luego si
(x, y) es tal que 2x + y ̸= 0, entonces el sistema es incompatible. Esto nos dice que A3 no es un generador.

Es claro que si agrandamos un generador, entonces seguimos obteniendo un generador, pero si lo achicamos
el conjunto obtenido no tiene por qué seguirlo siendo. El siguiente resultado nos da una condición para poder
achicar un generador y que siga siendo generador.

Proposición 1.3.9. Si G = {v1 , . . . , vn , vn+1 } es un generador de V y vn+1 es combinación lineal de


v1 , . . . , vn , entonces G′ = {v1 , . . . , vn } también es un generador de V .

Dem. Sean b1 , . . . , bn ∈ k tales que vn+1 = b1 v1 + · · · + bn vn . Si v ∈ V es un vector arbitrario, como G es un


generador de V , sabemos que existen a1 , . . . , an+1 ∈ k tales que v = a1 v1 + · · · + an vn + an+1 vn+1 . Luego

v = a1 v1 + · · · + an vn + an+1 vn+1 = a1 v1 + · · · + an vn + an+1 (b1 v1 + · · · + bn vn )


= (a1 + an+1 b1 )v1 + · · · + (an + +an+1 bn )vn .

Esto prueba que todo vector de V se puede escribir como combinación lineal de G′ .
El siguiente resultado es importante.

Teorema 1.3.10. En un espacio vectorial, la cantidad de elementos de un conjunto LI siempre es menor o


igual que la cantidad de elementos de un generador.
1
También se usan otros nombres, como conjunto generador o conjunto de generadores o sistema generador, aunque en
Uruguay lo normal es llamarle simplemente generador.

9
Dem. Sea A = {v1 , . . . , vn } un conjunto LI y G = {w1 , . . . , wm } un generador del espacio V . Queremos
probar que es n ≤ m.
Como v1 ∈ V y G es generador de V , entonces existen a1 , . . . , am ∈ k tales que v1 = a1 w1 + · · · + am wm .
Si fuesen a1 = · · · = am = 0, entonces serı́a v1 = 0, pero esto es imposible porque v1 ∈ A y A es LI. Luego
alguno de los escalares es no nulo. Eventualmente reordenando los elementos de G, podemos suponer a1 ̸= 0.
Luego    
1 −a2 −am
v1 = a1 w1 + a2 w2 + · · · + am wm ⇒ w1 = v1 + w2 + · · · + wm .
a1 a1 a1
Veamos que G1 := {v1 , w2 , . . . , wm } es un generador de V . Como G es un generador, entonces G ∪ {v1 } =
{v1 , w1 , w2 , . . . , wm } también es un generador. Pero recién probamos que w1 es combinación lineal de
v1 , w2 , . . . , wm , luego la proposición 1.3.9 implica que {v1 , w2 , . . . , wm } es un generador.
La prueba sigue por inducción. Partimos de que existe k ≥ 1 tal que Gk := {v1 , . . . , vk , wk+1 , . . . , wm } es un
generador de V . Como vk+1 ∈ V y Gk es un generador, entonces existen c1 , · · · , cm ∈ k tales que

vk+1 = c1 v1 + · · · + ck vk + ck+1 wk+1 + · · · + cm wm . (1.3)

Si fuese ck+1 = · · · = cm = 0, entonces serı́a vk+1 = c1 v1 +· · ·+ck vk , contradiciendo que A es LI. Luego existe
algún i, con k + 1 ≤ i ≤ m, tal que ci ̸= 0. Como antes podemos suponer ck+1 ̸= 0, y por lo tanto podemos
despejar wk+1 de (1.3) obteniendo que wk+1 es combinación lineal de v1 , . . . , vk , vk+1 , wk+2 , . . . , wm .
Probaremos que Gk+1 := {v1 , . . . , vk , vk+1 , wk+2 , . . . , wm } es un generador de V . La idea es la misma que al
principio. Como Gk es un generador, entonces

Gk ∪ {vk+1 } = {v1 , . . . , vk , vk+1 , wk+1 , wk+2 , . . . , wm }

es también un generador. Pero recién vimos que wk+1 es combinación lineal de los otros, luego podemos
sacarlo y el conjunto resultante

Gk+1 := {v1 , . . . , vk , vk+1 , wk+2 , . . . , wm }

sigue siendo un generador.


Luego probamos que para cada k = 1, 2, . . . se cumple (eventualmente reordenando los elementos de G) que
Gk = {v1 , . . . , vk , wk+1 , . . . , wm } es un generador de V . Si fuese n > m, entonces podrı́amos sustituir todos
los elementos de G por elementos de A obteniendo Gm = {v1 , . . . , vm } que es un generador a V . Pero esto
es imposible porque en ese caso el elemento vm+1 ∈ A serı́a combinación lineal de v1 , . . . , vm , contradiciendo
que A es LI. Luego necesariamente es n ≤ m.

Bases. Sea B = {v1 , . . . , vn } un subconjunto de V . Decimos que B es una base de V si B es un generador


y además es un conjunto LI. Si V = {0} (el espacio trivial), entonces definimos que el conjunto vacı́o ∅ es la
base de V . Esto es coherente con la definición anterior, ya que ∅ es LI y [∅] = {0}.

Proposición 1.3.11. Un conjunto B = {v1 , . . . , vn } es una base de V si y solo si todo vector de V se puede
escribir de forma única como combinación lineal de v1 , . . . , vn .

Dem. Empezamos probando el directo. Como B es un generador de V , sabemos que todo vector de V se
puede escribir como combinación lineal de los elementos de B; lo que tenemos que probar es la unicidad.
Sea v ∈ V y supongamos que podemos escribir v de dos formas

v = a1 v1 + · · · + an vn , v = b1 v1 + · · · + bn vn .

10
Restando ambas igualdades obtenemos (a1 − b1 )v1 + · · · + (an − bn )vn = 0. Como B es LI, deducimos
ai − bi = 0, para todo i, es decir ai = bi , para todo i. Esto prueba la unicidad.
Consideremos ahora el recı́proco. Es claro que B es un generador. Para probar que es LI, observemos que si
a1 , . . . , an son escalares tales que a1 v1 + · · · + an vn = 0, entonces

a1 v1 + · · · + an vn = 0v1 + · · · + 0vn .

Como hay unicidad en la descomposición, deducimos que es a1 = · · · = an = 0. Luego B es LI.

Ejemplo 1.3.12. Si consideramos los conjuntos A1 , A2 y A3 del ejemplo 1.3.8, entonces A1 es un generador
pero no es base, A2 es una base y A3 no es un generador, ası́ que tampoco es una base.

Ejemplo 1.3.13. Consideremos el plano W = (x, y, z) ∈ R3 : 2x + y + z = 0 . Si (x, y, z) ∈ W , entonces




2x + y + z = 0 y por lo tanto z = −2x − y. Luego podemos escribir

(x, y, z) = (x, y, −2x − y) = (x, 0, −2x) + (0, y, −y) = x(1, 0, −2) + y(0, 1, −1).

Esto nos dice que B = {(1, 0, −2), (0, 1, −1)} es un generador de W (notar que (1, 0, −2) y (0, 1, −1)
pertenecen a W ). Además es fácil de probar que B es LI, luego B es una base del plano W .

En algunos espacios hay ciertas bases estándar a las que se les suele llamar la base canónica del espacio.

1. La base canónica de kn es el conjunto {e1 , e2 , . . . , en } definido en el ejemplo 1.3.1.5. Notar que para
n = 2 y n = 3 obtenemos las bases canónicas {i, j} de R2 y {i, j, k} de R3 .

2. La base canónica de2 kn [x] es el conjunto {1, x, . . . , xn }.

3. La base canónica de Mm×n es el conjunto {eij : i = 1, . . . , m, j = 1, . . . , n}, donde eij es la matriz


m × n que tiene todas sus entradas nulas, salvo la entrada (i, j) que vale 1. Por ejemplo, la base
canónica de M2 es B = {e11 , e12 , e21 , e22 }, siendo e11 = ( 10 00 ) , e12 = ( 00 10 ) , e21 = ( 01 00 ) y e22 = ( 00 01 ).

Los siguientes resultados son consecuencia del teorema 1.3.10.

Proposición 1.3.14. Si V es un espacio vectorial, A es un subconjunto LI, B es una base y G es un


generador, entonces #A ≤ #B ≤ #G.

Dem. Dado que B es base, entonces B es un generador y es LI. Como A es LI y B es un generador, entonces
#A ≤ #B, y como B es LI y G es un generador, es #B ≤ #G.

Proposición 1.3.15. Si B1 y B2 son bases de V , entonces #B1 = #B2 .

Dem. Dado que B1 y B2 son bases, entonces son generadores y son LI. Como B1 es LI y B2 es un generador,
entonces #B1 ≤ #B2 . Intercambiando lo roles de B1 y B2 , obtenemos #B2 ≤ #B1 . Luego #B1 = #B2 .
La proposición anterior implica que podemos dar la siguiente definición.
2
Acá hay dos posibilidades dependiendo de si escribimos los polinomios en potencias crecientes o decrecientes; en el segundo
caso conviene tomar como base canónica a {xn , . . . , x, 1}.

11
Dimensión. Si en un espacio V existe un conjunto finito B ⊂ V tal que B es una base de V , entonces
diremos que V tiene dimensión finita, llamamos dimensión de V a la cantidad de elementos de B y escribimos
dim V = #B. En caso contrario diremos que V tiene dimensión infinita. En particular el espacio trivial {0}
tiene dimensión finita y dim{0} = 0.

Ejemplos 1.3.16. 1. Teniendo en cuenta las bases canónicas de la página 11, deducimos dim kn = n,
dim kn [x] = n + 1 y dim Mm×n = mn, para todo m, n.

2. El conjunto B = {(1, 0, −2), (0, 1, −1)} es una base del plano W = (x, y, z) ∈ R3 : 2x + y + z = 0


(ejemplo 1.3.13), luego dim W = 2.

Notar que ahora la proposición 1.3.14 puede enunciarse de la siguiente manera.

Proposición 1.3.17. En un espacio de dimensión finita la cantidad de elementos de un conjunto LI es


menor o igual que la dimensión del espacio y la cantidad de elementos de un generador es mayor o igual a
la dimensión del espacio.

El siguiente resultado es útil cuando se conoce la dimensión del espacio.

Proposición 1.3.18. Sea V un espacio de dimensión finita. Si A ⊂ V tiene la misma cantidad de elementos
que la dimensión de V , entonces para que A sea una base alcanza con que sea un generador o que sea LI.

Dem. En ambos casos vamos a razonar por el absurdo. Supongamos que A es LI. Si A no es base, entonces
no es un generador de V y por lo tanto existe un vector v ∈ V que no es combinación lineal de A. Esto
último implica que A ∪ {v} es LI (proposición 1.3.7). Entonces A ∪ {v} es un conjunto LI que tiene más
elementos que la dimensión del espacio E.
Supongamos ahora que A es un generador. Si A no es base, entonces A no es LI y por lo tanto contiene
un vector w que es combinación lineal de los restantes. Luego A \ {w} sigue siendo un generador de V
(proposición 1.3.9) y tiene menos elementos que la dimensión del espacio E.
La siguiente proposición establece un criterio simple para saber si un conjunto es una base de kn .

Proposición 1.3.19. Sea B = {v1 , . . . , vn } un subconjunto de kn y sea ∆ el determinante de la matriz


cuyas columnas son v1 , . . . , vn escritos verticalmente. Entonces B es base de kn si y solo si ∆ =
̸ 0.

Dem. Sean v1 = (a11 , . . . , an1 ), · · · , vn = (a1n , . . . , ann ). Si x1 , . . . , xn ∈ k verifican x1 v1 + · · · + xn vn = 0,


entonces

 a11 x1 + · · · + a1n xn = 0

x1 (a11 , . . . , an1 ) + · · · + xn (a1n , . . . , ann ) = (0, . . . , 0) ⇔ .. .
 .
an1 x1 + · · · + ann xn = 0

Por la proposición 1.3.18 sabemos que B es base de kn si y solo si es LI, y esto ocurre si y solo si la única
solución que admite el sistema homogéneo anterior es la trivial, lo cual sucede si y solo si ∆ ̸= 0.

Ejemplo 1.3.20. Consideremos los siguientes subconjuntos de R3 : B1 = {(1, 2, 3), (4, 0, 1), (3, 0, 1)} y
B2 = {(1, −1, −1), (5, −3, −4), (1, 5, 2)}. Aplicando la proposición anterior obtenemos

1 4 3 1 5 1 1 5 1
4 3 2 6
2 0 0 = −2 = −2 ̸= 0; −1 −3 5 = 0 2 6 = = 0.
1 1 1 3
3 1 1 −1 −4 2 0 1 3

Luego B1 es base y B2 no lo es.

12
Los dos resultados siguientes muestran que todo generador contiene una base y que todo conjunto LI está
contenido en alguna base.

Proposición 1.3.21. Si existe un subconjunto finito G ⊂ V tal que G es un generador de V , entonces G


contiene una base de V y por lo tanto la dimensión de V es finita.

Dem. Si G es LI, entonces es base y ya está probado. Si no, entonces G es LD y por lo tanto contiene un
vector que es combinación lineal de los restantes. Sea G1 el conjunto obtenido quitándole a G ese vector.
Entonces G1 es un generador de V (por la proposición 1.3.9) y tiene un elemento menos que G. Si G1 es
LI, entonces es base y ya está probado. Si no, entonces razonamos con G1 como con G para obtener un
generador G2 ⊂ G1 con un elemento menos que G1 y ası́ seguimos. Como la cantidad de elementos de G es
finita, en algún momento tenemos que llegar a un subconjunto de G que es generador y LI, y por lo tanto
es base.

Proposición 1.3.22. Sea V un espacio de dimensión finita. Si A ⊂ V es LI, entonces A está contenido en
alguna base de V .

Dem. Sea dim V = n y A ⊂ V un LI con m elementos. Sabemos que es m ≤ n. Si m = n, entonces la


proposición 1.3.18 implica que A es una base de V . Supongamos ahora m < n. Entonces A no es una base
de V y por lo tanto no es un generador de V . Luego existe un vector vm+1 ∈ V tal que vm+1 ∈ / [A] y por
lo tanto A ∪ {vm+1 } es LI. Si m + 1 = n, entonces A ∪ {vm+1 } es un conjunto LI con n elementos y por lo
tanto es una base de V . Si m + 1 < n, entonces repetimos el razonamiento con A ∪ {vm+1 } en lugar de A y
ası́ seguimos hasta llegar a un conjunto LI con n elementos, que por lo tanto es base de V .
Decimos que A ⊂ V es un conjunto LI maximal si A es LI y no está contenido estrictamente en ningún
otro conjunto LI. Análogamente, decimos que G es un generador minimal si es un generador y no contiene
estrictamente a ningún otro generador.

Proposición 1.3.23. Sea V un espacio de dimensión finita. Si A es un subconjunto de V , entonces las


siguientes afirmaciones son equivalentes:

A es un generador minimal de V , A es un conjunto LI maximal, A es una base de V .

Dem. Sea A una base de V , entonces A es LI y es un generador de V . Si a A le sacamos un elemento,


entonces obtenemos un conjunto con menos elementos que la dimensión de V y por lo tanto ese conjunto
no pude ser un generador. Esto prueba que una base es un generador minimal. Por otro lado, si a A le
agregamos un elemento, entonces obtenemos un conjunto con más elementos que la dimensión de V y por
lo tanto ese conjunto no pude ser LI. Esto prueba que una base es un LI maximal.
Sea A un generador minimal de V . Como A es un generador, entonces existe B base de V tal que B ⊂ A.
Como B es un generador y B ⊂ A, entonces la minimalidad de A implica B = A. Luego A es una base de
V . El caso en que A es un LI maximal se prueba en forma análoga, aplicando la proposición 1.3.22.

Dimensión de subespacios. Definimos la dimensión de un subespacio W de un espacio V , como la


dimensión de W como espacio vectorial.

Proposición 1.3.24. Sea V un espacio de dimensión finita. Si W es un subespacio de V , entonces W tiene


dimensión finita y dim W ≤ dim V . Además, si dim W = dim V , entonces W = V .

Dem. Sea n = dim V . Si W = {0}, el resultado es obvio. Supongamos ahora W ̸= {0}. Como todo
subconjunto de W es también un subconjunto de V , entonces un subconjunto de W con más de n elementos
es LD. Esto prueba que todo subconjunto LI de W tiene a lo más n elementos. Sea A un subconjunto LI de

13
W con la cantidad máxima posible de elementos. Por lo anterior es #A ≤ n y además A es un subconjunto
LI maximal de W , luego A es una base de W . Esto a su vez implica dim W ≤ dim V .
Respecto a la segunda afirmación, si dim W = dim V y B es una base de W , entonces B es LI y tiene tantos
elementos como la dimensión de V , luego B es una base de V y por lo tanto V = [B] = W .

Subespacios de R2 y de R3 . Si W es un subespacio de R2 , entonces dim W ≤ dim R2 = 2. Si dim W = 0,


entonces W = {0} y si dim W = 2, entonces W = R2 . Si dim W = 1, entonces existe 0 ̸= v ∈ R2 tal que
W = {tv : t ∈ R}, luego W es una recta que pasa por el origen.
Si W es un subespacio de R3 , entonces dim W ≤ 3. Si dim W = 0, entonces W = {0}, si dim W = 3,
entonces W = R3 y si dim W = 1, W entonces es una recta que pasa por el origen. Si dim W = 2, entonces
existe {u, v} ⊂ R3 conjunto LI tal que W = {tu + sv : t ∈ R} y por lo tanto W es un plano que pasa por
el origen.

1.4. Operaciones con subespacios


Sean W1 , W2 subespacios de V . Como los subespacios son conjuntos, entonces podemos considerar su inter-
sección
W1 ∩ W2 := {v ∈ V : v ∈ W1 y v ∈ W2 }.
Definimos la suma de W1 y W2 , mediante

W1 + W2 := {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }.

Proposición 1.4.1. Si W1 y W2 son subespacios, entonces W1 ∩ W2 y W1 + W2 también son subespacios.


Dem. Probaremos que la suma es un subespacio, dejando la prueba de la intersección como ejercicio. Lo
primero es notar que, como el vector nulo 0 está en W1 y W2 , luego de 0 = 0 + 0 se deduce que 0 ∈ W1 + W2 .
Supongamos ahora que tenemos u, v ∈ W1 +W2 y a ∈ k. Como u, v ∈ W1 +W2 , entonces existen w1 , w1′ ∈ W1
y w2 , w2′ ∈ W2 tales que u = w1 + w2 y v = w1′ + w2′ . Luego au + v = aw1 + w1′ + aw2 + w2′ , con aw1 + w1′ ∈ W1
y aw2 + w2′ ∈ W2 . Esto implica au + v ∈ W1 + W2 .
Observación 1.4.2. Dados dos subespacios W1 , W2 , su intersección W1 ∩W2 es el mayor subespacio contenido
en W1 y W2 , mientras que W1 + W2 es el menor subespacio que contiene a W1 y W2 . Notar que la unión
W1 ∪ W2 en general no es un subespacio.
Ejemplos 1.4.3. 1. Consideremos el espacio R3 .

a) Si W1 = {(x, y, z) : z = 0} (plano Oxy) y W2 = {(x, y, z) : y = 0} (plano Oxz), entonces

W1 ∩ W2 = {(x, y, z) : y = z = 0} (eje Ox), W1 + W2 = R3 .

Para ver esto último, notar que hay varias formas de escribir un vector de R3 como suma de uno
en W1 con uno de W2 , por ejemplo

(x, y, z) = (x, y, 0) + (0, 0, z), (x, y, z) = (0, y, 0) + (x, 0, z), (x, y, z) = (x/2, y, 0) + (x/2, 0, z).

b) Si W1 = {(x, y, z) : y = z = 0} (eje Ox) y W2 = {(x, y, z) : x = z = 0} (eje Oy), entonces

W1 ∩ W2 = {(0, 0, 0)}, W1 + W2 = {(x, y, z) : z = 0} (plano Oxy).

Esto último sale de escribir (x, y, 0) = (x, 0, 0) + (0, y, 0); esta es la única forma de escribir un
vector del plano Oxy como suma de uno en W1 con uno de W2 .

14
Ejemplo 1.4.4. Consideremos el espacio R4 y los subespacios

W1 = {(x, y, z, t) : y = z = t)}, W2 = {(x, y, z, t) : x = y, z = t)}.

Su intersección es W1 ∩ W2 = {(x, y, z, t) : x = y = z = t)} = {(x, x, x, x) : x ∈ R)}. Consideremos ahora


la suma. Primero observar que podemos escribir

W1 = {(x, y, y, y) : x, y ∈ R)}, W2 = {(x, x, z, z) : x, z ∈ R)}. (1.4)

Luego para saber si un vector (x, y, z, t) está en W1 + W2 tenemos que ver si la siguiente ecuación en las
variables a, b, c, d tiene solución
(x, y, z, t) = (a, b, b, b) + (c, c, d, d). (1.5)
Operando obtenemos que la ecuación de arriba equivale a


 a+c = x
b+c = y

(x, y, z, t) = (a + c, b + c, b + d, b + d) ⇔ .

 b +d = z
b+d = t

Las dos últimas ecuaciones implican que, para que haya solución, tiene que ser z = t. En ese caso, eliminando
la última ecuación obtenemos un sistema compatible (indeterminado). Esto nos dice que, dado (x, y, z, t) ∈
R4 , si z = t, entonces siempre existen a, b, c, d ∈ R que verifican (1.5). Luego W1 + W2 = {(x, y, z, t) : z = t}.
De ahora en adelante supondremos que V es un espacio de dimensión finita.
Proposición 1.4.5. Sean W1 y W2 dos subespacios de V . Si G1 un generador de W1 y G2 un generador
de W2 , entonces G := G1 ∪ G2 es un generador de W1 + W2 .
Dem. Sean G1 = {u1 , . . . , un } y G2 = {v1 , . . . , vm }. Si v ∈ W1 + W2 , entonces existen w1 ∈ W1 y w2 ∈ W2
tales que v = w1 + w2 . Como G1 y G2 son generadores respectivos de W1 y W2 , entonces existen escalares
a1 , . . . , an y b1 , . . . , bm tales que w1 = a1 u1 + · · · + an un y w2 = b1 v1 + · · · + bm vm . Luego

v = w1 + w2 = a1 u1 + · · · + an un + b1 v1 + · · · + bm vm .

Esto prueba que G = {u1 , . . . , un , v1 , . . . , vm } es un generador de W1 + W2 .


Observación 1.4.6. Si W1 y W2 dos subespacios de V , B1 es una base de W1 y B2 es una base de W2 ,
entonces B := B1 ∪ B2 es un generador de W1 + W2 , pero no es necesariamente una base, dado que puede
ser LD.
Ejemplo 1.4.7. Consideremos el ejercicio 1.4.4. Usando la descripción de W1 y W2 dada en (1.4) obtenemos
que B1 = {(1, 0, 0, 0), (0, 1, 1, 1)} es una base de W1 y B2 = {(1, 1, 0, 0), (0, 0, 1, 1)} es una base de W2 . Luego

B = B1 ∪ B2 = {(1, 0, 0, 0), (0, 1, 1, 1), (1, 1, 0, 0), (0, 0, 1, 1)}

es un generador de W1 + W2 . Notar que vale

(1, 0, 0, 0) + (0, 1, 1, 1) − (1, 1, 0, 0) − (0, 0, 1, 1) = (0, 0, 0, 0),

luego B es LD y por lo tanto no es base. La igualdad anterior nos dice que a B podemos quitarle uno
cualquiera de sus vectores y seguiremos obteniendo un generador, ası́ que por ejemplo

C = {(1, 0, 0, 0), (0, 1, 1, 1), (1, 1, 0, 0)}

es un generador. Es fácil de probar que C es LI, luego C es base de W1 + W2 .

15
Teorema 1.4.8. Si W1 y W2 son subespacios de V , entonces

dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ).

Dem. Sea B0 = {u1 , . . . , un } una base de W1 ∩ W2 . Como B0 es un subconjunto LI de W1 y de W2 , entonces


existen v1 , . . . , vp ∈ W1 y w1 , . . . , wq ∈ W2 , tales que si

B1 = {u1 , . . . , un , v1 , . . . , vp } y B2 = {u1 , . . . , un , w1 , . . . , wq },

entonces B1 es base de W1 y B2 es base de W2 . Probaremos que

B := B1 ∪ B2 = {u1 , . . . , un , v1 , . . . , vp , w1 , . . . , wq }

es una base de W1 + W2 . Notar que la proposición 1.4.5 implica que B es un generador de W1 + W2 . Veamos
ahora que B es LI. Sean ai , bj , ck ∈ k tales que

a1 u1 + · · · + an un + b1 v1 + · · · + bp vp + c1 w1 · · · + cq wq = 0. (1.6)

Luego
c1 w1 · · · + cq wq = −(a1 u1 + · · · + an un + b1 v1 + · · · + bp vp ). (1.7)
Como el lado izquierdo de (1.7) está en W2 y el derecho en W1 , deducimos c1 w1 · · · + cq wq ∈ W1 ∩ W2 . Como
B0 es una base de W1 ∩ W2 , entonces existen escalares di tales que

c1 w1 · · · + cq wq = d1 u1 + · · · + dn un ⇒ c1 w1 · · · + cq wq + (−d1 )u1 + · · · + (−dn )un = 0.

Dado que B2 es LI, deducimos c1 = · · · = cq = d1 = · · · = dn = 0. Sustituyendo estos valores en (1.6)


obtenemos
a1 u1 + · · · + an un + b1 v1 + · · · + bp vp = 0.
Ahora usando que B1 es LI deducimos a1 = · · · = an = b1 = · · · = bp = 0. Esto prueba que B es LI y por lo
tanto es base de W1 + W2 . Luego

dim(W1 + W2 ) = #B = n + p + q = (n + p) + (n + q) − n = dim W1 + dim W2 − dim(W1 ∩ W2 ).

Observación 1.4.9. El resultado anterior se suele usar para calcular la dimensión de la suma, ya que en
general es más fácil determinar la intersección que la suma.

Ejemplo 1.4.10. Sea V = R4 y consideramos los subespacios

W1 = (x, y, z, t) ∈ R4 : x = 0, y + z + t = 0 y W2 = (x, y, z, t) ∈ R4 : t = 0 .
 

Es fácil de probar que es dim W1 = 2 y dim W2 = 3. Además

W1 ∩ W2 = (x, y, z, t) ∈ R4 : x = t = 0, y + z = 0 = [(0, 1, −1, 0)].




Luego dim(W1 ∩ W2 ) = 1 y por lo tanto

dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ) = 2 + 3 − 1 = 4.

Como W1 + W2 es un subespacio de R4 y vale dim(W1 + W2 ) = 4 = dim R4 , concluimos W1 + W2 = R4 .

16
Suma directa. Sean W1 , W2 subespacios de V . Si valen V = W1 + W2 y W1 ∩ W2 = {0}, entonces se dice
que V es suma directa de W1 y W2 y se escribe V = W1 ⊕ W2 .
Teorema 1.4.11. Sean W1 , W2 subespacios de V , entonces las siguientes condiciones son equivalentes.
1. V = W1 ⊕ W2 .
2. V = W1 + W2 y si w1 ∈ W1 y w2 ∈ W2 verifican w1 + w2 = 0, entonces w1 = w2 = 0.
3. Para todo v ∈ V existen únicos w1 ∈ W1 y w2 ∈ W2 tales que v = w1 + w2 .
Dem. (2 ⇒ 1). Lo único que hay que probar es que vale W1 ∩ W2 = {0}. Si v ∈ W1 ∩ W2 , entonces vale
v + (−v) = 0, con v ∈ W1 y −v ∈ W2 ; luego es v = −v = 0. Esto implica W1 ∩ W2 = {0}.
(1 ⇒ 3). Sea v ∈ V . Como es V = W1 + W2 , entonces existen w1 ∈ W1 y w2 ∈ W2 tales que v = w1 + w2 .
Supongamos que además existen otros elementos w1′ ∈ W1 y w2′ ∈ W2 tales que v = w1′ + w2′ . Esto implica
w1 + w2 = w1′ + w2′ ⇒ w1 − w1′ = w2′ − w2 .
Como es w1 − w1′ ∈ W1 y w2 − w2′ ∈ W2 , entonces la igualdad de arriba implica w1 − w1′ = w2′ − w2 ∈
W1 ∩ W2 = {0} y por lo tanto w1 − w1′ = w2 − w2′ = 0, lo cual implica w1 = w1′ y w2 = w2′ . Esto prueba la
unicidad de la descomposición v = w1 + w2 .
(3 ⇒ 2). Es claro que vale V = W1 + W2 . Si w1 ∈ W1 y w2 ∈ W2 verifican w1 + w2 = 0, como también vale
0 + 0 = 0 con 0 ∈ W1 y 0 ∈ W2 , entonces la unicidad de la descomposición implica w1 = w2 = 0.
Ejemplo 1.4.12. Si consideramos los ejemplos 1.4.3, deducimos del primero que el espacio R3 es suma del
plano Oxy con el plano Oxz, pero esta suma no es directa, y del segundo que el plano Oxy es suma directa
de la recta Ox y la recta Oy.
Proposición 1.4.13. Si V = W1 ⊕ W2 , entonces dim V = dim W1 + dim W2 . Además, si B1 es una base
de W1 y B2 es una base de W2 , entonces B1 ∩ B2 = ∅ y B1 ∪ B2 es una base de V .
Dem. La primera afirmación es consecuencia del teorema 1.4.8. Consideremos ahora la intersección de B1 y
B2 . Si existiese v ∈ B1 ∪ B2 , entonces v ∈ W1 ∩ W2 = {0} y por lo tanto v = 0; pero eso es imposible porque
v ∈ B1 y B1 es LI. Luego B1 ∩ B2 = ∅. Sabemos que B1 ∪ B2 es un generador de V = W1 + W2 . Además,
como es B1 ∩ B2 = ∅, obtenemos
#(B1 ∪ B2 ) = #B1 + #B2 = dim W1 + dim W2 = dim V,
esto implica que B1 ∪ B2 es una base de V .
Proposición 1.4.14. Sean W1 , W2 subespacios de un espacio de dimensión finita V . Si W1 ∩ W2 = {0} y
dim V = dim W1 + dim W2 , entonces V = W1 ⊕ W2 .
Dem. Aplicando el teorema 1.4.8 obtenemos dim(W1 + W2 ) = dim W1 + dim W2 . Luego dim(W1 + W2 ) =
dim V y por lo tanto V = W1 + W2 . Como además es W1 ∩ W2 = {0}, concluimos V = W1 ⊕ W2 .
Ejemplo 1.4.15. Consideremos el espacio R3 y los subespacios
W1 = {(x, y, z) : 2x + y + z = 0} y W2 = {(x, y, z) : y = z = 0}.
Si (x, y, z) ∈ W1 ∩ W2 , entonces vale

2x + y + z = 0
⇒ x=y=z=0 ⇒ (x, y, z) = (0, 0, 0).
y=z=0
Luego W1 ∩ W2 = {(0, 0, 0)}. Por otro lado W1 es un plano y W2 una recta (el eje Ox), ası́ que es dim W1 = 2
y dim W2 = 1 y por lo tanto dim W1 + dim W2 = 2 + 1 = 3 = dim R3 ; luego R3 = W1 ⊕ W2 .

17
Observación 1.4.16. Dados dos subespacios W1 , W2 de V , no alcanza con que valga dim V = dim W1 +dim W2
para que la suma sea directa, hay que probar que también vale W1 ∩ W2 = {0}. Por ejemplo, si el espacio
es R3 y consideramos los subespacios

W1 = {(x, y, z) : z = 0} y W2 = {(x, y, z) : y = z = 0},

entonces W1 es un plano y W2 una recta, y por lo tanto dim W1 + dim W2 = 2 + 1 = 3 = dim R3 . Pero W2
está contenido en W1 , luego W1 + W2 = W1 ⊊ R3 y por lo tanto no es W1 ⊕ W2 = R3 .

Operaciones con más de dos subespacios. A continuación generalizaremos lo anterior a una cantidad
finita arbitraria de subespacios.
Sean W1 , . . . , Wm subespacios de V . Definimos su intersección m
T Pm
i=1 Wi y su suma i=1 Wi , mediante

m m
(m )
\ X X
Wi := {v ∈ V : v ∈ Wi , ∀i = 1, . . . , n}, Wi := wi : wi ∈ Wi , ∀i = 1, . . . , n .
i=1 i=1 i=1

La prueba de la siguiente proposición es análoga al caso de dos subespacios y queda como ejercicio.

Proposición 1.4.17. Si W1 , . . . , Wm son subespacios de V , entonces m


T Pm
i=1 Wi y i=1 Wi son también
subespacios.

Decimos que una familia {W1 , . . . , Wm } de subespacios de V es independiente si verifica la siguiente condi-
ción:
Xm
si w1 ∈ W1 , . . . , wm ∈ Wm son tales que wi = 0, entonces w1 = · · · = wm = 0.
i=1

En lo que sigue escribimos


X
Wj := W1 + · · · + Wi−1 + Wi+1 + · · · + Wm , ∀i = 1, . . . , m.
j̸=i

Proposición 1.4.18. Sea {W1 , . . . , Wm } una familia de subespacios de V . Entonces las siguientes condi-
ciones son equivalentes:

1. La familia {W1 , . . . , Wm } es independiente.


P
2. Para cada i = 1, . . . , m, vale Wi ∩ j̸=i Wj = {0}.

3. Para cada w ∈ m
P Pm
i=1 Wi , existen únicos wi ∈ Wi , i = 1, . . . , m, tales que w = i=1 wi .
P
Dem. (1 ⇒ 2). Sea i ∈ {1, . . . , m}. Si w ∈ Wi ∩ j̸=i Wj , entonces w ∈ Wi y existen wj ∈ Wj , para todo
j ̸= i tales que

w = w1 + · · · + wi−1 + wi+1 + · · · + wm ⇒ w1 + · · · + wi−1 + (−w) + wi+1 + · · · + wm = 0.

Como la familia es independiente, entonces todos los sumandos de la suma anterior son nulos, luego w = 0.
(2 ⇒ 3). Si un elemento w ∈ m de dos formas w = m
P P Pm ′ ′
Wi se escribe
i=1P i=1 wi y w = i=1 wi , con wi , wi ∈ Wi ,
m P m ′
para todo i = 1, . . . , m, entonces i=1 wi = i=1 wi y por lo tanto para cada i = 1, . . . , m es
m
X
wi − wi′ = (wj′ − wj )
j̸=i

18
Como wi − wi′ ∈ Wi y m ′ ′ ′
P P P
j̸=i (wj − wj ) ∈ j̸=i Wj , entonces wi − wi ∈ Wi ∩ j̸=i Wj = {0}. Luego wi = wi ,
para todo i = 1, . . . , m.
Pm
⇒ 1). Sean wi ∈ Wi , i = 1, . . . , m, tales que
(3 P i=1 wi = 0. Como 0 ∈ Wi para todo i = 1, . . . , m
m
y i=1 0 = 0, entonces la unicidad implica que es wi = 0, para todo i = 1, . . . , m. Luego la familia
{W1 , . . . , Wm } es independiente.
Observación 1.4.19. Una familia de dos subespacios {W1 , W2 } es independiente si y solo si W1 ∩ W2 = {0}.
Una familia de tres subespacios {W1 , W2 , W3 } es independiente si y solo si

W1 ∩ (W2 + W3 ) = {0}, W2 ∩ (W1 + W3 ) = {0}, W3 ∩ (W1 + W2 ) = {0}.

Notar que las condiciones W1 ∩ W2 = W1 ∩ W3 = W2 ∩ W3 = {0} no implican las condiciones de arriba. Por
ejemplo, si consideramos V = R2 y

W1 = {(x, 0) : x ∈ R}, W2 = {(0, y) : y ∈ R}, W3 = {(x, x) : x ∈ R},

entonces es fácil de probar que las intersecciones dos a dos son triviales (son rectas que pasan por el origen),
pero W1 + W2 = R2 , luego W3 ⊂ W1 + W2 y por lo tanto W3 ∩ (W1 + W2 ) = W3 ̸= {(0, 0)}.
Decimos
L que un subespacioPmW de V es suma directa de una familia de subespacios {W1 , . . . , Wm } y escribimos
W = m i=1 W i , si W = i=1 Wi y la familia {W1 , . . . , Wm } es independiente.

La proposición 1.4.18 implica directamente el siguiente resultado.

Corolario 1.4.20. Si W1 , . . . , Wm ⊂ V son subespacios, entonces las siguientes condiciones son equivalen-
tes.

1. V = m
L
i=1 Wi .

2. V = m
P P
i=1 Wi y Wi ∩ j̸=i Wj = {0} para todo i = 1, . . . , m.

3. Para todo v ∈ V , existen únicos wi ∈ Wi , i = 1, . . . , m, tales que v = m


P
i=1 wi .

Observaciones 1.4.21. 1. Notar que el corolario anterior implica que vale V = W1 ⊕ W2 si y solo si
V = W1 + W2 y W1 ∩ W2 = {0}; esta fue la definición que dimos para la suma directa de dos
subespacios.
Lm Pm
2. La notación de suma directa puede ser un poco confusa,
Lm Pm es i=1 Wi = i=1 Wi .
porque como conjuntos
Lo único que estamos diciendo al escribir W
P = i=1 Wi es que en W = i=1 Wi hay una forma única
de escribir cada vector w ∈ W como w = m i=1 wi , con wi ∈ Wi , para todo i.
De ahora en adelante supondremos que V es un espacio de dimensión finita. La misma idea que usamos en
la demostración de la proposición 1.4.5, sirve para probar el siguiente resultado.
Pm
Proposición 1.4.22. Sean W1 , . . . , Wm subespacios de V S y consideremos W = i=1 Wi . Si Gi es un
generador de Wi , para todo i = 1, . . . , m, entonces su unión m G
i=1 i es un generador de W.

A continuación veremos cómo se relaciona la suma directa con la dimensión.

Proposición 1.4.23. Sea {W1 , . . . , Wm } una familia independiente de subespacios de V . Consideremos


W = m
L
i=1 W i y sea Bi una base de Wi , para todo i. Entonces

1. Bi ∩ Bj = ∅, para todo i ̸= j.

2. B = m
S
i=1 Bi es una base de W .

19
Pm
3. dim W = i=1 dim Wi .

Dem. Si existiesen i ̸= j tales que Bi ∩Bj ̸= ∅, entonces existirı́a v ∈ Bi ∩Bj . Como Bi es una base, entonces
v ̸= 0; luego X X
v ∈ Wi ∩ Wj ⊂ Wi ∩ Wl ⇒ Wi ∩ Wl ̸= {0} E.
l̸=i l̸=i

Luego Bi ∩ Bj = ∅, para todo i ̸= j.


Probaremos ahora que B es una base de W . Por la proposición anterior sabemos que B es un generador de
W , ası́ que solo resta probar que es LI. Para cada i = 1, . . . , m, sea Bi = {w1i , . . . , wlii }. Supongamos que
tenemos escalares aij tales que

a11 w11 + · · · + a1l1 wl11 + · · · + am m m m


1 w1 + · · · + alm wlm = 0.

Como ai1 w1i + · · · + aili wlii ∈ Wi (para todo i) y la familia {W1 , . . . , Wm } es independiente, deducimos que es

ai1 w1i + · · · + aili wlii = 0, ∀i = 1, . . . , m.

Luego como cada Bi es LI, deducimos que es aij = 0, para todo i, j y por lo tanto B es LI. La tercera
afirmación se deduce directamente de las anteriores.

Corolario 1.4.24. Sean W1 , . . . , Wm subespacios de un espacio de dimensión finita V . Si {W1 , . . . , Wm }


es una familia independiente y dim V = m
P Lm
i=1 dim W i , entonces V = i=1 W i .

Dem. La proposición anterior implica dim( i=1 Wi ) = i=1 dim Wi = dim V , luego m
Lm Pm L
i=1 Wi = V .

1.5. Dimensión infinita.


Lo que veremos en esta sección es complementario y no se necesita para entender el resto.
Las definiciones que vimos anteriormente de conjuntos LD o LI, generadores y bases, son para espacios de
dimensión finita. A continuación veremos las definiciones generales. En esta sección V es un espacio vectorial
arbitrario.
Si X ⊂ V es un subconjunto no vacı́o (posiblemente infinito), definimos el subespacio generado por X como
el conjunto de todas las combinaciones lineales (finitas) que podemos lograr con elementos de X, es decir

[X] := {v ∈ V : ∃n ≥ 1, v1 , . . . , vn ∈ X, a1 , . . . , an ∈ k, tales que v = a1 v1 + · · · + an vn }.

Notar que si W ⊂ V es un subespacio tal que X ⊂ W , entonces [X] ⊂ W . Luego el subespacio generado
por X es el menor subespacio de V que contiene a X. Como antes definimos [∅] = {0}.
Decimos que un conjunto X ⊂ V es linealmente dependiente (LD) si existe una cantidad finita de elementos
v1 , . . . , vn ∈ X y escalares no todos nulos a1 , . . . , an ∈ k tales que a1 v1 + · · · + an vn = 0. En caso contrario
se dice que X es linealmente independiente (LI). Notar que X es LD si y solo si X contiene un subconjunto
finito que es LD y X es LI si y solo si todos sus subconjuntos finitos son LI. En particular esta definición
implica que el conjunto vacı́o es LI.
Decimos que A ⊂ V es un generador de V si el subespacio generado por A es todo V y decimos que A es
una base de V si es un generador y es LI. Notar que esto implica que ∅ es una base del espacio trivial {0}.

Teorema 1.5.1. Todo espacio vectorial admite una base.

20
Dem. Sea V un espacio no trivial. Consideremos A = {X ⊂ V : X es LI}, pensado como conjunto
parcialmente ordenado con la inclusión. Sea C una cadena en A (es decir,
S C es un subconjunto no vacı́o de A
tal que si X, Y ∈ C, entonces X ⊂ Y o Y ⊂ X). Consideremos M = X∈C X. Si Z ⊂ M es un subconjunto
finito, al ser C una cadena obtenemos que existe X ∈ C tal que Z ⊂ X. Como X es LI, entonces Z también
es LI. Luego todo subconjunto finito de M es LI y por lo tanto M es LI. Entonces M ∈ A y por lo tanto
M es una cota superior de C. Luego el lema de Zorn implica que A tiene un elemento maximal B. Entonces
probamos que en V existe un conjunto B que es un LI maximal, y es fácil de probar que esto implica que
B es una base de V .
Observación 1.5.2. En general todo lo que vimos en dimensión finita para conjuntos LD y LI, generadores y
bases, vale también en dimensión infinita (eventualmente acomodando un poco los enunciados). Sin embargo
en dimensión infinita las bases tienen menos utilidad que en dimensión finita, ya que en general no es posible
determinar una base de un espacio de dimensión infinita, aun cuando en teorı́a sabemos que existe (ver los
ejemplos siguientes). También perdemos los resultados que involucran argumentos de conteo, como por
ejemplo la proposición 1.3.18.
El siguiente resultado lo usaremos en los ejemplos siguientes. Recordar que si V es un espacio de dimensión
finita n, entonces todo subconjunto de V con más de n elementos es LD (proposición 1.3.17). Luego si en V
existe un subconjunto LI infinito, entonces la dimensión de V es infinita.

Ejemplo 1.5.3. Probaremos que el conjunto B = {xn : n = 0, 1, 2, . . . } es una base del espacio de los
polinomios k[x] y por lo tanto k[x] tiene dimensión infinita. Es claro que B es generador, ası́ que solo falta
probar que es LI. Para cada n = 1, 2, . . . , consideremos el conjunto Bn = {1, x, . . . , xn }. Si a0 , . . . , an ∈ k
son tales que a0 1 + a1 x + · · · + an xn = 0 (el polinomio nulo), entonces a0 = · · · = an = 0. Esto prueba que
Bn es LI, para todo n. Si C es un subconjunto finito de B, entonces existe algún n tal que C ⊂ Bn y por lo
tanto C es LI (por la proposición 1.3.6). Luego todo subconjunto finito de B es LI y por lo tanto B es LI.

Ejemplos 1.5.4. 1. Pensando al espacio de los polinomios R[x] como el espacio de las sucesiones reales
finitas, entonces el espacio V de las sucesiones reales contiene a R[x] como subespacio y por lo tanto
V tiene dimensión infinita.

2. Si consideramos el espacio D(R) = {f : R → R : f es derivable}, entonces R[x] es un subespacio de


D(R) (identificando los polinomios con las funciones polinómicas) y por lo tanto D(R) tiene dimensión
infinita. Por lo mismo C(R) = {f : R → R : f es continua} también tiene dimensión infinita.

Respecto a estos ejemplos, salvo en los polinomios, en los otros casos no se conocen bases de esos espacios.
En espacios de dimensión infnita tiene sentido considerar sumas de familias infinitas de subespacios. Si
{Wα : α ∈ Λ} es una familia de subespacios de V (posiblemente infinita), entonces su intersección es el
conjunto \
Wα := {v ∈ V : v ∈ Wα , ∀α ∈ Λ}.
α∈Λ
T P
Es fácil de probar que α∈Λ Wα es un subespacio deS V . En este caso se define
P α∈Λ Wα como el conjunto de
todas las sumas S(finitas) de vectores
P que están en α∈Λ Wα . Notar que α∈Λ Wα coincide con el subespacio
generado por α∈Λ Wα , luego α∈Λ Wα también es un subespacio de V . La definición de suma directa
también se extiende a familias arbitrarias, en forma análoga a como definimos
L∞ la suma directa de una
familia finita de subespacios. Por ejemplo, con esa definición vale R[x] = n=0 Rn [x].

21

También podría gustarte