Algebra

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 27

Instituto Tecnológico de Ciudad Madero

Asignatura:

ALGEBRA LINEAL

Ingeniería Mecánica

Maestro:

Alumnos:
Definición de espacio vectorial
Espacio vectorial real.
Un espacio vectorial real V es un conjunto de objetos, denominados vectores,
junto con dos operaciones binarias llamadas suma y multiplicación por un
escalar y que satisfacen los diez axiomas enumerados a continuación.

Notación. Si “x” y “y” están en V y si a es un número real, entonces la suma


se escribe como

“x + y” y el producto escalar de a y x como ax.


Antes de presentar la lista de las propiedades que satisfacen los vectores en
un espacio vectorial deben mencionarse dos asuntos de importancia. En
primer lugar, mientras que puede ser útil pensar en R 2 o R3 al manejar un
espacio vectorial, con frecuencia ocurre que el espacio vectorial parece ser
muy diferente a estos cómodos espacios (en breve tocaremos este tema). En
segunda instancia, la definición 1 ofrece una definición de un espacio vectorial
real. La palabra “real” significa que los escalares que se usan son números
reales. Sería igualmente sencillo definir un espacio vectorial complejo
utilizando números complejos en lugar de reales. Este libro está dedicado
principalmente a espacios vectoriales reales, pero las generalizaciones a otros
conjuntos de escalares presentan muy poca dificultad.
Axiomas de un espacio vectorial.

1- Si X pertenece a V y Y pertenece a V, entonces X+Y pertenece a V.

2- Para todo X, Y y Z en V, (x+y)+z = x(y+z).

3- Existe un vector |0 pertenece V tal que para todo X pertenece a V,


X+0=0+X=X.

4- Si x pertenece a V, existe un vector –x en V tal que x+(-x)=0.

5- Si X y Y están en V, entonces x+y=y+x.

6- Si x pertenece a V y a es un escalar, entonces ax pertenece a V.

7- Si X y Y están en V y a es un encalar, entonces a(x+y)= ax + ay


8- Si X pertenece a V y a y b son escalares, entonces (a+b) x = ax+ by.

9- Si X pertenece a V y a y b son escalares, entonces a(bx) = (ab)x.

10- Para cada vector X pertenece a V, 1x = x.

Definición de subespacio vectorial y sus propiedades

DEFINICION DE SUB ESPACIO VECTORIAL

Sea H un subconjunto no vacío de un espacio vectorial V y suponga que H es


en sí un espacio vectorial bajo las operaciones de suma y multiplicación por un
escalar definidas en V. Entonces se dice que H es un sub espacio de V.

Existen múltiples ejemplos de sub espacio, sin embargo, en primer lugar, se


demostrará un resultado que hace relativamente sencillo determinar si un
subconjunto de V es en realidad sub espacio de V

Teorema de sub espacio

Un subconjunto no vacío de H de un espacio vectorial V es un sub espacio de


V si se cumplen las dos reglas de cerradura:

Reglas de cerradura para ver si un subconjunto no vació es un sub espacio

i) Si x € H y y € H, entonces x + y € H.

ii) Si x € H, entonces αx € H para todo escalar α.

Es obvio que, si H es un espacio vectorial, entonces las dos reglas de cerradura


se deberán cumplir. De lo contrario, para demostrar que es un espacio
vectorial, se deberá demostrar que los axiomas i) a x) de la definición cumplen
bajo las operaciones de suma de vectores y multiplicación por un escalar
definidas en V. Las dos operaciones de cerradura [axiomas i) y iv)] se cumplen
por hipótesis, como los vectores en H son también vectores en V, las
identidades asociativa, conmutativa, distributiva y multiplicativa
[axiomas ii), v), vii), viii), ix) y x)] se cumplen.
Este teorema demuestra que para probar si H es o no es un sub espacio de V,
es suficiente verificar que:

x + y y αX están en H cuando x y y están en H y α es un escalar.

PROPIEDADES DE SUB ESPACIO VECTORIAL

1). El vector cero de V está


en H.2

2). H es cerrado bajo la suma de vectores. Esto es, para


cada u y v en
H, la suma u + v está en H.

3). H es cerrado bajo la multiplicación por escalares. Esto es, para


cada

u en H y cada escalar c, el vector cu está en H.

Combinación lineal

Una combinación lineal de dos o más vectores es el vector que se obtiene al


sumar esos vectores multiplicados por escalares.

Cualquier vector se puede poner como combinación lineal de otros que


tengan distinta dirección.

Esta combinación lineal es única.

Sean v1,v2,…,vn vectores en un espacio vectorial V. Entonces cualquier vector


de la forma:

α1v1+α2v2+…+αnvn
donde α1v1+α2v2+…+αnvn son escalares se denomina combinación lineal de
v1,v2,…,vn.
Todo vector V = (a, b, c) en R 3 se puede expresar como
i = (1,0,0);
j = (0,1,0);
k =(0,0,1)

V = (a, b, c) = a(i) + b(j) + c(k)

Entonces se dice que V es una combinación lineal de los 3 vectores i,j,k.

Dependencia e Independencia lineal


Los vectores son linealmente independientes si tienen distinta dirección y sus
componentes no son proporcionales.

Un conjunto de vectores {v1,v2,…,vk} es un espacio vectorial V es linealmente


dependiente si existen escalares c 1,c2,…,ck, al menos uno de los cuales no es
cero, tales que:

c1v1+c2v2+…+ckvk=0

Si los vectores no son linealmente dependientes, se dice que son linealmente


independientes.

Criterios de Independencia Lineal

Sean u1, u2, …,uk k vectores en Rn y A la matriz que tiene como columnas a
estos vectores, los vectores son linealmente independientes si el sistema Ax
= 0 tiene únicamente solución trivial.
Los vectores son linealmente dependientes si el sistema Ax=0 tiene
soluciones no triviales (solución múltiple).

Si k=n
Los vectores son linealmente independientes si A es invertible

Si k>n
Los vectores son linealmente dependientes.
Dos vectores en un espacio vectorial son linealmente dependientes si uno de
ellos es múltiplo escalar del otro.

Un conjunto de vectores linealmente independientes en n contiene a lo más


n vectores.

Tres vectores en 3 son linealmente dependientes si y sólo si son coplanares,


esto es, que están en un mismo plano.

Teoremas

1. Cualquier conjunto que contenga al vector 0 es linealmente


dependiente.
2. Cualquier conjunto que contenga un único vector diferente de cero, v
≠0, es linealmente independiente.
3. Cualquier conjunto formado por dos vectores diferentes de cero, S =
{v1, v2}, donde v1 ≠ 0, v2 ≠ 0, es linealmente dependiente si, y sólo si,
uno de los vectores es múltiplo escalar del otro.
4. Cualquier conjunto que contenga un subconjunto linealmente
dependiente es linealmente dependiente.
5. Cualquier subconjunto de un conjunto linealmente independiente es
linealmente independiente.

Base y dimensión de un espacio vectorial

Base y dimensión de un espacio vectorial

Un conjunto de vectores S={v1, v2,…, vn} en un espacio vectorial V se


denomina base de V si se cumplen las siguientes condiciones.

* S genera a V.

* S es linealmente independiente

Una base posee 2 características que se acaban de ver, debe tener suficientes
valores para generar a V, pero no tantos de modo que uno de ellos pueda
escribirse como una combinación lineal de los demás vectores en S. Si un
espacio vectorial consta de un número finito de vectores, entonces V es de
dimensión finita. En caso contrario, V es de dimensión infinita.

Base

En términos generales, una “base” para un espacio vectorial es un conjunto


de vectores del espacio, a partir de los cuales se puede obtener cualquier
otro vector de dicho espacio, haciendo uso de las operaciones en él
definidas.

La base es natural, estándar o canónica si los vectores v1, v2,…, vn forman


base para Rn.

Si S={v1, v2,…, vn} es una base para un espacio vectorial V entonces todo
vector v en V se puede expresar como:

1. V = c1v1+ c2v2+…+ cnvn

2. V = k1v1+ k2v2+…+ knvn

Restar 2-1

0 = (c1- k1) v1+(c2- k2) v2+…+(cn- kn) vn

Ejemplo:
demostrar si S = {v1, v2,…, v3} es base de R3, v1 = (1,2,1); v2 = (2,9,0); v3 = (3,3,4)

Proponer vector arbitrario, combinación lineal

b = c1v1+ c2v2+ c3v3


(b1, b2, b3) = c1(1,2,1)+ c2(2,9,0)+ c3(3,3,4)
(b1, b2, b3) = c1+2c2+3c3;2c1+9c2+3c3; c1+4c3

c1 + 2c2 + 3c3 = b1 det A = [(1*9*4)+(2*3*1)+0]-


[(1*9*3)+0+(4*2*2)]
2c1 + 9c2 + 3c3 = b2 = [36+6]-[27+16]
c1 + 4c3 = b3 = -1 Si genera a R3

Espacio vectorial con producto interno


Producto Interno:

Un producto interno sobre un espacio vectorial V es una operación que


asigna a cada par de vectores u y v en V un número real <u, v>.

Un producto interior sobre V es una función que asocia un número real ‹u, v›
con cada par de vectores u y v cumple los siguientes axiomas:

Propiedades:

i. (v, v) ≥ 0
ii. (v, v) = 0 si y sólo si v = 0.
iii, (u, v +w) = (u, v)+ (u, w)
iv. (u + v, w) = (u, w)+(v, w)
v. (u, v) = (v, u)
vi. (αu, v) = α(u, v)
vii. (u, αv) = α(u, v)

Espacios con producto interior:

El producto interior euclidiano es solo uno más de los productos internos que
se tiene que definir en Rn Para distinguir entre el producto interno normal y
otros posibles productos internos se usa la siguiente notación.

u ●v = producto punto (producto interior euclidiano para Rn)

‹u, v› = producto interno general para espacio vectorial V.

Propiedades de los productos interiores:

1. ‹0, v› = ‹v, 0› = 0

2. ‹u + v, w› = ‹u, w› + ‹v, w›
3. ‹u, cv› = c‹u, v›.

Un espacio vectorial con producto interno se denomina espacio con producto


interno.

Base ortonormal

Definición de conjunto ortogonales y conjuntos ortonormales

Un conjunto S de vectores en un espacio V con producto interior se llama


ortogonal si todo par de vectores en S es ortogonal, además cada vector en
este conjunto es unitario, entonces S se denomina ortonormal.

Proceso de ortonormalización de Gram-Schmidt

1. Sea B = {v1, v2, . . ., vn} una base de un espacio V con producto interno

2. Sea B´= {w1, w2, . . ., wn} donde wi está dado por:

w1= v1

Entonces B´ es una base ortogonal de V.

3. Sea ui= wi ││ w1││ entonces el conjunto B´´={ u1, u2, . . ., un} es una base
ortonormal de V.

Ejemplo: Forma alternativa del proceso de ortonormalización de Gram-


Schmidt

Determine una base ortonormal del espacio solución del siguiente sistema
homogéneo de ecuaciones lineales

w+ x + z= 0

2w+x + 2y+ 6z=0

Solución: La matriz aumentada se reduce como se sigue.


Entonces cada solución del sistema es de la forma

Una base del espacio solución es:

B= {v1, v2,} = {(-2,2,1,0), (1,-8,0,1)}.

Para hallar una base ortonormal B´= {u1, u2}, se usa la forma alternativa del
proceso de ortonormalización de Gram- Schmidt como sigue.
Introducción a las transformaciones lineales.
Definición: Las transformaciones lineales son las funciones y tratan sobre K-
espacios vectoriales que son compatibles con la estructura (es
decir, con la operación y la acción) de estos espacios.
Aquí se presentan las funciones entre espacios vectoriales que preservan las
cualidades de los
espacios vectoriales. Es decir, de funciones que preservan la suma y la
multiplicación por escalares.

Nosotros usaremos el concepto de la función para darle un tratamiento a los


sistemas de ecuaciones lineales. La restricción que haremos será sobre el tipo
de funciones: solo estaremos interesados en funciones que preserven las
operaciones en el espacio vectorial. Este tipo de funciones serán llamadas
funciones lineales. Primeramente, las definiremos, veremos algunas
propiedades generales y después veremos cómo se aplican estos resultados a
sistemas de ecuaciones.

Sean V y W dos espacios vectoriales posiblemente iguales.


Una transformación lineal o mapeo lineal de V a W es una función
T : V → W tal que para todos los vectores u y v de V y cualquier escalar c:
a) T (u + v) = T (u) + T (v)
b) T (c u) = c T (u)
Demuestre que la transformación T : R2 →R2 definida por

es lineal.
Entonces:

Por otro lado, para todo escalar c,

Como se cumplen las dos condiciones:

T es lineal.
Una transformación lineal preserva combinaciones lineales. Veremos que,
debido a esto, una transformación lineal queda unívoca-mente determinada
por los valores que toma en los elementos de una base cualquiera de su
dominio.
Teniendo en cuenta que las transformaciones lineales son funciones entre
conjuntos, tiene sentido estudiar la validez de las propiedades usuales de
funciones: inyectividad, suryectividad y directividad.

Las transformaciones lineales que verifican alguna de estas propiedades


reciben nombres particulares:
Definición 3.6 Sean V y W dos K-espacios vectoriales, y sea f : V → W una
transformación lineal. Se dice que:
1. f es un monomorfismo si f es inyectiva.
2. f es un epimorfismo si f es suryectiva.
3. f es un isomorfismo si f es biyectiva.
En algunos casos, consideraremos transformaciones lineales de un K-espacio
vectorial en s ́ı mismo:
Sea V un K-espacio vectorial. Una transformación lineal f : V → V se llama un
endomorfismo de V . Si f es un endomorfismo que es además un isomorfismo,
entonces se dice que es un auto morfismo.

Núcleo e imagen de una transformación lineal.


Transformaciones lineales: núcleo e imagen.
Teorema 1

Sea T: V S W una transformación lineal. Entonces para todos los


vectores u, v, v1,

v2, . . . , vn en V y todos los escalares a1, a2, . . . , an:


i. T(0) = 0

ii. T(u - v) = Tu - Tv

iii. T(a1v1 + a2v2 +. . .+ anvn) = a1Tv1 + a2Tv2 +. . .+ anTvn

Nota. En la parte i) el 0 de la izquierda es el vector cero en V; mientras que


el 0 de la

derecha es el vector cero en W.

Teorema 2

Sea V un espacio vectorial de dimensión finita con base B = {v1, v2, . . . , vn}.
Sean w1,

w2, . . . , wn vectores en W. Suponga que T1 y T2 son dos transformaciones


lineales de V

en W tales que T1vi = T2vi = wi para i = 1, 2, . . . , n. Entonces para cualquier


vector v ∈

V, T1v = T2v; es decir T1 = T2.

Ejemplo
Definición 1 Núcleo e imagen de una transformación lineal

Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal.


Entonces

i . El núcleo de T, denotado por un, está dado por

ii. La imagen de T, denotado por Im T, esta dado por

Observación 1. Observe que un T es no vacio porque, de acuerdo al teorema


1, T(0) = 0 de manera que 0 ϵ un T para cualquier transformación lineal T. Se
tiene interés en encontrar otros vectores en V que “se transformen en 0”. De
nuevo, observe que cuando escribimos T(0) = 0, el 0 de la izquierda está en V
y el de la derecha en W.
Observación 2. La imagen de T es simplemente el conjunto de “imágenes” de
los vectores en V bajo la transformación T. De hecho, si w = Tv, se dice que w
es la imagen de v bajo T.

Antes de dar ejemplos de núcleos e imágenes, se demostrará un teorema de


gran utilidad.

Teorema 4

Si T:V W es una transformación lineal, entonces

i.Un T es un subespacio de V.

ii.Im T es un subespacio de W.
Demostración

i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de


forma que u + v y ∝u están en un T.

ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vectores u y v en V.


Esto significa que T(u + v)= Tu + Tv = w + x y T(∝u) = ∝Tu =∝w. Por lo tanto, w
+ x y ∝w están en Im T.

Ejemplo 3. Núcleo e imagen de la transformación cero

Sea Tv = 0 para todo vϵ V(T es la transformación cero). Entonne un T = v e Im


T = {0}.

Ejemplo 4 Núcleo e imagen de la transformación identidad

Sea Tv = v para vϵ V(T es la transformación identidad). Entonces un T= {0} e


Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos. En la


primera todo se encuentra en el núcleo. En la segunda sólo el
vector cero se encuentra en el núcleo. Los casos intermedios son más
interesantes.

Ejemplo 5 Núcleo e imagen de un operador de proyección

Sea T:R3 R3 definida por

T es el operador de proyección de R 3 en el plano xy.


Entonces x = y = 0. Así, nu T = {(x,y,z):x = y = 0, zϵR}, es decir, el eje z, e Im T =
{(x,y,z): z = 0}, es decir el plano xy. Observe que dim un T = 1 y dim Im T = 2.

Definición 2 Nulidad y rango de una transformación lineal

Si T es una transformación lineal de v en w, entonces se define.

Toda matriz A de m*n da lugar a una transformación lineal T:R ´´ R´´´ definida
por Tx = Ax. Es evidente que un T = N A, Im T = Im A = C A, v(T) = v(A) y p(T) =
p(A). Entonces se ve que las definiciones de núcleo, imagen, nulidad y rango
de una transformación lineal son extensiones del espacio nulo, la imagen, la
nulidad y el rango de una matriz.

Definición y Matriz de transformación

Así como se pueden representar operaciones lineales como matrices,


cualquier transformación lineal entre espacios vectoriales de dimensión finita
se puede representar mediante una matriz.

Sea T : 𝑅𝑛 → 𝑅𝑚 una transformación lineal de acuerdo a los teoremas de


representación matricial solo existe una matriz única de m x n, la Matriz de
transformación 𝐴 𝑇, donde toda x pertenece a 𝑅𝑛 y donde w representa la x
transformada, de modo que la transformación de x es igual a x multiplicada
por la matriz de transformación.
La matriz de transformación, representada por 𝐴 𝑇 ,es la representación
matricial de T, la operación que conviene o transforma el vector original al
vector resultado. La matriz de transformación está definida usando la base
estándar en 𝑅 𝑛 𝑦 𝑅𝑚, por lo que, si se utiliza bases distintas, la matriz de
transformación es diferente.

Representación matricial de una transformación de proyección


Para obtener la representación matricial de una transformación de
proyección, donde se tomó un vector y se proyecta sobre otro plano, se toma
el vector original y se multiplica por una matriz de identidad de acuerdo al
plano en el que se quiere proyectar por ejemplo la proyección de un vector en
𝑅 3 sobre un plano x y se representaría como:
𝑥
Si el vector es [𝑦 ] y se quiere proyectar sobre un plano XD entonces la
𝑧
transformación la
10 0
Representamos como 𝐴 𝑇 = [ 0 1 0 ] de manera que solo quedaran los
001
vectores correspondientes ax y y. El resultado sería:

Representación matricial de una transformación


Si se tiene una transformación de T: 𝑅3 → 𝑅 4
𝑥−𝑦
𝑥 𝑥+𝑦
Dada por 𝑇 [𝑦] = [ 2𝑥 − 𝑦 − 𝑧 ]
𝑧 −𝑧 + 𝑦 + 2𝑧

La T representa la transformación, que será la representada por 𝐴 𝑇, mientras


que la matriz azulada represente el vector original. El resultado es la
transformación realizada. Para poder representar la de forma matricial lo que
se debe obtener es la matriz de transformación. Ya una vez que se obtiene se
puede determinar otros datos como el núcleo y la imagen de la
transformación.
Para este caso, utilizando el resultado de la transformación, se puede
determinar fácilmente la matriz de transformación, separando el vector
original y determinando las operaciones que se realizaron:

De manera que

Y su representación quedaría como la matriz de transformación multiplicando


el vector original para dar como resultado de la transformación:

Representación matricial de una transformación 𝑹𝟑 → 𝑹𝟑

Si se tiene una transformación T: 𝑅 3 → 𝑅3


𝑥 2𝑥 − 𝑦 + 3𝑧
Dada por 𝑇 [𝑦] = [ 4𝑥 − 2𝑦 + 6𝑧 ]
𝑧 −6𝑥 + 3𝑦 − 9𝑧
De la misma forma que se realizó la presentación matricial de a partir del
resultado se obtiene la matriz de transformación sólo que en este caso no se
aumenta el número de vectores sólo se transforman los tres originales a tres
nuevos.
Representación matricial de una transformación cero
Si T es transformación cero de: 𝑅𝑛 → 𝑅𝑚 entonces 𝐴 𝑇 es la matriz cero de m
x n. Una transformación cero siempre da como resultado cero, es una
operación que convierte el calor original a un cero. La manera de representar
lo de forma matricial es con una matriz cero:

De igual manera si te esa transformación idéntica de 𝑅 𝑛 → 𝑅𝑚 entonces 𝐴 𝑇 =


𝐼𝑛 .
Es decir, para una transformación de 𝑅2 → 𝑅2, la matriz de transformación
sería la matriz de identidad.

Representación matricial a espacios arbitrarios de dimensiones finita:


Para poder representar de forma matricial cualquier espacio arbitrario de
dimensiones finitas, se utiliza el siguiente teorema:
Sean V un espacio vectorial de dimensión n, W un espacio vectorial de
Dimensión es m y T: V → W una transformación lineal. Sea 𝐵1 =
{𝑣1,𝑣2, … . . , 𝑣𝑛 } una base para V y sea 𝐵2 = {𝑤1 ,𝑤2 , … . . , 𝑤𝑛 } una base para
w. Entonces existe una matriz única 𝐴 𝑇 de m x n tal que:
(𝑇𝑥)𝐵2 = 𝐴 𝑇 (𝑥)𝐵1
Para comprobar este teorema, realizamos el siguiente ejercicio:
Sea 𝑇𝑣1 = 𝑦1 , 𝑇𝑣2 = 𝑦2 , 𝑇𝑣𝑛 = 𝑦𝑛 .Como 𝑦1 𝜀𝑤, se tiene que parar i = 1, 2, …,
n
𝑦1 = 𝑎1𝑖 𝑤1 + 𝑎2𝑖 𝑤2 + ⋯ + 𝑎𝑚𝑖 𝑤𝑚
Para algún conjunto de escalares 𝑎1𝑖, 𝑎2𝑖, … , 𝑎𝑚𝑖

Esto significa que 𝑦1 = 𝑎11𝑖 𝑤1 + 𝑎21𝑖𝑤2 + ⋯+ 𝑎𝑚1 𝑤𝑚


Todo esto se define como:

Como

Se tiene:

Si x esta en V, entonces:
Que es equivalente a:

Representación matricial de una transformación de 𝑷𝟐en 𝑷𝟑


Defina T: 𝑃2 → 𝑃3 por (Tp(x)=xp(x). Encuentra 𝐴 𝑇u Úsala para determinar el
núcleo y la imagen de T.
Solución:
Utilizando las bases estándar 𝐵1 = {1, 𝑥, 𝑥 2}en 𝑃2 y 𝐵2 = {1, 𝑥, 𝑥 2 ,𝑥 3} en
𝑃3se tiene

0 0 0
Entonces p(A) = 3 y una base para 𝑅𝐴es {(1) . (0) . (0)}.Por lo tanto Im
0 1 0
0 0 1
2 3
T=gen {, 𝑥, 𝑥 , 𝑥 }. Como v(A) =3-p(A) = 0, se ve que un T={0}.

Representación matricial de una transformación de 𝑷𝟑en 𝑷𝟐


Defina T: 𝑃3 → 𝑃2 por T( 𝑎0 + 𝑎1𝑥 + 𝑎2𝑥2 + 𝑎3 𝑥2) = 𝑎1 + 𝑎2𝑥2 . Calcula 𝐴 𝑇
y utiliza para encontrar el núcleo y la imagen de T.
Solución:
Utilizando las bases estándar 𝐵1 = {1, 𝑥, 𝑥 2}en 𝑃2 y 𝐵2 = {1, 𝑥, 𝑥 2 ,𝑥 3} en 𝑃3
de inmediato

Representación de materiales relativa a dos bases no estándar en 𝑹𝟐


Aplicación de las transformaciones lineales: reflexión, expansión,
contracción y rotación
Graficar un conjunto de puntos en otro es lo que se conoce como
transformación lineal de un conjunto de puntos. Existen ciertas propiedades
básicas de las transformaciones lineales, las cuales, si son tomadas en cuenta
y aplicadas al momento de resolver un problema, pueden reducirlo un
problema simple. La notación general utilizada para una transformación lineal
es T: Rn
Transformaciones lineales
Las transformaciones lineales forman un “hilo” que se entreteje en la tela de
este texto. Su utilización mejora el sentido geométrico de lo escrito. Por
ejemplo, en el capítulo 1, las transformaciones lineales proporcionan una
visión dinámica y gráfica ca de la multiplicación matriz-vector.
1. Reflexión: Cuando un conjunto de puntos dados es graficado desde el
espacio euclidiano de entrada a otro de manera tal que este es isométrico al
espacio euclidiano de entrada, llamamos a la operación realizada la reflexión
del conjunto de puntos dado. Esto puede realizarse también con respecto a la
matriz, en tal situación la matriz de salida es llamada la matriz de reflexión. La
reflexión es realizada siempre con respecto a uno de los ejes, sea el eje x o el
eje y. Esto es como producir la imagen espejo de la matriz actual.
2. Expansión: Al igual que en la reflexión, también es posible expandir los
puntos dados en una dirección particular. La expansión se realiza
habitualmente para un cierto grado. Es como realizar una operación de
multiplicación de los elementos del conjunto de puntos dados con un término
escalar hacia la dirección donde tiene que ser expandido. Sea para un punto
(2, 3) si el grado de expansión 2 es la dirección de y, entonces el nuevo punto
obtenido es (2, 6).
3. Contracción: La contracción es el procedimiento inverso de la expansión.
Aquí el punto es contraído en un determinado grado hacia una dirección dada.
Sea el punto de entrada (4, 8) y este debe ser contraído para el grado dos en
la dirección de x entonces el nuevo punto resulta ser (2, 8).
4. Rotación: El término rotación tiene dos significados, ya la rotación de un
objeto puede ser realizada con respecto al eje dado o al eje mismo. La rotación
se realiza para un cierto grado el cual es expresado en forma de un ángulo.
Asimismo, la rotación puede realizarse en la dirección de las manecillas del
reloj, o inverso a las manecillas del reloj.
Como ejemplo, dirijámonos a producir la matriz estándar para la
representación de la transformación lineal reflejando un conjunto de puntos
en el plano x-y a través de la recta y = (−2x / 3).
El primer paso para esto es determinar los vectores base.

Bibliografía
BERMUDEZ, M. E. (2013). sites. Obtenido de sites: https://n9.cl/f8vh4
Grossman S, S.I., Álgebra Lineal Sexta Edición, 2007.
Kaufmann, Jerome E. y Schwitters, Karen L. Algebra, Octava Edición. Ciudad
de México: Cengage Learning, 2010
Del Valle, Juan Carlos. Algebra Lineal Para Estudiantes De Ingeniería y
Ciencias. Ciudad de México: McGraw Hill

También podría gustarte