Trasformaciones Lineales

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 21

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO

FACULTAD DE ESTUDIOS SUPERIORES


ARAGÓN

Ingeniería en Comp utación.

Álgebra Lineal.
Grupo: 2209.

Proyecto Final.

García Santiago Emiliano.


.
Trasformaciones
Lineales
La transformación entre espacios vectoriales es un concepto fundamental en el
álgebra lineal. Se refiere a una función que asigna elementos de un espacio
vectorial, llamado dominio, a elementos de otro espacio vectorial, conocido como
codominio.
El dominio de una transformación lineal es el conjunto de vectores de entrada
sobre los cuales está definida la transformación. Por ejemplo, si consideramos una
transformación que lleva vectores en el espacio tridimensional, entonces el
dominio sería el espacio tridimensional.
El codominio, por otro lado, es el conjunto de
vectores de salida posibles. En el ejemplo
anterior, el codominio también sería el espacio
tridimensional. Sin embargo, en algunas
ocasiones, el codominio puede ser un espacio
vectorial diferente al dominio.
La propiedad clave de una transformación lineal
es la linealidad. Una transformación se
considera lineal si cumple dos condiciones: la
preservación de la suma y la preservación de la
multiplicación por un escalar.
La preservación de la suma implica que si se toman dos vectores en el dominio, su
transformación lineal sumada debe ser igual a la transformación lineal de la suma
de los vectores individuales. Matemáticamente, si T es una transformación lineal, y
u y v son vectores en el dominio, entonces T(u + v) = T(u) + T(v).
La preservación de la multiplicación por un escalar establece que si se toma un
vector en el dominio y se multiplica por un escalar, su transformación lineal
también debe ser igual a la transformación lineal del vector original multiplicado
por el escalar. En términos matemáticos, si T es una transformación lineal, y u es
un vector en el dominio y c es un escalar, entonces T(cu) = cT(u).
Estas propiedades de linealidad son fundamentales en el estudio de
transformaciones entre espacios vectoriales, ya que permiten manipular y analizar
de manera eficiente las relaciones entre vectores y las operaciones lineales.
El recorrido de una transformación lineal, también conocido como rango, es el
conjunto de todos los vectores del espacio de salida (codominio) que pueden
obtenerse como resultado de aplicar la transformación lineal a algún vector del
espacio de entrada (dominio). En otras
palabras, es el conjunto de todas las
imágenes posibles de la transformación
lineal. El recorrido se denota como Im(T) o
R(T).
El núcleo de una transformación lineal,
también conocido como kernel, es el conjunto
de todos los vectores del espacio de entrada
(dominio) que se mapean al vector nulo en el
espacio de salida (codominio) mediante la transformación lineal.
Matemáticamente, el núcleo se define como el conjunto de vectores v en el
dominio tal que T(v) = 0, donde T representa la transformación lineal. El núcleo se
denota como Ker(T) o N(T).

DIMENCION FINITA
En el caso de una transformación lineal con dimensión finita, existe una relación
importante entre las dimensiones del dominio, el recorrido y el núcleo.
Sea T una transformación lineal que mapea un espacio vectorial de dimensión n
(dominio) a otro espacio vectorial (codominio). Entonces, la dimensión del
recorrido de T, denotada como dim(Im(T)), es igual o menor que la dimensión del
dominio n.

En otras palabras, el recorrido no puede tener una dimensión mayor que el


espacio de partida. Esto se debe a que el recorrido está compuesto por las
imágenes de los vectores del dominio, y estos vectores pueden estar relacionados
de manera lineal, lo que reduce la dimensión efectiva del recorrido.

Además, el núcleo de T, denotado como dim(Ker(T)), también está relacionado


con las dimensiones del dominio y el recorrido mediante el teorema fundamental
del álgebra lineal. El teorema establece que la dimensión del recorrido más la
dimensión del núcleo es igual a la dimensión del dominio.

Matemáticamente, esto se expresa como: dim(Im(T)) + dim(Ker(T)) = n

Esto implica que si conocemos la dimensión del dominio y la dimensión del


recorrido, podemos determinar la dimensión del núcleo. Alternativamente, si
conocemos la dimensión del dominio y la dimensión del núcleo, podemos calcular
la dimensión del recorrido.

En resumen, en el caso de una transformación lineal con dimensión finita, la


dimensión del recorrido está acotada superiormente por la dimensión del dominio,
y la suma de la dimensión del recorrido y la dimensión del núcleo es igual a la
dimensión del dominio. Estas relaciones son útiles para comprender la estructura y
las propiedades de las transformaciones lineales y sus espacios asociados.

MATRIZ ASOCIADA
La matriz asociada a una transformación lineal con dominio y codominio de
dimensión finita es una representación algebraica conveniente que permite
calcular y analizar la transformación de manera más eficiente.

Dado una transformación lineal T que


mapea un espacio vectorial de
dimensión n (dominio) a otro espacio
vectorial de dimensión m (codominio),
es posible obtener una matriz que
representa a T.

Para obtener la matriz asociada, se


elige una base para el espacio de entrada (dominio) y otra base para el espacio de
salida (codominio). Sea {v₁, v₂, ..., vₙ} una base del dominio y {u₁, u₂, ..., uₘ} una
base del codominio.

La matriz asociada a la transformación lineal T, denotada como [T], es una matriz


m x n donde cada columna está formada por las coordenadas de la imagen de la
base del dominio bajo T, expresadas en términos de la base del codominio.

Es decir, la columna j de la matriz [T] está formada por los coeficientes que
multiplican a la base del codominio para representar la imagen de vⱼ bajo la
transformación T.

OPERADOR LINEAL
Los valores y vectores propios son propiedades fundamentales de un operador
lineal en el álgebra lineal.
Dado un operador lineal T que actúa sobre un espacio vectorial V, un valor propio
(o autovalor) λ es un escalar tal que existe un vector no nulo v en V que cumple la
ecuación:

T(v) = λv

En otras palabras, cuando se aplica el operador lineal T al vector v, el resultado es


un múltiplo escalar λ del mismo vector v. El vector v se denomina vector propio (o
autovector) correspondiente al valor propio λ.

Los valores propios representan las escalas por las cuales los vectores propios se
expanden o contraen bajo la acción del operador lineal. Son características
intrínsecas del operador y pueden tener una variedad de interpretaciones en
diferentes contextos.

Los vectores propios son los vectores que no cambian su dirección (excepto
posiblemente por un cambio de sentido) cuando se les aplica el operador lineal.
Estos vectores juegan un papel importante en el análisis y la comprensión de la
transformación que realiza el operador.

En resumen, los valores y vectores propios son propiedades clave de un operador


lineal. Los valores propios son los escalares que multiplican a los vectores propios
correspondientes cuando se aplica el operador lineal. Estas propiedades son
fundamentales en el estudio y análisis de los operadores lineales, y tienen
aplicaciones en diversas áreas como la geometría, la física y la teoría de sistemas.

El caso de dimensión finita se refiere a situaciones en las que los espacios


vectoriales involucrados tienen un número finito de vectores que los generan.

En un espacio vectorial de dimensión finita, podemos encontrar una base, que es


un conjunto de vectores linealmente independientes que generan todo el espacio.
La dimensión de un espacio vectorial finito se define como el número de vectores
en su base.

En el caso de la dimensión finita, existen propiedades y resultados específicos que


se aplican. Algunos de estos incluyen:

1. Teorema de la dimensión: Si V es un espacio vectorial de dimensión finita y


W es un subespacio de V, entonces la dimensión de W es menor o igual
que la dimensión de V. Además, si la dimensión de W es igual a la
dimensión de V, entonces W es igual a V.
2. Independencia lineal: En un espacio vectorial de dimensión finita, un
conjunto de vectores es linealmente independiente si y solo si ninguno de
ellos puede expresarse como una combinación lineal de los demás. Si un
conjunto de vectores no es linealmente independiente, se le llama
linealmente dependiente.

3. Teorema de la base y el subespacio complementario: Si V es un espacio


vectorial de dimensión finita y W es un subespacio de V, entonces existe un
subespacio complementario W' de V tal que V es la suma directa de W y
W'. Esto significa que cada vector en V se puede descomponer de manera
única como la suma de un vector en W y un vector en W'.

Estos son solo algunos ejemplos de cómo la dimensión finita afecta el estudio de
los espacios vectoriales. La dimensión finita tiene importantes implicaciones en la
estructura y las propiedades de los espacios vectoriales, y proporciona
herramientas y resultados específicos para analizar y resolver problemas en el
contexto de álgebra lineal.

ESPACIO PROPIO
El espacio propio, también conocido como espacio vectorial propio o subespacio
propio, es un concepto fundamental en el álgebra lineal que se refiere a un
subconjunto específico de un espacio vectorial.

Dado un operador lineal T que actúa sobre un espacio vectorial V, el espacio


propio asociado a un valor propio λ es el conjunto de todos los vectores en V que
se mantienen inalterados, salvo por un posible escalamiento, cuando se aplica T.
Es decir, el espacio propio consiste en los vectores v tales que:

T(v) = λv

En otras palabras, el espacio propio de un valor propio λ está formado por todos
los vectores que son estirados o encogidos por un factor escalar λ cuando se les
aplica la transformación lineal.

El espacio propio siempre contiene el vector nulo, ya que T(0) = 0v = 0 para


cualquier valor propio λ. Además, el espacio propio puede contener otros vectores
no nulos, siempre y cuando cumplan la condición de la ecuación anterior.

El espacio propio puede tener diferentes dimensiones, dependiendo del valor


propio λ. Puede ser un subespacio de V de dimensión cero (solo el vector nulo), o
puede tener una dimensión mayor si hay más vectores no nulos que cumplen la
propiedad.

El estudio de los espacios propios es esencial en el análisis de operadores


lineales, ya que permite comprender cómo ciertos vectores se comportan bajo la
transformación. Los espacios propios proporcionan una forma de descomponer un
espacio vectorial en subespacios más manejables, cada uno asociado a un valor
propio específico.

En resumen, el espacio propio de un valor propio λ de un operador lineal T es el


conjunto de todos los vectores en el espacio vectorial V que se mantienen
inalterados, salvo por un escalamiento, cuando se les aplica T. Estos espacios
propios desempeñan un papel fundamental en el análisis de operadores lineales y
proporcionan información valiosa sobre las propiedades y comportamiento de la
transformación.

TEOREMAS CAYLEY HAMILTON


El teorema de Cayley-Hamilton establece que toda matriz cuadrada satisface su
propia ecuación característica.

Más formalmente, dado una matriz cuadrada A de tamaño n x n y su polinomio


característico p(λ) = det(A - λI), donde I es la matriz identidad de tamaño n x n y λ
es una variable, el teorema de Cayley-Hamilton afirma que al evaluar el polinomio
característico en la propia matriz A, se obtiene la matriz nula:

p(A) = p(A - 0I) = det(A - 0I) = det(A) = 0

En otras palabras, al sustituir la matriz A en su propio polinomio característico, se


obtiene cero como resultado.

Este teorema tiene implicaciones significativas en la teoría de matrices y en el


álgebra lineal. Nos permite obtener una relación entre las potencias de una matriz
y sus combinaciones lineales, lo que nos permite simplificar cálculos y
demostraciones.

Además, el teorema de Cayley-Hamilton se utiliza como herramienta para calcular


funciones de matrices y diagonalizar matrices. Al sustituir la matriz A en su
polinomio característico, podemos obtener una forma más manejable de expresar
funciones de A, como la exponencial de A o cualquier otra función polinómica.
En resumen, el teorema de Cayley-Hamilton establece que toda matriz cuadrada
satisface su propia ecuación característica al evaluar el polinomio característico en
la propia matriz, obteniendo la matriz nula como resultado. Este teorema tiene
importantes aplicaciones en el álgebra lineal y la teoría de matrices.

EJEMPLOS
Operadores lineales en
espacios con producto
interno.
Los operadores hermitianos y antihermitianos son conceptos fundamentales en el
ámbito de la teoría de operadores en el contexto de espacios vectoriales con
producto interno.

Un operador hermitiano es aquel para el cual su adjunto es igual a sí mismo. Dado


un operador lineal T que actúa en un espacio vectorial complejo con producto
interno, T se dice hermitiano si se cumple la siguiente propiedad:

T† = T

Donde T† es el adjunto de T. Esta propiedad implica que los valores propios de un


operador hermitiano son números reales y que sus vectores propios asociados
son ortogonales.

Por otro lado, un operador antihermitiano es aquel cuyo adjunto es igual a su


negativo. Un operador lineal T se dice antihermitiano si se cumple la siguiente
propiedad:

T† = -T

Esta propiedad implica que los valores propios de un operador antihermitiano son
números imaginarios puros (es decir, de la forma bi, donde b es un número real y i
es la unidad imaginaria) y que sus vectores propios asociados también son
ortogonales.

El teorema espectral establece que todo operador hermitiano en un espacio


vectorial complejo con producto interno es diagonalizable. Esto significa que se
puede encontrar una base de vectores propios ortogonales para el operador
hermitiano, lo cual simplifica significativamente su estudio y cálculo.

Más formalmente, el teorema espectral afirma que si T es un operador hermitiano


en un espacio vectorial complejo con producto interno, entonces existe una base
ortonormal de vectores propios para T, y los valores propios correspondientes son
números reales.

Este teorema es de gran importancia en la física cuántica y en otras ramas de la


ciencia, ya que permite describir y analizar sistemas físicos con operadores
hermitianos, donde los valores propios representan las observables físicas y los
vectores propios correspondientes representan los estados físicos.

En resumen, los operadores hermitianos y antihermitianos son operadores lineales


con propiedades específicas en espacios vectoriales complejos con producto
interno. Los operadores hermitianos tienen su adjunto igual a sí mismos, mientras
que los operadores antihermitianos tienen su adjunto igual a su negativo. El
teorema espectral establece que los operadores hermitianos son diagonalizables,
lo que implica la existencia de una base ortonormal de vectores propios con
valores propios reales. Estos conceptos son fundamentales en el estudio de
sistemas físicos y en el álgebra lineal.

Los operadores unitarios y ortogonales son conceptos clave en el ámbito del


álgebra lineal y la teoría de operadores. Estos operadores tienen propiedades
especiales en relación con la preservación del producto interno y la norma de los
vectores.

Un operador lineal T que actúa en un espacio vectorial complejo se dice unitario si


cumple la siguiente propiedad:

T†T = TT† = I

Donde T† es el adjunto de T y I es la matriz identidad. Esta propiedad implica que


un operador unitario preserva el producto interno entre vectores, es decir, para
todos los vectores u y v en el espacio, se cumple:

⟨T(u), T(v)⟩ = ⟨u, v⟩

Además, los operadores unitarios también preservan la norma de los vectores, es


decir, para cualquier vector u, se cumple:

‖T(u)‖ = ‖u‖

Por otro lado, un operador lineal T que actúa en un espacio vectorial real se dice
ortogonal si cumple la siguiente propiedad:

T^T T = TT^T = I
Donde T^T es la traspuesta de T. Al igual que los operadores unitarios, los
operadores ortogonales preservan el producto interno y la norma de los vectores.

Las propiedades de preservar el producto interno y la norma hacen que los


operadores unitarios y ortogonales sean de gran importancia en áreas como la
teoría de la información cuántica y la geometría euclidiana. Estos operadores
tienen aplicaciones en el análisis espectral, la resolución de sistemas de
ecuaciones lineales y la representación de transformaciones geométricas, entre
otros.

En resumen, los operadores unitarios y ortogonales son operadores lineales con


propiedades especiales de preservación del producto interno y la norma de los
vectores. Los operadores unitarios se definen en espacios vectoriales complejos y
satisfacen T†T = TT† = I, mientras que los operadores ortogonales se definen en
espacios vectoriales reales y satisfacen T^T T = TT^T = I. Estos operadores
desempeñan un papel fundamental en diversas áreas de las matemáticas y la
física.

Las formas cuadráticas son una clase importante de funciones en el ámbito del
álgebra lineal y la geometría. Son funciones que asignan a cada vector de un
espacio vectorial un escalar real o complejo. Estas funciones están definidas por
una expresión polinómica de segundo grado en las coordenadas del vector.

Formalmente, dada una forma cuadrática Q, definida en un espacio vectorial V, se


puede expresar como:

Q(v) = v^T A v

Donde v es un vector en V, v^T es la traspuesta de v, y A es una matriz simétrica


que define la forma cuadrática.

Las formas cuadráticas tienen varias propiedades importantes:

1. Simetría: La matriz A asociada a una forma cuadrática es simétrica, lo que


implica que sus elementos son iguales a los elementos correspondientes de
su traspuesta. Esto garantiza que el orden de los vectores en la expresión
no altera el valor de la forma cuadrática.

2. Homogeneidad: Una forma cuadrática satisface la propiedad de


homogeneidad, lo que significa que si multiplicamos el vector v por un
escalar c, entonces el valor de la forma cuadrática también se multiplica por
el cuadrado de c.
Q(c v) = (c v)^T A (c v) = c^2 (v^T A v) = c^2 Q(v)

3. Aditividad: Si sumamos dos vectores v y w, entonces el valor de la forma


cuadrática también se suma.

Q(v + w) = (v + w)^T A (v + w) = v^T A v + v^T A w + w^T A v + w^T A w = Q(v) + 2


v^T A w + Q(w)

Estas propiedades permiten analizar y estudiar las formas cuadráticas en términos


de sus propiedades matriciales y algebraicas. Además, las formas cuadráticas
están estrechamente relacionadas con conceptos como la matriz asociada, los
autovalores y autovectores, y la diagonalización de matrices simétricas.

En resumen, las formas cuadráticas son funciones que asignan a cada vector de
un espacio vectorial un escalar real o complejo. Estas funciones están definidas
por una expresión polinómica de segundo grado en las coordenadas del vector.
Las formas cuadráticas tienen propiedades de simetría, homogeneidad y
aditividad, y están estrechamente relacionadas con conceptos matriciales y
algebraicos como las matrices simétricas, los autovalores y autovectores, y la
diagonalización.

La aplicación del giro de ejes en dos y tres dimensiones es una técnica utilizada
en geometría y álgebra lineal para cambiar el sistema de coordenadas de un
espacio vectorial. El giro de ejes permite rotar el sistema de coordenadas
alrededor del origen, lo que puede facilitar el estudio y la resolución de problemas
geométricos y algebraicos.

En el caso de dos dimensiones, el giro de ejes se realiza mediante una rotación en


el plano. Supongamos que tenemos un sistema de coordenadas cartesiano con
los ejes x e y. Para realizar un giro de ejes, se aplica una rotación de un ángulo θ
alrededor del origen. Esto implica que los puntos en el plano se transformarán en
nuevas coordenadas x' e y' de acuerdo con las siguientes fórmulas:

x' = x * cos(θ) - y * sin(θ) y' = x * sin(θ) + y * cos(θ)

Estas ecuaciones definen la transformación del sistema de coordenadas original al


sistema de coordenadas rotado. El ángulo θ determina la cantidad y dirección de
la rotación.

En el caso de tres dimensiones, el giro de ejes implica una rotación en el espacio


tridimensional alrededor de uno o más ejes. Se pueden utilizar diferentes ángulos
de rotación para girar alrededor de los ejes x, y y z. La rotación se puede realizar
de forma secuencial o combinada, dependiendo de las necesidades del problema.
Al aplicar el giro de ejes en tres dimensiones, las coordenadas (x, y, z) se
transforman en nuevas coordenadas (x', y', z') de acuerdo con las fórmulas de
rotación correspondientes a los ángulos de rotación y ejes utilizados.

El giro de ejes es una herramienta útil en la geometría y la física, ya que permite


simplificar problemas y análisis al cambiar el sistema de coordenadas a uno más
conveniente. Además, la aplicación del giro de ejes puede facilitar la visualización
y comprensión de objetos en el espacio tridimensional.

En resumen, el giro de ejes en dos y tres dimensiones es una técnica que permite
rotar el sistema de coordenadas alrededor del origen. En el caso de dos
dimensiones, se realiza una rotación en el plano utilizando fórmulas específicas.
En el caso de tres dimensiones, se pueden utilizar diferentes ángulos de rotación
para girar alrededor de los ejes x, y y z. Esta técnica es útil para simplificar
problemas y análisis geométricos y físicos, así como para visualizar objetos en el
espacio tridimensional.
REFERENCIAS
1. Lay, D. C. (2016). Álgebra Lineal y sus Aplicaciones (5ta ed.). Pearson Educación.

2. Lehmann, C. H. (1991). Geometría Analítica. Limusa.

3. Meyer, C. D. (2000). Matrix Analysis and Applied Linear Algebra. SIAM.

4. Strang, G. (2006). Linear Algebra and Its Applications (4ta ed.). Cengage Learning.

5. Zettili, N. (2009). Quantum Mechanics: Concepts and Applications (2da ed.). Wiley.

6. Partington, J. R. (2004). Linear Operators and Linear Systems. Cambridge University Press.

7. Axler, S. (2015). Linear Algebra Done Right (3ra ed.). Springer.

También podría gustarte