0% encontró este documento útil (0 votos)
113 vistas23 páginas

JJ

El documento describe la notación indicial o de Einstein, que se utiliza para escribir sumatorios de forma más concisa. Esta notación omite los símbolos de sumatorio y entiende que un índice repetido indica una suma sobre todos sus posibles valores. También explica conceptos como los índices mudos, libres y operaciones con tensores como el producto tensorial, subir y bajar índices, y contracción.

Cargado por

deisi
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
113 vistas23 páginas

JJ

El documento describe la notación indicial o de Einstein, que se utiliza para escribir sumatorios de forma más concisa. Esta notación omite los símbolos de sumatorio y entiende que un índice repetido indica una suma sobre todos sus posibles valores. También explica conceptos como los índices mudos, libres y operaciones con tensores como el producto tensorial, subir y bajar índices, y contracción.

Cargado por

deisi
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 23

1.1. NOTACIÓN INDICIAL.

El convenio de sumación de Einstein, notación de Einstein o notación indicial a la


convención utilizada para abreviar la escritura de sumatorios, en el que se suprime el
símbolo de sumatorio (representado con la letra griega sigma - Σ). El convenio fue
introducido por Albert Einstein en 1916. Se aplica en matemáticas en especial a los
cálculos realizados en álgebra lineal destinados a la física. El convenio se aplica sólo a
sumatorias sobre índices repetidos. El convenio se usa especialmente
con tensores donde es muy frecuente la operación de suma sobre índices repetidos y
sería muy fatigoso escribir explícitamente los signos de sumatorios.

Definición. Dada una expresión lineal en en la que se escriben todos sus términos
de forma explícita:

𝒖 = 𝑢1 𝑥1 + 𝑢2 𝑥2 + ⋯ + 𝑢𝑛 𝑥𝑛

Esta puede expresarse convencionalmente como el sumatorio:


𝑛

𝒖 = ∑ 𝑢𝑖 𝑥𝑖
𝑖=1

La notación de Einstein obtiene una expresión aún más condensada eliminando el


signo de sumatorio y entendiendo que en la expresión resultante un índice indica suma
sobre todos los posibles valores del mismo.

𝒖 = 𝑢𝑖 𝑥𝑖

Índice. Un índice utilizado en la notación de Einstein puede aparecer en forma de


producto hasta dos veces en mismo término de una expresión, por lo que las siguientes
expresiones son válidas:
𝑘𝑖 𝑥𝑖
𝑽𝑖 = 𝑢𝑖𝑗 𝑥𝑗 𝐶𝑖𝑗𝑘 𝑒𝑖 𝑒𝑗 𝑒𝑘
Y las siguientes expresiones no se encuentran definidas o son inválidas:
𝑥𝑖 𝑦𝑖 𝑧𝑖
𝑎𝑚 𝑥𝑚𝑗 𝑦𝑚𝑘

En cálculo de tensores es también común utilizar una de las ocurrencias como un


subíndice y la otra como un superíndice. Por ejemplo, en la siguiente expresión en .
𝑎𝜇 𝑏𝜇 = 𝑎0 𝑏0 + 𝑎1 𝑏1 + 𝑎2 𝑏2 + 𝑎3 𝑏3

Un índice que se repite dos veces en el mismo término de una ecuación se conoce
como índice mudo, por ejemplo:

𝐴 = 𝐴𝑖 𝑒𝑖

Un índice que se repite en cada uno de los términos de una expresión a excepción de
los términos constantes se conoce como índice libre:

𝑆𝑟 = 𝑎𝑟 𝑥𝑖 + 𝑏𝑟 𝑥𝑗 + 𝑐𝑟 − 1

Los índices libres no se expanden en forma de sumatorio, sino que representan un


sistema de ecuaciones independientes.

Representación vectorial. Se emplea el convenio de Einstein en Álgebra lineal para


distinguir fácilmente entre vectores columna y vectores fila. Se puede, por ejemplo,
poner índices sobre-escritos para representar elementos en una columna e índices
subscritos para representar elementos en una fila. Siguiendo esta convención,
entonces:

𝑢 = 𝑢𝑖 = [𝑢1 , 𝑢2 … 𝑢𝑛 ] Para 𝑖 = 1,2,3, … , 𝑛

Representa 1 𝑥 𝑛 vector fila y representa 𝑛 𝑥 1 vector columna.

𝑢1
𝑗
𝑉 = 𝑣 = [ 𝑢2 ] Para 𝑗 = 1,2,3, … , 𝑛
𝑢𝑛

En matemática y en física teórica y en particular en la relatividad general, los vectores


fila representan vectores contravariantes mientras que los vectores columna
representan vectores covariantes.

La notación indicial es una notación abreviada que se utiliza para facilitar la escritura de
ecuaciones.
Por ejemplo, un vector referido a un sistema de ejes cartesianos con tres
componentes (𝐴1 , 𝐴2 , 𝐴3 ) en notación indicial se representa por 𝐴𝑖 en donde el
subíndice 𝑖 toma los valores 1, 2,3.

Si se quiere representar un conjunto de 9 cantidades, se utiliza doble subíndice 𝐵𝑖𝑗 , en


donde ambos subíndices 𝑖 y𝑗 toman los valores 1, 2, 3. Si el conjunto tiene 27
cantidades, se necesitan tres subíndices 𝐷𝑖𝑗𝑘 . finalmente, si se tiene 3𝑛 cantidades se
utilizan 𝑛 subíndices 𝐵𝑖𝑗𝑘……𝑛 .

Existen dos tipos de subíndices:

 Índice libre: es aquel que aparece solo una vez y toma los valores 1, 2,3.el
número de términos que existen en la expresión es 3𝑛 en donde 𝑛 es el número
de índices libres.
 Índice mudo: aparece dos veces e indica una suma de 1 a 3 lo que constituye el
convenio de la suma o de Einstein.

Como regla general, un subíndice no puede aparecer repetido más de dos veces en un
monomio. Así, la expresión 𝐴𝑖𝑗𝑗 esta escrita correctamente en notación indicial. El
subíndice 𝑗, que aparece dos veces, es el índice mudo y representa una suma desde
𝑗=1 a 𝑗=3. Es decir

Sin embargo, la expresión 𝐴𝑖𝑖𝑖 no es correcta puesto que el subíndice 𝑖 aparece 3


veces. Es importante señalar que la letra con la que se representen los subíndices
mudos es indiferente, siempre y cuando se respeten las reglas mencionadas, por lo

que

La diferenciación con respecto a las tres variables independientes (𝑥1 , 𝑥2 , 𝑥3 ) se indica


mediante la coma
Esta expresión está constituida por 32 =9 cantidades, puesto que tanto 𝑖 como 𝑗 son
índices libres.

En determinadas ocasiones, existe un doble subíndice pero no se desea indicar suma.

Esto se representa introduciendo los índices entre paréntesis. Por ejemplo, los términos
individuales de un tensor de orden 2, 𝐴11 , 𝐴22 , etc., se pueden representar mediante
𝐴(𝑖𝑖).

Por último, el convenio de PI sirve para expresar producto. Por ejemplo, el producto de
las tres componentes de un vector se expresa

Como ejemplo se desarrollara a continuación algunas expresiones escritas en notación


indicial.

Ejemplo 1:

En este caso el subíndice 𝑖 es un índice mudo, luego el número de términos es 30 =1, o


sea un escalar

Y efectivamente esta expresión representa el producto escalar de los vectores 𝐴𝑖 𝑦 𝐵𝑖 .

Ejemplo 2:
1.2. Operaciones de Tensores.

Producto tensorial y producto exterior. Dados dos tensores se puede definir entre
ellos el llamado producto tensorial cuyo resultado es un tensor de tipo más complejo
cuyas componentes pueden obtenerse a partir de los tensores originales.

El producto de dos tensores es un tensor cuyo rango es la suma de los rangos dados
por los dos tensores. Este producto implica la multiplicación ordinaria de los
componentes de un tensor y es llamado producto exterior.

Por ejemplo:
𝒋𝒌 𝒋𝒌𝒍
𝑨𝒊 𝑩𝒍𝒎 = 𝑪𝒊𝒎

Subir y bajar índices. En una variedad riemanniana existe la posibilidad de definir una
operación sobre tensores, que en general no puede realizarse en una variedad

cualquiera. Esa operación permite substituir en los cálculos un tensor de tipo por

otro de tipo con tal que . Esta operación se denomina


usualmente ley de subir o bajar índices.

Esa operación se basa en la existencia de un isomorfismos entre espacios


de tensores covariantes y contravariantes definidos sobre una variedad

riemanniana o pseudoriemanniana . Por tanto para emplear, la subida y

bajada de índices es necesario usar el tensor métrico (y su inverso , llamado


co-tensor métrico).

Estas operaciones resultan muy útiles en la teoría general de la relatividad donde


cualquier magnitud física puede ser representada por tensores covariantes o
contravariantes indistintamente, y sin alterar el significado físico, según las necesidades
del problema planteado.

Así para cualquier magnitud física representada por un tensor de tercer rango, puede
ser representado por varios conjuntos de magnitudes relacionables gracias a la
operación de "subir y bajar índices":
Contracción. La contracción de tensores es una operación que reduce el orden total
de un tensor. Esta operación reduce un tensor tipo (𝒏, 𝒎) a otro tipo (𝒏 − 𝟏, 𝒎 − 𝟏). En
términos de componentes, esta operación se logra sumando el índice de un tensor

contravariante y un covariante. Por ejemplo, un tensor (1,1) puede ser contraído a

un escalar a través de ; donde el convenio de sumación de Einstein es empleado.


Cuando el tensor (1,1) se lo interpreta como un mapeo lineal, esta operación es
conocida como la traza.

La contracción se utiliza usualmente con el producto tensorial para contraer el índice de


cada tensor. La contracción puede también entenderse en términos de la definición de
un tensor como un elemento de un producto tensorial de copias del espacio con el
espacio , descomponiendo primero el tensor en una combinación lineal de tensores
más simples, y posteriormente aplicando un factor de a un factor de . Por
ejemplo:

Puede ser escrito como la combinación lineal de

La contracción de en el primero y último espacio es entonces el vector:

Producto interno. El producto interno de dos tensores se produce al contraer


el producto exterior de los tensores. Por ejemplo, dados dos

tensores y su producto externo es Igualando índices, ,

se obtiene el producto interno: .

1.3. MÉTODOS PARA EL CÁLCULO DE VALORES Y VECTORES PROPIOS.


Los vectores propios, autovectores o eigenvectores de un operador lineal son los
vectores no nulos que, cuando son transformados por el operador, dan lugar a un
múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ
recibe el nombre valor propio, autovalor, valor característico o eigenvalor. A menudo,
una transformación queda completamente determinada por sus vectores propios y
valores propios. Un espacio propio, autoespacio es el conjunto de vectores propios con
un valor propio común.

Las transformaciones lineales del espacio como la rotación, la reflexión, el


ensanchamiento o cualquier combinación de las anteriores; pueden interpretarse
mediante el efecto que producen en los vectores. Los vectores pueden visualizarse
como flechas de una cierta longitud apuntando en una dirección y sentido determinado.

 LOS VECTORES PROPIOS: Son vectores que, o no se ven afectados por la


transformación o se ven multiplicados por un escalar, y por tanto no varían su
dirección.
 EL VALOR PROPIO DE UN VECTOR PROPIO: Es el factor de escala por el que
ha sido multiplicado.
 UN ESPACIO PROPIO: Es un espacio formado por todos los vectores propios del
mismo valor propio, además del vector nulo, que no es un vector propio.
 LA MULTIPLICIDAD GEOMÉTRICA DE UN VALOR PROPIO: Es la dimensión del
espacio propio asociado.

Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado
en el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente
es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un
espacio de una dimensión, su multiplicidad geométrica es uno. Es el único valor propio
del espectro (de esta rotación) que es un número real.

Formalmente, se definen los vectores propios y valores propios de la siguiente manera:


Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es un vector
diferente de cero en V y c es un escalar tales que

𝐴𝒗 = 𝑐𝒗

Entonces decimos que v es un vector propio del operador A, y su valor propio asociado
es c. Si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente
de cero de v es también un vector propio con el valor propio c. De hecho, todos los
vectores propios con el valor propio asociado c junto con 0, forman un subespacio
de V, el espacio propio para el valor propio c. Observe además que un un espacio
propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el
vector Aw también pertenece a Z. espacio propio Z es un subespacio invariante de A,
es decir dado w un vector en Z, el vector Aw también pertenece a Z.

CASOS DE INTERES ESPECIAL.

Intuitivamente, para las transformaciones lineales del espacio de dos dimensiones ,


los vectores propios son:

 ROTACIÓN: ningún vector propio de valores reales (existen en cambio pares


valor propio, vector propio complejos).

 REFLEXIÓN: los vectores propios son perpendiculares y paralelos al eje de


simetría, los valores propios son -1 y 1, respectivamente.

 ESCALADO UNIFORME: todos los vectores son vectores propios, y el valor


propio es el factor de escala.

 PROYECCIÓN SOBRE UNA RECTA: los vectores propios con el valor propio 1
son paralelos a la línea, vectores propios con el valor propio 0 son paralelos a la
dirección de la proyección.

CALCULO DE VALORES Y VECTORES PROPIOS DE MATRICES

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se
puede calcular simbólicamente usando el polinomio característico. Sin embargo, a
menudo resulta imposible para matrices extensas, caso en el que se debe usar
un método numérico.

CÁLCULO SIMBÓLICO

Una herramienta importante para encontrar los valores propios de matrices cuadradas
es el polinomio característico: decir que λ es un valor propio de A es equivalente a
decir que el sistema de ecuaciones lineales A v = λ v --> A v - λ v = 0
(Factorizando por v queda) (A - λI) v = 0 (donde I es la matriz identidad) tiene una
solución no nula v (un vector propio), y de esta forma es equivalente al determinante:

det(𝐴 − 𝜆𝐼) = 0

Característico de A: los valores propios de una matriz son los ceros de


su característico. La función p(λ) = det(𝐴 − 𝜆𝐼) es un polinomio de λ pues los
determinantes se definen como sumas de productos.

Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación:

Si A es una matriz 𝑛 × 𝑛, entonces tiene grado 𝑛 y 𝐴 tiene como máximo 𝑛 valores


propios.

El teorema fundamental del algebra dice que esta ecuación tiene exactamente n raíces
(ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado
impar tienen un número real como raíz, así que para n impar toda matriz real tiene al
menos valor propio real. En caso de las matrices reales para n par e impar, los valores
propios no reales son pares conjugados.

ENCONTRANDO VECTORES PROPIOS.


Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar
resolviendo el sistema de ecuaciones homogéneo:

Una forma más sencilla de obtener vectores propios sin resolver un sistema de
ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que cada
matriz cuadrada satisface su propio polinomio característico. Así, si son
los valores propios de A se cumple que

Por lo que los vectores columna de son vectores propios de


.
EJEMPLO DE MATRIZ SIN VALORES PROPIOS REALES.
Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el
sentido de las manecillas del reloj:

Cuyo polinomio característico es y sus valores propios son el par de


conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.

EJEMPLO

Considérese la matriz

Que representa un operador lineal R³ → R³. Si se desea computar todos los valores
propios de A, se podría empezar determinando el polinomio característico:

Y porque p(x) = - (x - 2) (x - 1) (x + 1) se ve que los valores propios de A son 2, 1 y -1.


El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio
polinomio característico. Es decir:

Efectivamente, para el caso del valor propio 2, se puede comprobar que

De donde (1, 1, -1) es un vector propio asociado a 2.


CÁLCULO NUMÉRICO

En la práctica, los valores propios de las matrices extensas no se calculan usando el


polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las raíces
exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el
teorema de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o
superior) no pueden expresarse usándose simplemente raíces enésimas. Existen
algoritmos eficientes para aproximar raíces de polinomios, pero pequeños errores en la
estimación de los valores propios pueden dar lugar a errores grandes en los vectores
propios. En consecuencia, los algoritmos generales para encontrar vectores propios y
valores propios son iterativos. La manera más fácil es el método de las potencias se
escoge un vector aleatorio v y se calcula una secuencia de vectores unitarios.

, , , ...

Esta sucesión casi siempre convergerá a un vector propio correspondiente al mayor


valor propio. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin
embargo, para resolverlos se aplica el método de la descomposición QR, que es
la descomposición o factorización QR de una matriz es una descomposición de la
misma como producto de una matriz ortogonal por una triangular superior. La
descomposición QR es la base del algoritmo QR utilizado para el cálculo de
los vectores y valores propios de una matriz.

1.4 Gradiente, divergencia y rotacional.

Gradiente. En cálculo vectorial, el gradiente de un campo escalar es un campo


vectorial. El vector gradiente de evaluado en un punto genérico del dominio de
, ( ), indica la dirección en la cual el campo varía más rápidamente y su módulo
representa el ritmo de variación de en la dirección de dicho vector gradiente. El
gradiente se representa con el operador diferencial nabla seguido de la función
(cuidado de no confundir el gradiente con la divergencia, ésta última se denota con un
punto de producto escalar entre el operador nabla y el campo). También puede

representarse mediante , o usando la notación . La generalización del


concepto de gradiente a campos vectoriales es el concepto de matriz Jacobiana.
Si se toma como campo escalar el que se asigna a cada punto del espacio una presión
P (campo escalar de 3 variables), entonces el vector gradiente en un punto genérico
del espacio indicará la dirección en la cual la presión cambiará más rápidamente. Otro
ejemplo es el de considerar el mapa de líneas de nivel de una montaña como campo
escalar que asigna a cada pareja de coordenadas latitud/longitud un escalar altitud
(campo escalar de 2 variables). En este caso el vector gradiente en un punto genérico
indicará la dirección de máxima inclinación de la montaña. Nótese que el vector
gradiente será perpendicular a las líneas de contorno (líneas "equiescalares") del
mapa. El gradiente se define como el campo vectorial cuyas funciones coordenadas
son las derivadas parciales del campo escalar, esto es:

Esta definición se basa en que el gradiente permite calcular fácilmente las derivadas
direccionales. Definiendo en primer lugar la derivada direccional según un vector:

Una forma equivalente de definir el gradiente es como el único vector que, multiplicado
por el vector unitario, da la derivada direccional del campo escalar:

Con la definición anterior, el gradiente está caracterizado de forma unívoca. El


gradiente se expresa alternativamente mediante el uso del operador nabla:

Interpretación del gradiente. De forma geométrica el gradiente es un vector que se


encuentra normal (perpendicular) a la curva de nivel en el punto que se está estudiando,
llámese (𝑥, 𝑦), (𝑥, 𝑦, 𝑧), (tiempo, temperatura), etcétera. Algunos ejemplos son:

 Considere una habitación en la cual la temperatura se define a través de un campo


escalar, de tal manera que en cualquier punto ∅(𝑥, 𝑦, 𝑧), la temperatura es ∅(𝑥, 𝑦, 𝑧).
Asumiremos que la temperatura no varía con respecto al tiempo. Siendo esto así,
para cada punto de la habitación, el gradiente en ese punto nos dará la dirección en
la cual se calienta más rápido. La magnitud del gradiente nos dirá cuán rápido se
calienta en esa dirección.
 Considere una montaña en la cual su altura en el punto (𝑥, 𝑦) se define como
𝐻(𝑥, 𝑦). El gradiente de H en ese punto estará en la dirección para la que hay un
mayor grado de inclinación. La magnitud del gradiente nos mostrará cuán empinada
se encuentra la pendiente.
Propiedades. El gradiente verifica que:

 Es ortogonal a las superficies equiescalares, definidas por =cte.


 Apunta en la dirección en que la derivada direccional es máxima.
 Su módulo es igual a esta derivada direccional máxima.
 Se anula en los puntos estacionarios (máximos, mínimos y puntos de silla).
 El campo formado por el gradiente en cada punto es siempre irrotacional, esto es,

Divergencia. La divergencia de un campo vectorial mide la diferencia entre el flujo


entrante y el flujo saliente de un campo vectorial sobre la superficie que rodea a un
volumen de control, por tanto, si el campo tiene "fuentes" o "sumideros" la divergencia
de dicho campo será diferente de cero.

Divergencia de un campo vectorial. La divergencia de un campo vectorial en un


punto es un campo escalar, y se define como el flujo del campo vectorial por unidad de
volumen conforme el volumen alrededor del punto tiende a cero:

Donde es una superficie cerrada que se reduce a un punto en el límite. El


símbolo representa el operador nabla.

Esta definición está directamente relacionada con el concepto de flujo del campo.
Como en el caso del flujo, si la divergencia en un punto es positiva, se dice que el
campo posee fuentes. Si la divergencia es negativa, se dice que tiene sumideros. El
ejemplo más característico lo dan las cargas eléctricas, que dan la divergencia del
campo eléctrico, siendo las cargas positivas manantiales y las negativas sumideros del

campo eléctrico. Se llaman fuentes escalares del campo al campo escalar que se

obtiene a partir de la divergencia de


La divergencia de un campo vectorial se relaciona con el flujo a través del teorema de
Gauss o teorema de la divergencia.

Coordenadas cartesianas. Cuando la definición de divergencia se aplica al


caso de un campo expresado en coordenadas cartesianas,

El resultado es sencillo:

Coordenadas ortogonales. Sin embargo, para un caso más general


de coordenadas ortogonales curvilíneas, como las cilíndricas o las esféricas,
la expresión se complica debido a la dependencia de los vectores de la base
con la posición. La expresión para un sistema de coordenadas ortogonales
es:

Donde los son los factores de escala del sistema de coordenadas, relacionados con
la forma del tensor métrico en dicho sistema de coordenadas. Esta fórmula general,

para el caso de coordenadas cartesianas ( ) se reduce a la


expresión anterior.

Para coordenadas cilíndricas ( ) resulta:

Para coordenadas esféricas ( ) resulta

Coordenadas generales. En sistemas de coordenadas generales, no


necesariamente ortogonales, la divergencia de un vector puede expresarse
en términos de las derivadas parciales respecto a las coordenadas y el
determinante del tensor
métrico:

Rotacional. En el cálculo vectorial, el rotacional o rotor es un operador vectorial que


muestra la tendencia de un campo vectorial a inducir rotación alrededor de un punto.

Matemáticamente, esta idea se expresa como el límite de la circulación del campo


vectorial, cuando la curva sobre la que se integra se reduce a un punto:

Aquí, es el área de la superficie apoyada en la curva , que se reduce a un punto.


El resultado de este límite no es el rotacional completo (que es un vector), sino solo su
componente según la dirección normal a y orientada según la regla de la mano
derecha. Para obtener el rotacional completo deberán calcularse tres límites,
considerando tres curvas situadas en planos perpendiculares.

Fuente vectorial y escalar. Al campo vectorial, J, que se obtiene calculando el


rotacional de un campo F en cada punto,
𝐉=∇×𝐉

Se conoce como las fuentes vectoriales de F (siendo las fuentes escalares las que se
obtienen mediante la divergencia).

Un campo cuyo rotacional es nulo en todos los puntos del espacio se


denomina irrotacional o se dice que carece de fuentes vectoriales. Y si está definido
sobre un dominio simplemente conexo entonces dicho campo puede expresarse como
el gradiente de una función escalar, o dicho de otra forma, el campo deriva de un
potencial:
Expresión en formas cartesianas.

Partiendo de la definición mediante un límite, puede demostrarse que la expresión,


en coordenadas cartesianas, del rotacional es

Que se puede expresar de forma más concisa con ayuda del operador nabla como un
producto vectorial, calculable mediante un determinante:

Debe tenerse muy presente que dicho determinante en realidad no es tal pues los
elementos de la segunda fila no tienen argumento y por tanto carecen de sentido.
Además dicho determinante sólo puede desarrollarse por la primera fila. En definitiva,
la notación en forma de determinante sirve para recordar fácilmente la expresión del
rotacional.

En la notación de Einstein, con el símbolo de Levi-Civita se escribe como:

Propiedades:

 Todo campo potencial (expresable como el gradiente de un potencial escalar)


es irrotacional y viceversa, esto es,

 Todo campo central (radial y dependiente sólo de la distancia al centro) es


irrotacional.

En particular, el campo electrostático de una carga puntual (y por


superposición, cualquier campo electrostático) es irrotacional.
 El rotacional de un campo vectorial es siempre un campo solenoidal, esto es,
su divergencia siempre es nula:

Ejemplos:

 En un tornado los vientos están rotando sobre el ojo, y un campo vectorial que
muestra las velocidades del viento tendría un rotacional diferente de cero en el ojo,
y posiblemente en otras partes .

 En un campo vectorial que describa las velocidades lineales de cada parte


individual de un disco que rota, el rotacional tendrá un valor constante en todas las
partes del disco.

 Si una autopista fuera descrita con un campo vectorial, y los carriles tuvieran
diversos límites de velocidad, el rotacional en las fronteras entre los carriles sería
diferente de cero.

 La ley de Faraday de la inducción y la ley de Ampère-Maxwell, dos de


las ecuaciones de Maxwell, se pueden expresar muy simplemente usando el
rotacional. La primera indica que el rotacional de un campo eléctrico es igual a la
tasa de variación de la densidad del flujo magnético, con signo opuesto debido a
la Ley de Lenz; la segunda indica que el rotacional de un campo magnético es igual
a la suma de la densidad de corrientes y la derivada temporal de la densidad de
flujo eléctrico.
1.4. Teoremas de Green y de Stokes.

Teorema de Green. En física y matemáticas, el teorema de Green da la relación entre


una integral de línea alrededor de una curva cerrada simple C y una integral doble sobre la
región plana D limitada por C. El teorema de Green se llama así por el científico
británico George Green y es un caso especial del más general teorema de Stokes. El teorema
afirma:
Sea C una curva cerrada simple positivamente orientada, diferenciable por trozos, en el
plano y sea D la región limitada por C. Si L y M tienen derivadas parciales continuas en
una región abierta que contiene D,

A veces la notación

Se utiliza para establecer que la integral de línea está calculada usando la orientación
positiva (antihoraria) de la curva cerrada C.
Relación con el teorema de la divergencia:

El teorema de Green es equivalente a la siguiente analogía bidimensional del teorema


de Stokes:

Donde es el vector normal saliente en la frontera.

Para ver esto, considere la unidad normal en la parte derecha de la ecuación.

Como es un vector apuntando tangencialmente a través de una curva,


y la curva C está orientada de manera positiva (es decir, en contra del sentido de las
agujas del reloj) a través de la frontera, un vector normal saliente sería aquel que

apunta en 90º hacia la derecha, el cual podría ser .

El módulo de este vector es:

Por lo tanto:

Tomando los componentes de:

El lado derecho se convierte en:


Que por medio del teorema de Green resulta:

Teorema de Stokes. El teorema de Stokes en geometría diferencial es una proposición


sobre la integración de formas diferenciales que generaliza varios teoremas del cálculo
vectorial. Se nombra así por George Gabriel Stokes (1819-1903), a pesar de que la
primera formulación conocida del teorema fue realizada por William Thomson y
aparece en una correspondencia que él mantuvo con Stokes.

El teorema fundamental del cálculo establece que la integral de una función f en


el intervalo [a, b] puede ser calculada por medio de una antiderivada F de f:

El teorema de Stokes es una generalización de este teorema en el siguiente sentido:

 Para la F elegida, . En el lenguaje de las formas diferenciales es decir


que f(x) dx es la derivada exterior de la 0-forma (como por ejemplo una
función) F: dF = f dx. El teorema general de Stokes aplica para formas diferenciales
mayores en vez de F.

 En un lenguaje matemático, el intervalo abierto (a, b) es una variedad matemática


unidimensional. Su frontera es el conjunto que consiste en los dos puntos a y b.
Integrar f en ese intervalo puede ser generalizado como integrar formas en una
variedad matemática de mayor orden. Para esto se necesitan dos condiciones
técnicas: la variedad matemática debe ser orientable, y la forma tiene que ser
compacta de manera que otorgue una integral bien definida.
 Los dos puntos a y b forman parte de la frontera del intervalo abierto. Más
genéricamente, el teorema de Stokes se aplica a variedades orientadas M con
frontera. La frontera ∂M de Mes una variedad en sí misma y hereda la orientación
natural de M. Por ejemplo, la orientación natural del intervalo da una orientación de
los dos puntos frontera. Intuitivamente ahereda la orientación opuesta a b, al ser
extremos opuestos del intervalo. Entonces, integrando F en los dos puntos
frontera a, b es equivalente a tomar la diferencia F(b) − F(a).

Por lo que el teorema fundamental relaciona la integral de una función sobre un


intervalo, con una integral o suma de la primitiva de la función en los límites que
encierran dicho intervalo:

Por otro lado el teorema de Green hace algo similar en dos dimensiones, relaciona la
integral a lo largo de una curva simple con la integral de una combinación de derivadas
sobre un área limitada por la curva simple:

Similarmente el teorema de la divergencia relaciona la integral de una función sobre


una superficie con la integral de una combinación de derivadas sobre el interior del
conjunto:

El teorema de Stokes generaliza todos estos resultados, relacionando la integral sobre


una frontera con la integral de una función "derivada" sobre el interior de la región
limitada por la frontera.
Formulación General. Sea M una variedad de dimensión n diferenciable por trozos
orientada compacta y sea ω una forma diferencial en M de grado n-1 y de clase C. Si
∂ M denota el límite de M con su orientación inducida, entonces

aquí d es la derivada exterior, que se define usando solamente la estructura de


variedad. El teorema debe ser considerado como generalización del teorema
fundamental del cálculo y, de hecho, se prueba fácilmente usando este teorema.

El teorema se utiliza a menudo en situaciones donde M es una subvariedad orientada


sumergida en una variedad más grande en la cual la forma ω se define.

El teorema se extiende fácilmente a las combinaciones lineales de las


subvariedades diferenciables por trozos, las, así llamadas, cadenas. El teorema de
Stokes demuestra entonces que las formas cerradas definidas módulo una forma
exacta se pueden integrar sobre las cadenas definidas módulo borde. Ésta es la base
para el apareamiento entre los grupos de homología y la cohomología de de Rham.

El clásico teorema de Kelvin-Stokes:

que relaciona la integral de superficie del rotacional del campo vectorial sobre una
superficie Σ en el 3-espacio euclidiano a la integral de línea del campo vectorial sobre
su borde, es un caso especial del teorema de Stokes generalizado (con n = 2) una vez
que identifiquemos el campo vectorial con una 1-forma usando la métrica en el 3-
espacio euclidiano.

Asimismo el teorema de Ostrogradsky-Gauss o Teorema de la divergencia:

Es un caso especial si identificamos un campo vectorial con la n-1 forma obtenida


contrayendo el campo vectorial con la forma de volumen euclidiano.

El teorema fundamental del cálculo y el teorema de Green son también casos


especiales del teorema de Stokes generalizado.
La forma general del teorema de Stokes que usa formas diferenciales es de más
alcance que los casos especiales, por supuesto, aunque los últimos son más
accesibles y a menudo son considerados más convenientes por físicos e ingenieros.

Otra forma de escribir el mismo teorema es la siguiente:

Donde es un campo vectorial cualquiera.

Establece que la integral de superficie del rotacional de un campo vectorial sobre una
superficie abierta es igual a la integral (curvilínea) cerrada del campo vectorial a lo largo
del contorno que limita la superficie.

Bibliografía

Fuentes Virtuales:

http://es.wikipedia.org/wiki/C%C3%A1lculo_tensorial

http://w3.mecanica.upm.es/mmc-ig/Apuntes/indices.pdf
http://es.wikipedia.org/wiki/Vector_propio_y_valor_propio

http://es.wikipedia.org/wiki/Divergencia_(matemática)

http://es.wikipedia.org/wiki/Gradiente

http://es.wikipedia.org/wiki/Teorema_de_Green

http://es.wikipedia.org/wiki/Teorema_de_Stokes

También podría gustarte