01introduccion SEL

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

Solución de sistemas de ecuaciones lineales:

Introducción y conceptos generales

Ing. Jesús Javier Cortés Rosas


M. en A. Miguel Eduardo González Cárdenas
M. en A. Vı́ctor D. Pinilla Morán *

2011

Resumen

Introducción. Conceptos generales. Métodos de solución basados en el álgebra matricial.


Técnicas para mejorar las soluciones.

1. Introducción

Los sistemas de ecuaciones son herramientas imprescindibles en la práctica de la Ingenierı́a. Se


utilizan para modelos diversos fenómenos fı́sicos que involucran una multitud de variables y que su
comportamiento implica una estrecha relación entre ellas.
La solución de circuitos a través de las Leyes de Kirchhoff, el análisis estructural, la investigación
de operaciones son sólo unos pocos ejemplos de la importancia que reviste el uso de los sistemas de
ecuaciones.

2. Conceptos generales

La solución de un sistema de ecuaciones lineales es un conjunto n de valores que satisfacen si-


multáneamente a un grupo de ecuaciones. En la solución de dicho sistema se presentan tres casos:

1. Que el sistema no tenga solución finita. Se dice entonces que el sistema es incompatible.

2. Que el sistema tenga solución finita única. En tal caso se dice que el sistema es compatible
determinado.

3. Que tenga más de una solución. El sistema es entonces compatible indeterminado.


*
Facultad de Ingenierı́a, UNAM. Profesores de tiempo completo del Departamento de Matemáticas Aplicadas de
la División de Ciencias Básicas

1
Análisis numérico 2

En este artı́culo se examinarán métodos para resolver sistemas de ecuaciones lineales compatibles
determinados que obedecen a la forma [1]:

a11 x1 +a12 x2 +a13 x3 +... +a1n xn = b1


a21 x1 +a22 x2 +a23 x3 +... +a2n Xn = b2
a31 x1 +a32 x2 +a33 x3 +... +a3n Xn = b3 (1)
.. .. .. .. .. ..
. . . . . .
an1 x1 +an2 x2 +an3 x3 +... +ann xn = bn

En forma matricial este sistema se representa como:

Ax̄ = b̄ (2)

Donde: A es la matriz de coeficientes aij :


 
a11 a12 a13 ... a1n
 a21 a22 a23 ... a2n 
 
A =  a31 a32 a33 ... a3n (3)
 

 .. .. .. .. .. 
 . . . . . 
an1 an2 an3 ... ann

x̄ es el vector compatible de incógnitas:


 
x1

 x2 

x̄ = 
 x3 
 (4)
 .. 
 . 
xn

b̄ es el vector compatible de términos independientes:


 
b1
 b2 
 
 b3 
b̄ =   (5)
 .. 
 . 
bn

3. Métodos de solución basados en el álgebra matricial

La técnica fundamental para encontrar la solución de un sistema de ecuaciones es el de la elimina-


ción; dicho proceso consiste en transformar el sistema original en sistemas equivalentes aplicando
las tres operaciones fundamentales sobre las ecuaciones del sistema que son:

1. Intercambiar dos ecuaciones del sistema

2. Multiplicar una ecuación del sistema por un escalar diferente de cero


Análisis numérico 3

3. Multiplicar una ecuación del sistema por un escalar diferente de cero y sumar el resultado a
otra ecuación del sistema.

Con base en estas tres operaciones fundamentales se definen varios métodos de solución. Cabe
indicar que en el desarrollo de estos métodos y en la práctica de las operaciones se utilizan diversos
recursos del álgebra matricial, entre ellos el uso de la matriz ampliada o la trasnformación hacia la
matriz identidad. En este trabaja se muestran únicamente los planteamientos de los métodos sin
ahondar en las técnicas que se prefieran en su solución.

Método de Gauss

A través de las operaciones fundamentales aplicadas a la matriz de coeficientes A y al vector de


términos independientes b̄ (para mantener la igualdad en las ecuaciones), se convierte a la matriz
A en una matriz tiangular superior donde la diagonal principal la constituyen números 1. Esta
transformación implica que en la ecuación n aparezca una sóla incógnita, dos en la ecuación n − 1,
tres en la n − 2 y ası́ consecutivamente para después realizar una sustitución hacia atrás [1].
Sea el sistema de ecuaciones lineales Ax̄ = b̄, donde la matriz de coerficientes A corresponde a la
forma de la matriz 3 y el vector de términos independientes b̄ corresponde al vector 5, la matriz
ampliada del sistema es:  
a11 a12 a13 ... a1n | b1
 a21 a22
 a23 ... a2n | b2 
A =  a31 a32
 a33 ... a3n | b3  (6)
 .. .. .. .. .. .. .. 
 . . . . . . . 
an1 an2 an3 ... ann | bn

Por medio de las operaciones fundamentales debe transformarse en una matriz ampliada triangular
superior de la forma:
1 a012 a013 ... a01n | b01
 
 0 1 a0 ... a02n | b02 
 23 
A= 0 0
 1 ... a03n | b03  (7)
 .. .. .. .. .. .. .. 
 . . . . . . . 
0 0 0 ... 1 | b0n
donde los valores a0ij y b0i son los coeficientes modificados por la aplicación de las operaciones
fundamentales.
Este procedimiento se logra tomando cada uno de los elementos de la diagonal principal de la
matriz A original, al cual se le denomina pivote y después normalizando la ecuación con dicho valor.
Posteriormente, a través de las operaciones fundamentales, se hace la eliminación de los elementos
inferiores de la columna correspondiente al pivote.
Una vez realizada la transformación se realiza la sustitución hacia atrás obteniéndose el valor de
cada una de las incógnitas.
Análisis numérico 4

Método de Gauss-Jordan

Es una ampliación del método de Gauss con la diferencia que la matriz de coeficientes A se trasforma
en la matriz identidad de tal forma que se conserva una única incógnita por ecuación eliminando la
sustición hacia atrás.
Sea el sistema de ecuaciones lineales Ax̄ = b̄, donde la matriz de coerficientes A corresponde a la
forma de la matriz 3 y el vector de términos independientes b̄ corresponde al vector 5 y la matriz
ampliada corresponde al arreglo 6, por medio de las operaciones fundamentales debe trasnformarse
en la matriz identidad de la forma:
1 0 0 ... 0 | b01
 
 0 1 0 ... 0 | b0 
 2 
 0 0 1 ... 0 | b0 
A= 3  (8)
 .. .. .. .. .. .. .. 
 . . . . . . . 
0 0 0 ... 1 | b0n

donde los valores b0i son los coeficientes modificados por la aplicación de las operaciones fundamenta-
les. De nuevo, el procedimento utilizado es la elección del pivote, la normalización de las ecuaciones
y la eliminación de los elementos superiores e inferiores de la columna del pivote correspondiente.

Método de la matriz inversa

Es, en esencia, una analogı́a del método de Gauss-Jordan.


Sea el sistema de ecuaciones lineales Ax̄ = b̄, donde la matriz de coerficientes A corresponde a la
forma de la matriz 3 y el vector de términos independientes b̄ corresponde al vector 5 y donde A−1
es la matriz inversa de A, se cumple que:

x̄ = A−1 · b̄ (9)

4. Métodos para mejorar las soluciones

En los métodos de Gauss y Gauss-Jordan que se basan en el pivoteo pueden enfrentarse a cier-
tas dificultades cuando ecuaciones (en consecuencia dos renglones de la matriz ampliada) son muy
parecidos o, en el peor de los casos, idénticos. Durante la aplicación de las operaciones fundamen-
tales uno de estos renglones se volverá cero, es decir, se eliminará. Esto implica que el número de
ecuaciones es n − 1 el número de incógnitas y en consecuencia se trata de un sistema compatible
indeterminado.
Esta situación es detectada por el álgebra matricial ya que el determinante de la matriz A será cero;
la matriz A se denominará entonces matriz singular. No es posible eliminar la situación reltiva a la
matriz singular cuando el sistema emana de ua situación tal.
Por otra parte, es imposible realizar la normalización utilizando al elemento ubicado en la diagonal
principal cuando este es cero. Una manera de librar este obstáculo es intercambiar renglones para
retirar de la diagonal principal elementos de valor cero. Sin embargo, en ocasiones los pivotes tienen
Análisis numérico 5

valores pequeños comparados al resto de los coeficientes del mismo renglón o bien, tiende a cero.
Esta situación provocará errores de redondeo al efectuar la normalización.
Una opción para minimizar los efectos de esta situación es utilizar más cifras significativas en las
cantidades durante los cálculos. Adicionalmente, es muy pertinente antes de realizar la normali-
zación, ubicar el elemento de mayor valor disponible en la columna a la que pertence el elemento
pivote; los renglones se pueden intercambiar de tal forma que dicho elemento sea el elemento pivote
[2]. A esta acción se le denomina pivoteo parcial. En cambio, si se realiza un procedimiento tal que
tanto como en las columnas como en los renglones se ubica el elemento mayor en la diagonal prin-
cipal, esto se conoce como pivoteo total. Resulta obvio establecer que la realización de los pivoteos
parcial o total están sujetos a la estructura del sistema de ecuaciones [3].
Como se constatará en futuras definiciones, la relación entre los valores de los elementos pivote y
el resto de los coeficientes que comparten el mismo renglón es determinante de la convergencia en
métodos iterativos para solución de sistemas de ecuaciones. De hecho, a la prominencia en valor
absoluto del elemento pivote sobre el resto de coeficientes de un mismo renglón se le denomina
criterio de la diagonal pesada y se conforma de dos condiciones para obtener la solución buscada:

5. Criterio de convergencia

El método de Jácobi es susceptible de los efectos del pivoteo. En consecuencia, su criterio de con-
vergencia lo conforman los criterios de la diagonal pesada, mismo que posee dos condiciones:

1. Condición necesaria: Es condición necesaria que el elemento ubicado en la diagonal principal


de cada ecuación sea mayor en valor absoluto que el resto de los elementos de la misma
ecuación.
|aii | > |aij | (10)

2. Condición suficiente: Es condición suficiente que el elemento ubicado en la diagonal principal


de cada ecuación sea mayor en valor absoluto que la suma del resto de los elementos de la
misma ecuación. X
|aii | > |aij | (11)

En la medida que los elementos pivotes, que conforman la diagonal principal de la matriz A sea
más pesada, mayor será la velocidad de convergencia de la solución iterativa.

6. Conclusiones

Los métodos anteriores suelen ser poco óptimos cuando el sistema corresponde a un orden superior
a tres, si la solución se hace en forma manual; la situación es similar cuando se diseñan los respec-
tivos algortimos, principalmente por considerar la elección del pivote, la normalización y las tres
operaciones fundamentales [4]. Adicionalmente, como se profundizará posteriormente, el valor del
pivote es el factor determinante en la producción y propagación de errores.
El Análisis numérico proporciona herramientas que hacen de estos procesos herramientas más efec-
tivas, ya sea como versiones alternas a los métodos basados en el álgebra matricial (Descomposición
Análisis numérico 6

LU) o como métodos iterativos (Métodos de Jácobi y de Gauss-Seidel) con sus correspondientes
criterios de convergencia.

Referencias

[1] Douglas Burden, Richard. Faires. Análisis Numérico. 2002.

[2] Raymond. Chapra, Steven. Canale. Métodos Numéricos para Ingenieros. 1999.

[3] Curtis F. Gerald. Análisis numérico. segunda edición edition, 1991.

[4] Antonio. Schutz Fernando. Luthe, Rodolfo. Olivera. Métodos numéricos. 1985.

También podría gustarte