Metodos de La Biseccion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

Método de la bisección

Es el método más elemental y antiguo para determinar las raíces de una ecuación.
Está basado directamente en el teorema de Bolzano explicado con anterioridad.
Consiste en partir de un intervalo [x0,x1]tal que f(x0)f(x1) < 0, por lo que sabemos
que existe, al menos, una raíz real. A partir de este punto se va reduciendo el
intervalo sucesivamente hasta hacerlo tan pequeño como exija la precisión que
hayamos decidido emplear.

Figure: Diagrama de flujo correspondiente a la


implementación del método de la bisección.
[scale=0.9]eps/bisecc

El algoritmo empleado se esquematiza en la figura (3). Inicialmente, es necesario


suministrar al programa el número máximo de iteraciones MaxIter, la
tolerancia , que representa las cifras significativas con las que queremos
obtener la solución y dos valores de la variable independiente, x0 y x1, tales que
cumplan la relación f(x0)f(x1) < 0. Una vez que se comprueba que el intervalo de
partida es adecuado, lo dividimos en dos subintervalos tales

que y y determinamos en qué subintervalo se encuentra


la raíz (comprobando de nuevo el producto de las funciones). Repetimos el
proceso hasta alcanzar la convergencia (hasta que ) o bien hasta que se
excede el número de iteraciones permitidas (Iter > MaxIter), en cuyo caso es
necesario imprimir un mensaje de error indicando que el método no converge.

Dos operaciones representadas en el esquema de la figura (3) requieren una


explicación adicional:

 El punto medio del intervalo se calcula como en lugar

de emplear . Se sigue de este modo una estrategia general al


efectuar cálculos numéricos que indica que es mejor calcular una cantidad
añadiendo un pequeño término de corrección a una aproximación obtenida
previamente. Por ejemplo, en un computador de precisión limitada, existen

valores de x0 y x1 para los cuales xm calculado mediante se sale del


intervalo [x0,x1].
 La convergencia ( ) se calcula mediante la

expresión . De este modo, el término ,


representa el número de cifras significativas con las que obtenemos el
resultado.
Método de las aproximaciones sucesivas
Dada la ecuación f(x) = 0, el método de las aproximaciones sucesivas reemplaza
esta ecuación por una equivalente, x=g(x), definida en la forma g(x)=f(x)+x. Para
encontrar la solución, partimos de un valor inicial x0 y calculamos una nueva
aproximación x1=g(x0). Reemplazamos el nuevo valor obtenido y repetimos el

proceso. Esto da lugar a una sucesión de valores , que si


converge, tendrá como límite la solución del problema.

Figure: Interpretación geométrica del método de las


aproximaciones sucesivas.

[scale=0.9]eps/as-1

En la figura (4) se representa la interpretación geométrica del método. Partimos


de un punto inicial x0 y calculamos y = g(x0). La intersección de esta solución con
la recta y=x nos dará un nuevo valor x1 más próximo a la solución final.

Sin embargo, el método puede divergir fácilmente. Es fácil comprobar que el


método sólo podrá converger si la derivada g'(x) es menor en valor absoluto que
la unidad (que es la pendiente de la recta definida por y=x). Un ejemplo de este
caso se muestra en la figura (5). Esta condición, que a priori puede considerarse
una severa restricción del método, puede obviarse fácilmente. Para ello basta
elegir la función g(x) del siguiente modo:
de forma que tomando un valor de adecuado, siempre podemos hacer que g(x)
cumpla la condición de la derivada.

Figure: Demostración gráfica de que el método de


las aproximaciones sucesivas diverge si la
derivada g'(x) > 1.

[scale=0.9]eps/as-2
Método de Newton
Este método parte de una aproximación inicial x0 y obtiene una aproximación
mejor, x1, dada por la fórmula:

(29)

La expresión anterior puede derivarse a partir de un desarrollo en serie de Taylor.


Efectivamente, sea r un cero de f y sea x una aproximación a r tal que r=x+h.
Si f'' existe y es continua, por el teorema de Taylor tenemos:

0 = f(r) = f(x+h) = f(x) + hf'(x) + O(h2) (30)

en donde h=r-x. Si x está próximo a r (es decir hes pequeña), es razonable ignorar
el término O(h2):

0 = f(x) + hf'(x) (31)

por lo que obtenemos la siguiente expresión para h:

(32)

A partir de la ecuación (32) y teniendo en cuenta que r=x+h es fácil derivar la


ecuación (29).
Figure: Interpretación geométrica del método de
Newton.

[scale=0.9]eps/new-1

El método de Newton tiene una interpretación geométrica sencilla, como se


puede apreciar del análisis de la figura (6). De hecho, el método de Newton
consiste en una linealización de la función, es decir, fse reemplaza por una recta
tal que contiene al punto (x0,f(x0)) y cuya pendiente coincide con la derivada de
la función en el punto, f'(x0). La nueva aproximación a la raíz, x1, se obtiene de la
intersección de la función linear con el eje X de ordenadas.

Veamos como podemos obtener la ecuación (29) a partir de lo dicho en el párrafo


anterior. La ecuación de la recta que pasa por el punto (x0,f(x0)) y de
pendiente f'(x0) es:

y - f(x0) = f'(x0)(x-x0) (33)

de donde, haciendo y=0 y despejando x obtenemos la ecuación de Newton-


Raphson (29).
Figure: Dos situaciones en las que el método de
Newton no funciona adecuadamente: (a) el método
no alcanza la convergencia y (b) el método converge
hacia un punto que no es un cero de la ecuación.

[scale=0.9]eps/new-2

El método de Newton es muy rápido y eficiente ya que la convergencia es de tipo


cuadrático (el número de cifras significativas se duplica en cada iteración). Sin
embargo, la convergencia depende en gran medida de la forma que adopta la
función en las proximidades del punto de iteración. En la figura (7) se muestran
dos situaciones en las que este método no es capaz de alcanzar la convergencia
(figura (7a)) o bien converge hacia un punto que no es un cero de la ecuación
(figura (7b)).
Método de la secante
El principal inconveniente del método de Newton estriba en que requiere
conocer el valor de la primera derivada de la función en el punto. Sin embargo,
la forma funcional de f(x) dificulta en ocasiones el cálculo de la derivada. En
estos casos es más útil emplear el método de la secante.

El método de la secante parte de dos puntos (y no sólo uno como el método de


Newton) y estima la tangente (es decir, la pendiente de la recta) por una
aproximación de acuerdo con la expresión:

(34)

Sustituyendo esta expresión en la ecuación (29) del método de Newton,


obtenemos la expresión del método de la secante que nos proporciona el
siguiente punto de iteración:

(35)

Figure: Representación geométrica del método de la


secante.

[scale=0.9]eps/secante

En la siguiente iteración, emplearemos los puntos x1 y x2para estimar un nuevo


punto más próximo a la raíz de acuerdo con la ecuación (35). En la figura (8) se
representa geométricamente este método.

En general, el método de la secante presenta las mismas ventajas y limitaciones


que el método de Newton-Raphson explicado anteriormente.
Método de Steffensen
El método de Steffensen presenta una convergencia rápida y no requiere, como
en el caso del método de la secante, la evaluación de derivada alguna. Presenta
además, la ventaja adicional de que el proceso de iteración sólo necesita un punto
inicial. Este método calcula el siguiente punto de iteración a partir de la
expresión:

También podría gustarte