Met NUM Resolucion de Ecuaciones No Lineales 2-21

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 26

MÉTODOS

TEMA 2
NUMÉRICOS
RESOLUCION DE
ECUACIONES NO LINEALES

1. INTRODUCCIÓN
2. SEPARACIÓN DE RAÍCES
3. MÉTODO DE BISECCIÓN
4. MÉTODO DE REGULA-FALSI
5. MÉTODO DE NEWTON-
RAPHSON
6. MÉTODO DE ITERACIÓN DE
PUNTO FIJO
7. RAÍCES DE POLINOMIOS
1. INTRODUCCIÓN
En este tema estudiaremos la resolución de ecuaciones no lineales, es decir,
el cálculo de sus soluciones o raíces. Nos centraremos en el caso de una única
ecuación con una incógnita. Toda ecuación puede ser escrita como
𝑓(𝑥) = 0
siendo 𝑓(𝑥) una función real de variable real. Desde este punto de vista el
cálculo de raíces de una ecuación es equivalente al cálculo de los ceros de una
función real dada. De manera general, incluso en ecuaciones dependientes de
una sola incógnita, no es posible despejar ésta salvo en casos muy concretos.
Evidentemente las ecuaciones lineales de una sola incógnita (ecuaciones del tipo
𝑎𝑥 + 𝑏 = 0, 𝑐𝑜𝑛 𝑎 ≠ 0) son triviales, por lo que el tema está dedicado a las
ecuaciones no lineales en general.

Las ecuaciones no lineales más sencillas son las polinómicas, es decir del tipo:
𝑃𝑛 (𝑥) = 0, siendo 𝑃𝑛(𝑥) un polinomio (en principio con coeficientes reales) de
grado n (con n ≥ 2). Estas ecuaciones presentan siempre n raíces (Teorema
Fundamental del Algebra), si bien éstas pueden ser reales o complejas.
El caso n = 2 es muy sencillo y conocido:
−𝑏 ± √𝑏 2 − 4𝑎𝑐
𝑎𝑥 2 + 𝑏𝑥 + 𝑐 = 0, 𝑎 ≠ 0 → 𝑥 =
2𝑎
y además es también sencilla la discusión sobre el número de raíces reales que la
ecuación posee en términos de la discriminante de la misma: ∆ = b2 − 4ac.
Para polinomios de grado 3 y 4, y exceptuando los casos casi-triviales en los que
funciona el Método de Ruffini, las fórmulas de Cardano-Tartaglia permiten una
resolución en términos de raíces cúbicas, si bien las expresiones son mucho más
complicadas que las correspondientes a la ecuación cuadrática, y en
consecuencia, a menudo de poca utilidad. Para polinomios de grado igual o
superior a cinco, el célebre Teorema de Abel establece que no existen fórmulas
generales que permitan la resolución por radicales de las mismas.
Otro tipo de ecuaciones irresolubles de forma exacta de manera general son las
ecuaciones trascendentes, es decir las ecuaciones que contienen una función
trascendente como las funciones trigonométricas, exponenciales, logarítmicas,
etc.
Ejemplo: Las siguientes ecuaciones no son lineales:
𝑥 5 + 2𝑥 2 − 4𝑥 − 4 = 0, 𝑥𝑒 2𝑥 − 4𝑥 + 1 = 0
𝑥2 − 4
𝑐𝑜𝑠𝑥 − 𝑥 2 + 2𝑥 = 1, =𝑥+1
𝑥3 + 4
Raíces de una ecuación.

Sea 𝑓: 𝐷 ⊂ ℝ → ℝ/𝑦 = 𝑓(𝑥) una función. Consideraremos la ecuación en una


variable

𝑓(𝑥) = 0

El número 𝑟 ∈ D se dice una solución de la ecuación si se verifica que f(r)=0, es


decir, si r es una raíz de la función f.

Ejemplo: Sea la función 𝑓:D⊂ R→R/ 𝑓(𝑥) = 𝑒 𝑥−2 − 𝑥 2 + 3, tiene como raíz a r=2,
es decir, si formamos la ecuación

𝑒 𝑥−2 − 𝑥 2 + 3 = 0

y sustituimos x por 2 entonces verificamos la igualdad

𝑒 (2)−2 − (2)2 + 3 = 0

𝑒0 − 4 + 3 = 0

1−1= 0

0=0

2. SEPARACIÓN DE RAÍCES
En general se dice que las raíces de una ecuación están separadas si conocemos
intervalos cerrados tales que contienen cada uno de ellos a una sola raíz de la
ecuación.

No existe una técnica general efectiva para separar las raíces de una ecuación.
Lo más habitual es utilizar los Teoremas de Bolzano y Rolle, en aquellas regiones
donde la función sea continua y derivable.

Recordemos los enunciados de dichos teoremas:

Teorema de Bolzano: Sea 𝑓(𝑥) una función continua en el intervalo [a, b] tal
que 𝑓(𝑎)𝑓(𝑏) < 0, entonces existe al menos un punto r ∈ (a, b) que verifica que
𝑓(𝑟) = 0.

Teorema de Rolle: Sea 𝑓(𝑥) una función continua en el intervalo [a, b],
derivable en (a, b) y tal que 𝑓(𝑎) = 𝑓(𝑏), entonces existe al menos un punto
c ∈ (a, b) para el cual 𝑓′(𝑐) = 0. Del Teorema de Rolle se puede deducir con
facilidad el siguiente resultado:

Teorema: Sea 𝑓(𝑥) una función continua en el intervalo [a, b], derivable en
(𝑎, 𝑏) y tal que 𝑓′(𝑥) = 0, ∀𝑥 ∈ (𝑎, 𝑏). Entonces existe a lo más un punto 𝑟 ∈
(𝑎, 𝑏) para el cual se verifica 𝑓(𝑟) = 0.

La localización de un intervalo cerrado donde 𝑓(𝑥) sea continua y tenga signos


contrarios en los extremos (cambio de signos) del mismo garantiza, por el
Teorema de Bolzano, la presencia de al menos una raíz real, si además 𝑓(𝑥) es
derivable en (𝑎, 𝑏) y se verifica 𝑓′(𝑥) = 0 en todo punto de dicho abierto,
podemos concluir que existe una raíz única en dicho intervalo (la presencia de
dos raíces obligaría a que la derivada primera se anulara, por el Teorema de
Rolle, lo cual estamos suponiendo falso).

Varias raíces.

Un razonamiento análogo conduce a que si 𝑓 (𝑛) (𝑥) ≠ 0 en (a, b), entonces


𝑓(𝑥) tiene en (𝑎, 𝑏) a lo más n raíces. De igual forma, los ceros de 𝑓′(𝑥) nos
determinan los intervalos en los que 𝑓(𝑥) puede (o no) tener raíces. Veamos un
ejemplo de estos razonamientos.

1
Ejemplo: Dada la función 𝑓:D⊂ R→R/𝑓(𝑥) = 𝑥 2 − 𝑠𝑒𝑛 𝑥 − 2 , separemos sus

raíces.

Primer método. Es evidente que 𝑓(𝑥) es continua y derivable en toda la recta


real. Si calculamos las derivadas de 𝑓(𝑥) tendremos:

𝑓′(𝑥) = 2𝑥 − 𝑐𝑜𝑠 𝑥 ; 𝑓 ′′ (𝑥) = 2 + 𝑠𝑒𝑛 𝑥 ≠ 0

Es decir, 𝑓′′(𝑥) ≠ 0, ∀x ∈ R. Según el razonamiento anterior, la ecuación posee a


lo más dos raíces reales. Calculemos:

1 1 1
𝑓(−1) = (−1)2 − 𝑠𝑒𝑛(−1) − ≃ 1.34 > 0 , 𝑓(0) = (0)2 − 𝑠𝑒𝑛0 − = − < 0
2 2 2
de donde se deduce la existencia de la raíz real 𝑟1 ∈ [−1, 0], la otra raíz a partir
de

1 1
𝑓(1) = (1)2 − 𝑠𝑒𝑛(1) − −≃ −0.34 < 0 , 𝑓(2) = (2)2 − 𝑠𝑒𝑛(2) − ≃ 2.59 > 0
2 2

y 𝑟2 ∈ [1,2].

Segundo método. De la tabla de valores de la función, detectamos el cambio de


signos en los valores de la función (tabla) y a partir de ella separamos las raíces.
Podemos también a partir del gráfico de la función tener estas raíces,
observamos la intersección de la curva (de rojo) con el eje x, para luego separar
las raíces en intervalos (gráfica).

Separación de raíces a partir de descomponer la función en otras


funciones. Suele resultar de considerable ayuda, para el caso de funciones
sencillas, el uso de representaciones gráficas. Así, por ejemplo, aunque la
gráfica de 𝑓(𝑥) nos resulta en principio desconocida (y calcularla, salvo
que se utilice un ordenador, resulta una tarea cuanto menos pesada),
podemos en este caso concreto escribir la ecuación de la forma

𝑓(𝑥) = 0 → 𝑔(𝑥) = ℎ(𝑥)


por medio de algunos artificios algébricos. La gráfica de las funciones en
un sistema de coordenadas, nos permite separar las raíces observando
los puntos de intersección de las curvas y las abscisas de estos puntos.

1
Ejemplo: Dada la función 𝑓:D⊂ R→R/𝑓(𝑥) = 𝑥 2 − 𝑠𝑒𝑛 𝑥 − 2. Separar o

acotar sus raíces.

1
Si la ecuación 𝑓(𝑥) = 𝑥 2 − 𝑠𝑒𝑛 𝑥 − 2 la escribimos de la forma

1 1
𝑥 2 − 2 = 𝑠𝑒𝑛𝑥 donde 𝑔(𝑥) = 𝑥 2 − 2 y ℎ(𝑥) = 𝑠𝑒𝑛 𝑥, graficándolas en un

sistema de coordenadas, acotamos las raíces (gráfico).

de donde se deduce la existencia de dos raíces reales r1 y r2, separadas en los


intervalos: r1 ∈ [−1, 0] y r2 ∈ [1, 2].

3. MÉTODO DE BISECCIÓN.
El método de Bisección para la resolución de la ecuación 𝑓(𝑥) = 0 se basa en el
Teorema de Bolzano que nos asegura la existencia de, al menos, una raíz de la
función 𝑓(𝑥) en un cierto intervalo [𝑎, 𝑏] bajo ciertas condiciones.
Supongamos que f (x) es continua y cambia de signo en los extremos de [𝑎, 𝑏].
Basándonos en el teorema Bolzano, podemos aproximar una solución de la
ecuación 𝑓(𝑥) = 0 dividiendo el intervalo inicial en dos subintervalos iguales y
eligiendo aquel en el que 𝑓(𝑥) cambia de signo. Después se repite el proceso
hasta que se verifique algún criterio de parada.
El método consiste en lo siguiente: se calcula el punto medio del intervalo
𝑎+𝑏
[𝑎, 𝑏] que podemos escribir como 𝑐 = . Se evalúa la función en dicho
2

punto, pudiendo resultar dos posibilidades:


𝑎+𝑏
 Si 𝑓(𝑐) = 𝑓 ( ) = 0, entonces hemos obtenido la raíz buscada r, pues
2

𝑐 = 𝑟.
 Si 𝑓(𝑐) ≠ 0, entonces elegimos, entre [𝑎, 𝑐] y [𝑐, 𝑏], el intervalo en el que
se satisfagan las hipótesis del Teorema de Bolzano, y lo
denotamos[𝑎1 , 𝑏1 ].
Tras esto, nos encontramos con un intervalo de longitud mitad al inicial, y
que contiene la solución que buscamos. Reiterando el proceso construiremos
una sucesión de intervalos encajados que contienen la solución

[a, b] ⊃ [a1, b1] ⊃ [a2, b2] ⊃....... ⊃ [an, bn]

donde obviamente tendremos las sucesiones de números 𝑎 = 𝑎0 ≤ 𝑎1 ≤


𝑎2 ≤ . . . ≤ 𝑏0 = 𝑏 𝑦 𝑏 = 𝑏0 ≥ 𝑏1 ≥ 𝑏2 ≥ . . . ≥ 𝑎0 = 𝑎 . La sucesión
{𝑎𝑛 } converge debido a que es creciente y está acotada superiormente. La
sucesión {𝑏𝑛 } converge por razones análogas. Se tiene que:

1 1
𝑏1 − 𝑎1 = (𝑏0 − 𝑎0 ) = (𝑏 − 𝑎)
2 2
1 1
𝑏2 − 𝑎2 = (𝑏1 − 𝑎1 ) = 2 (𝑎0 − 𝑏0 )
2 2
1 1
𝑏3 − 𝑎3 = 2 (𝑏2 − 𝑎2 ) = 23 (𝑎0 − 𝑏0 )…

1
(𝑏𝑛 − 𝑎𝑛 ) = (𝑎 − 𝑏0 )
2𝑛 0

Por ello

1
lim ( 𝑏𝑛 − 𝑎𝑛 ) = lim 𝑏𝑛 − lim 𝑎𝑛 = lim (𝑎0 − 𝑏0 ) = 0
𝑛→∞ 𝑛→∞ 𝑛→∞ 𝑛→∞ 2𝑛

y en consecuencia los límites de las sucesiones anteriores toman el mismo valor

𝛼 = lim 𝑏𝑛 = lim 𝑎𝑛
𝑛→∞ 𝑛→∞

Si tomamos también el límite en la desigualdad: 𝑓 (𝑎𝑛 )𝑓 (𝑏𝑛 ) ≤ 0,


concluiremos que: (𝑓 (𝛼))2 ≤ 0, lo cual implica que 𝑓(𝛼) = 0, es decir 𝛼 = 𝑟,
la raíz buscada.

Cuando se trunca el proceso en una iteración n, el error cometido ε


aproximando la solución por el punto medio del n-ésimo intervalo encajado:
𝑟 ≅ 𝑐𝑛 , será evidentemente menor que la semi-anchura de dicho intervalo, es
decir:

𝑏−𝑎 𝑏−𝑎 𝑏−𝑎


𝜀≤ 𝑛+1
⟹ 𝑟 ∈ [𝑎𝑛 , 𝑏𝑛 ] = [𝑐𝑛 − 𝑛+1 , 𝑐𝑛 + 𝑛+1 ]
2 2 2

Si uno fija una cota 𝜖 como error tolerado en la aproximación, exigiremos en


𝑏−𝑎
general que 2𝑛+1 sea menor que dicho 𝜖 y, además, que |𝑓(𝑐𝑛 )| < 𝜖 . Con este

doble criterio, evitaremos la aparición de “casos patológicos” en los que aun


estando muy cerca de la raíz la función sea claramente distinta de cero en el
punto, por un lado, o casos en los que la función es casi nula a pesar de estar
relativamente “lejos” de la raíz verdadera, por otro lado(ver figura).
Ejemplo: Resolver mediante al algoritmo de bisección la ecuación 𝑥 − 2−𝑥 = 0,
con una exactitud de 0,01.

Para separar las raíces de la ecuación, tenemos que

𝑥 − 2 −𝑥 = 0 ⟹ 𝑓(𝑥) = 𝑥 − 2 −𝑥 = 0

Esta función está definida y es continua en todo R. Es fácil ver que 𝑓(0) =
0 − 20 = − 1 < 0. Por otro lado, teniendo en cuenta que cuando x tiende a
+∞, lim 2−𝑥 = 0, tampoco es difícil comprender que, para x suficientemente
𝑥→∞

grande, x será mayor que 2 −𝑥 y por tanto 𝑥 − 2 −𝑥 será positivo. Por ejemplo:

1 1
𝑓(1) = 1 − 2 −1 = 1 − = >0
2 2

En consecuencia, 𝑓 verifica las hipótesis del Teorema de Bolzano en el


intervalo [0, 1], es continua y 𝑓(0) y 𝑓(1) tienen signos opuestos. Luego
podemos afirmar que 𝑓(𝑥) tiene al menos un cero en el intervalo (0, 1), o lo
que es lo mismo, que la ecuación 𝑥 − 2−𝑥 = 0 tiene al menos una solución en
dicho intervalo.

Este hecho queda ratificado con la gráfica de la función.


Una vez separada la raíz 𝑟 ∈ [0,1], 𝑎0 = 0, 𝑏0 = 1 y 𝜖 = 0.01. Empezamos con
el proceso iterativo.

1ra. Iteración

𝑎0 +𝑏0 0+1
Cálculo del punto medio: 𝑐0 = = = 0.5
2 2

Elección del nuevo intervalo:

𝑓(𝑎0 )𝑓(𝑐0 ) = 𝑓(0)𝑓(0.5) = (−1)(−0.2071068) = 0.2071068 > 0

𝑓(𝑐0 )𝑓(𝑏0 ) = 𝑓(0.5)𝑓(1) = (−0.2071068)(0,5) = −0,103553391 < 0

Por el teorema de Bolzano el nuevo intervalo que contiene a la raíz es [0.5,1],


por lo que 𝑎1 = 0.5 y 𝑏1 = 1.

2da. Iteración

𝑎1 +𝑏1 0.5+1
Cálculo del punto medio: 𝑐1 = = = 0.75
2 2

Elección del nuevo intervalo:

𝑓(𝑎1 )𝑓(𝑐1 ) = 𝑓(0.5)𝑓(0.75) = (−0.2071068)(0,15539644) = −0,0321837 < 0

𝑓(𝑐1 )𝑓(𝑏1 ) = 𝑓(0.75)𝑓(1) = (0,15539644)(0,5) = 0,02414805 > 0

Por el teorema de Bolzano el nuevo intervalo que contiene a la raíz es


[0.5,0.75], por lo que 𝑎2 = 0.5 y 𝑏2 = 0.75.
El resumen de las demás iteraciones se presenta en la siguiente tabla.

i 𝑎𝑖 𝑐𝑖 𝑏𝑖 𝑓(𝑎𝑖 ) 𝑓(𝑐𝑖 ) 𝑓(𝑏𝑖 ) 𝜀𝑖


0 0 0,5 1 -1 -0,2071068 0,5
1 0,5 0,75 1 -0,2071068 0,15539644 0,5 0,5
2 0,5 0,625 0,75 -0,2071068 -0,0234198 0,15539644 0,25
3 0,625 0,6875 0,75 -0,0234198 0,06657109 0,15539644 0,125
4 0,625 0,65625 0,6875 -0,0234198 0,02172452 0,06657109 0,0625
5 0,625 0,640625 0,65625 -0,0234198 -0,00081 0,02172452 0,03125
6 0,640625 0,6484375 0,65625 -0,00081 0,01046661 0,02172452 0,015625
7 0,640625 0,64453125 0,6484375 -0,00081 0,00483065 0,01046661 0,0078125
El número de iteraciones se puede determinar con antelación del siguiente
modo:

𝑏−𝑎 1−0
𝑏−𝑎 log( ) log( )
𝜀 0.01
de 𝜀 ≤ despejamos 𝑛 ≅ sustituyendo valores 𝑛 ≅ =6,6438
2𝑛 𝑙𝑜𝑔2 𝑙𝑜𝑔2
de donde asumimos que n=7, esto se verifica en la tabla en el que
𝜀7 = 0.0078125 < 0.01 = 𝜖
Asumimos que la raíz de la ecuación es: 𝑟 = 0.64453125 con una exactitud
de 0.01.

4. MÉTODO DE LA REGULA-FALSI.
Una variante del método de bisección es el método de la regula falsi o método
de la falsa posición. Consiste en dividir el intervalo [𝑎, 𝑏] en dos subintervalos
[𝑎, 𝑐] ∪ [𝑐, 𝑏] donde el punto c, a diferencia del punto medio del método de
bisección, es el punto de corte de la recta secante que pasa por los (𝑎, 𝑓(𝑎))
y (𝑏, 𝑓(𝑏)) con el eje de las abscisas OX.

La pendiente de dicha secante viene determinada por

𝑓(𝑏) − 𝑓(𝑎) 0 − 𝑓(𝑏)


𝑚= =
𝑏−𝑎 𝑐−𝑏

Despejando el valor de c obtenemos

𝑏−𝑎 𝑎𝑓(𝑏) − 𝑏𝑓(𝑎)


𝑐 = 𝑏 − 𝑓(𝑏) =
𝑓(𝑏) − 𝑓(𝑎) 𝑓(𝑏) − 𝑓(𝑎)
Al reemplazar la curva por una recta se obtiene una posición falsa de la raíz.
Este hecho y el comportamiento geométrico nos muestra la siguiente gráfica.

El método construye una sucesión de intervalos [𝑎𝑛 ,𝑏𝑛 ] cada uno de los
cuales siempre contiene un cero. En cada paso la aproximación al cero viene
dada por:

𝑏𝑛 − 𝑎𝑛
𝑐𝑛 = 𝑏𝑛 − 𝑓(𝑏𝑛 )
𝑓(𝑏𝑛 ) − 𝑓(𝑎𝑛 )

y puede demostrarse que la sucesión {𝑐𝑛 } tiende a un cero de la función.


Aunque la amplitud del intervalo se hace cada vez más pequeña, en este
método puede ocurrir que no tienda a cero. Si la curva es convexa cerca de la
raíz r entonces uno de los extremos se hace estacionario y el otro tiende a la
solución. Por este motivo el criterio de parada |𝑏 − 𝑎| <  , que podía ser
adecuado para el método de bisección, no lo es para el método de regula falsi,
aunque también se utiliza para el método.
El algoritmo del método de falsa posición es exactamente igual al de la
bisección con la única diferencia del cálculo de c.

Ejemplo: Resolver mediante el método de regula falsi la ecuación 𝑥 4 − 2−𝑥 =


0, con una exactitud de 0,01.

Sabemos que la raíz 𝑟 ∈ [0,1], entonces 𝑎0 = 0, 𝑏0 = 1 y 𝜖 = 0.01.


Empezamos con el proceso iterativo.

1ra. Iteración

Cálculo del punto medio:

𝑎0 𝑓(𝑏0 ) − 𝑏0 𝑓(𝑎0 ) 0(0.5) − 1(−1)


𝑐0 = = = 0.66666667 ≅ 0.667
𝑓(𝑏0 ) − 𝑓(𝑎0 ) 0.5 − (−1)

Elección del nuevo intervalo:

𝑓(𝑎0 )𝑓(𝑐0 ) = 𝑓(0)𝑓(0.667) = (−1)(0.03670614) = −0.003670614 < 0

𝑓(𝑐0 )𝑓(𝑏0 ) = 𝑓(0.667)𝑓(1) = (0.03670614)(0,5)=0.01835307> 0

Por el teorema de Bolzano el nuevo intervalo que contiene a la raíz es [0,0.5],


por lo que 𝑎1 = 0 y 𝑏1 = 0.5.

2da. Iteración

Cálculo del punto medio:

𝑎1 𝑓(𝑏1) − 𝑏1 𝑓(𝑎1 ) 0(0,03670614) − 0,66666667(−1)


𝑐1 = = = 0,33333333
𝑓(𝑏1 ) − 𝑓(𝑎1 ) 0,03670614 − (−1)

Elección del nuevo intervalo:

𝑓(𝑎1 )𝑓(𝑐1 ) = 𝑓(0)𝑓(0,333) = (−1)(−0.4603672)=0,46036719>0


𝑓(𝑐1 )𝑓(𝑏1 ) = 𝑓(0.333)𝑓(0.5) = (−0.4603672)(0,03670614)=-0,0168983< 0
Por el teorema de Bolzano el nuevo intervalo que contiene a la raíz es
[0.33333333,0.66666667], por lo que 𝑎2 = 0.33333333 y 𝑏2 = 0.66666667.

El resumen de las demás iteraciones se presenta en la siguiente tabla.


𝑖 𝑎𝑖 𝑐𝑖 𝑏𝑖 𝑓(𝑎𝑖 ) 𝑓(𝑐𝑖 ) 𝑓(𝑏𝑖 ) 𝜀𝑖
0 0 0,66666667 1 -1 0,03670614 0,5
1 0 0,33333333 0,66666667 -1 -0,4603672 0,03670614 0,66666667
2 0,33333333 0,5 0,66666667 -0,4603672 -0,2071068 0,03670614 0,33333333
3 0,5 0,58333333 0,66666667 -0,2071068 -0,0840866 0,03670614 0,16666667
4 0,58333333 0,625 0,66666667 -0,0840866 -0,0234198 0,03670614 0,08333333
5 0,625 0,64583333 0,66666667 -0,0234198 0,00670982 0,03670614 0,04166667
6 0,625 0,63541667 0,64583333 -0,0234198 -0,0083382 0,00670982 0,02083333
7 0,63541667 0,640625 0,64583333 -0,0083382 -0,00081 0,00670982 0,01041667
8 0,640625 0,64322917 0,64583333 -0.00081 0,00295095 0,00670982 0,00520833

La raíz es 𝑟 = 0.64322917 que tiene una exactitud de 0.01. Normalmente el


método de regula falsi es más rápido que el de bisección, en este ejemplo se
observa que no siempre es así, bajo las mismas condiciones para este caso
requirió una iteración más que el método de bisección.

5. MÉTODO DE NEWTON.
El Método de la Tangente o de Newton-Raphson, que presentaremos a
continuación, constituye un método mucho más eficiente que los métodos
anteriores.
Desde un punto de vista geométrico, el Método de Newton-Raphson consiste
simple- mente en aproximar la función 𝑓(𝑥), en las cercanías de uno de sus ceros,
r, por la recta tangente a la curva 𝑦 = 𝑓(𝑥). Para ello supondremos que la función
𝑓(𝑥) es continua y derivable en un entorno de r.
Si partimos de un valor 𝑥0 como raíz aproximada, la recta tangente a 𝑦 = 𝑓(𝑥)
en el punto (𝑥0 , 𝑓 (𝑥0 )) sería:
𝑦 − 𝑓 (𝑥0 ) = 𝑓′(𝑥0 )(𝑥 − 𝑥0 )
cuyo corte con el eje de abscisas es:
𝑓(𝑥0 )
𝑥1 = 𝑥0 −
𝑓′(𝑥0 )
En las condiciones que veremos a continuación, este valor, 𝑥1 , estaría más
cercano a la raíz r buscada que el inicial 𝑥0 . Si iteramos el razonamiento,
encontraremos una sucesión de puntos {𝑥𝑛 } dada por la expresión:
𝑓(𝑥𝑛 )
𝑥𝑛+1 = 𝑥𝑛 −
𝑓′(𝑥𝑛 )
convergente a la raíz r.
Debemos por tanto aclarar dos puntos importantes, en primer lugar, encontrar
las condiciones en las que la sucesión {𝑥𝑛 } es convergente, y, en segundo,
demostrar que converge a la raíz buscada.
Convergencia. El segundo de estos aspectos es fácil de analizar, suponiendo que
la sucesión tiene límite: lim 𝑥𝑛 = 𝛼, entonces, recordando las propiedades
𝑛→∞

básicas de los límites y las funciones continuas, tendremos:


lim 𝑓(𝑥𝑛 ) 𝑓(𝛼)
𝑛→∞
lim 𝑥𝑛+1 = lim 𝑥𝑛 − ⟹ 𝛼=𝛼− ⟹ 𝑓(𝛼) = 0
𝑛→∞ 𝑛∞ lim 𝑓 ′ (𝑥𝑛 ) 𝑓 ′ (𝛼)
𝑛→∞

Es decir, si la sucesión es convergente, entonces el límite de la misma es una


raíz dela ecuación.
Es posible determinar varios teoremas que determinan las propiedades que debe
verificar tanto 𝑓(𝑥) como 𝑥0 para garantizar la convergencia de la sucesión {𝑥𝑛 }.
El más ilustrativo es el siguiente:
Teorema. Sea 𝑓(𝑥) continua y derivable dos veces en un abierto que contenga al
intervalo [𝑎, 𝑏], y tal que:
a) 𝑓(𝑎)𝑓 (𝑏) < 0
b) 𝑓′′(𝑥) tiene signo constante en [𝑎, 𝑏].
Si 𝑥0 ∈ [𝑎, 𝑏] es tal que 𝑓(𝑥0 )𝑓′′(𝑥0 ) > 0, entonces la sucesión {𝑥𝑛 } definida por
la expresión
𝑓(𝑥𝑛 )
𝑥𝑛+1 = 𝑥𝑛 − , 𝑛 = 1,2, …
𝑓 ′ (𝑥𝑛 )
es convergente a un límite r tal que 𝑓(𝑟) = 0.

Ejemplo: Utilizando el método de Newton, aproximar la solución de la ecuación


4
−3=0
+1 𝑥2
en el intervalo [0,2], con una exactitud de 0.0001.
4
Denotemos 𝑓(𝑥) = 𝑥 2 +1 − 3, sabemos que f es derivable en R y

8𝑥
𝑓 ′ (𝑥) = −
(𝑥 2 + 1)2

Utilizamos ahora el método de Newton para aproximar la solución de la


ecuación.

1ra. Iteración. Tomamos como primer punto 𝑥0 = 2. Se tiene:


4 8(2)
𝑓(𝑥0 ) = 𝑓(2) = 22 +1 − 3 = −2,2 y 𝑓 ′ (𝑥0 ) = 𝑓 ′ (2) = − (22 +1)2 = −0.64

𝑓(𝑥0 ) (−2,2)
𝑥1 = 𝑥0 − ′
=2− ≅ −1.4375
𝑓 (𝑥0 ) (−0.64)
2da. Iteración. Partiendo de 𝑥1 = −1.4375 calculamos:
4
𝑓(𝑥1 ) = 𝑓(−1.4275) = (1.4375)2 +1 − 3 = −1.695541401 y

8(−1.4275)
𝑓 ′ (𝑥1 ) = 𝑓 ′ (−1.4275) = − ((−1.4275)2 +1)2 = 1.223033794

𝑓(𝑥1 ) (−1.695541401)
𝑥2 = 𝑥1 − = −1.4275 − ≅ −0.051159403
𝑓 ′ (𝑥1 ) 1.223033794
La tabla siguiente muestra las demás iteraciones y los errores.
i 𝑥𝑖 𝑓(𝑥𝑖 ) 𝑓′(𝑥𝑖 ) 𝑥𝑖 𝜀𝑖 = |𝑥𝑖+1 − 𝑥𝑖 |
0 2 -2,2 -0,64 -1,4375 3,4375
1 -1,4375 -1,6955414 1,22303379 -0,0511594 1,3863406
2 -0,0511594 0,98955819 0,40714122 -2,481663 2,43050356
3 -2,481663 -2,4412355 0,38740962 3,81976941 6,30143237
4 3,81976941 -2,7434358 -0,1257185 -18,002276 21,8220456
5 -18,002276 -2,9876954 0,0013628 2174,32111 2192,32339
6 2174,32111 -2,9999992 -7,782E-10 -3,855E+09 3854804674
7 -3,855E+09 -3 1,3966E-28 2,148E+28 2,148E+28
¿Qué ocurrió?, obviamente hay una divergencia. Veamos la gráfica de la función.
Los valores obtenidos en las iteraciones oscilan tanto a la derecha, como a la
izquierda de la raíz buscada, alejándose de la misma. En este caso resolvemos el
problema si cambiamos el punto inicial por 𝑥0 = 1, que se encuentra más cerca
de la raíz.

Realizando el mismo proceso tenemos como resultado la siguiente tabla.

i 𝑥𝑖 𝑓(𝑥𝑖 ) 𝑓′(𝑥𝑖 ) 𝑥𝑖 𝜀𝑖 = |𝑥𝑖+1 − 𝑥𝑖 |


0 1 -1 -2 0,5 0,5
1 0,5 0,2 -2,56 0,578125 0,078125
2 0,578125 -0,0020128 -2,5980727 0,57735027 0,00077473
3 0,57735027 1,8103E-09 -2,5980762 0,57735027 6,968E-10
La raíz es 𝑟 = 0,57735027 con una exactitud de 0.0001.

El método de Newton es muy utilizado debido a su rápida convergencia, aunque


falla con facilidad, es decir no es un método robusto, ya que se deben de cumplir
condiciones relativamente estrictas para que converja. El método de Newton
converge si se cumplen las siguientes tres condiciones para la función 𝑓(𝑥):

a. Existen dos puntos 𝑎 y b en los que 𝑓(𝑎)𝑓(𝑏) < 0.


b. 𝑓′′(𝑥) no cambia de signo en [𝑎, 𝑏].
c. Las tangentes a 𝑓(𝑥) en a y b cortan al eje de abscisas en [𝑎, 𝑏].
Si no se cumplen estas condiciones, el método puede todavía converger, aunque
no se puede garantizar nada. La gráfica muestra algunas condiciones en el que el
método no converge.
Raíces múltiples. Si 𝑓(𝑥) y sus derivadas 𝑓’(𝑥), 𝑓 ′′ (𝑥), 𝑓′′′(𝑥) … . 𝑓 (𝑚) (𝑥) están
definidas y son continuas en un intervalo [𝑎, 𝑏] que contiene a la raíz 𝑟 entonces
𝑓(𝑥) tiene una raíz múltiple de orden m en r si

𝑓(𝑟) = 0, 𝑓’(𝑟) = 0, … , 𝑓 (𝑚−1) (𝑟) = 0 𝑦 𝑓 (𝑚) (𝑟) ≠ 0.

⇒ 𝑓(𝑥) = (𝑥 − 𝛼)𝑚 ℎ(𝑥) 𝑐𝑜𝑛 ℎ(𝑥) ≠ 0.

Para este caso la fórmula de iteración de Newton se modifica y permite acelerar


la convergencia, ya que para raíces múltiples el método es lento. La fórmula
modificada es:

𝑓(𝑥𝑛 )
𝑥𝑛+1 = 𝑥𝑛 − 𝑚
𝑓′(𝑥𝑛 )

6. MÉTODO DE ITERACIÓN DE PUNTO FIJO.


Este método se basa en escribir la ecuación 𝑓(𝑥) = 0 como 𝑥 = 𝑔(𝑥). Esto es
siempre posible, pues podemos poner 𝑥 = 𝑥 − 𝑓(𝑥), de donde 𝑔(𝑥) = 𝑥 − 𝑓(𝑥).
Si α es raíz de 𝑓(𝑥) entonces 𝑓(𝛼) = 0 y se cumple que 𝛼 = 𝑔(𝛼).
Punto fijo de una función. Un número α tal que 𝛼 = 𝑔(𝛼), se dice que es un punto
fijo de la función 𝑔(𝑥).
Teorema del punto fijo.
a. Si 𝑔(𝑥) es una función continua en [𝑎, 𝑏] y 𝑔(𝑥) ∈ [𝑎, 𝑏] para todo 𝑥 ∈ [𝑎, 𝑏],
entonces 𝑔(𝑥) tiene por lo menos un punto fijo en [𝑎, 𝑏].
b. Si además, 𝑔’(𝑥) existe para todo 𝑥 ∈ [𝑎, 𝑏] y |𝑔’(𝑥)| ≤ 𝐾 < 1 para todo 𝑥 ∈
[𝑎, 𝑏] , con K constante, entonces 𝑔(𝑥) tiene un único punto fijo α en [𝑎, 𝑏].
La filosofía del método es que la ecuación 𝑥 = 𝑔(𝑥), que sólo se cumple para la
raíz α, sirve para definir la serie (o sucesión {𝑥𝑛 }).

𝑥𝑛+1 = 𝑔(𝑥𝑛 )
partiendo de un punto inicial 𝑥0 , que converge a la raíz. Por supuesto, esto sólo
ocurre si 𝑔(𝑥) cumple una serie de condiciones.

Convergencia. Sea α la raíz. Entonces 𝑔(𝛼) = 𝛼. Las diferencias entre los


elementos de la serie 𝑥𝑛 y la raíz viene dada por:

𝑥𝑛 − 𝛼 = 𝑔(𝑥𝑛 − 1) − 𝑔(𝛼) = 𝑔′ (𝜉)(𝑥𝑛−1 − 𝛼)

donde, en el último paso, hemos aplicado el teorema del valor medio. Si 𝑔′(𝜉) es
estrictamente menor que 1, es decir si |𝑔′(𝜉)| ≤ 𝐿 < 1, entonces se cumplirá

|𝑥𝑛 − 𝛼| ≤ 𝐿𝑛 |𝑥0 − 𝛼|

y como 𝐿𝑛 → 0 cuando 𝑛 → ∞, la serie converge. Por lo tanto, la derivada de la


función 𝑔(𝑥) determina la convergencia del método.
Orden de convergencia. Supongamos que {𝑥𝑛 } converge a α y sea 𝜀𝑛 = |𝛼 − 𝑥𝑛 |
para cada 𝑛  0. Si existen dos constantes positivas 𝐴 > 0 y 𝑃 > 0 tales que

|𝛼 − 𝑥𝑛+1 | |𝜀𝑛+1 |
lim 𝑃
= lim =𝐴
𝑛→∞ |𝛼 − 𝑥𝑛 | 𝑛→∞ |𝜀𝑛 |𝑃

entonces se dice que la sucesión converge a α con orden de convergencia P, y el


número A se llama constante asintótica del error. Los casos P = 1, 2 merecen
especial consideración:

Si P = 1 la convergencia de {𝑥𝑛 } se llama lineal.

Si P = 2, la convergencia de {𝑥𝑛 } se llama cuadrática.

Si P es grande, entonces la sucesión {𝑥𝑛 } converge rápidamente a α; esto es, para


valores grandes de n tenemos la aproximación 𝜀𝑛+1 ≈ 𝐴|𝜀𝑛 |𝑃 . Por ejemplo, si P
= 2 y|𝜀𝑛 | ≈ 10−2 , entonces cabe esperar que 𝜀𝑛+1 ≈ 𝐴10−4 . Algunas sucesiones
convergen con un orden que no es un número natural. Por ejemplo, el orden de
1+√5
convergencia del método de la secante es 𝑃  1.618033989.
2

Para el método de iteración de punto fijo, cuando 𝑔′(𝛼)  0:

𝜀𝑛+1 = |𝛼 − 𝑥𝑛+1 | = |𝑔(𝑥𝑛 ) − 𝛼| = |𝑔′()(𝑥𝑛 − 𝛼)| = |𝑔′()||𝑥𝑛 − 𝛼|


= |𝑔′()||𝜀𝑛 |
con  comprendido entre𝑥𝑛 y α. Cuando 𝑛 → ∞, 𝑔′() → 𝑔′(𝛼)  0; y siendo 𝑔′
continua, 𝑔′() se mantendrá, a partir de cierto n, suficientemente cerca de 𝑔′(𝛼),
de modo que |𝜀𝑛+1 | ≈ |𝑔′(α)||𝜀𝑛 | con lo que la convergencia es lineal.

Ejemplo: El cálculo de la raíz cuadrada de 3, equivale al cálculo de la raíz positiva


de la ecuación 𝑥 2 = 3.

Transformando la ecuación:

𝑥+3
𝑥 2 = 3 ⟹ 𝑥 2 + 𝑥 = 3 +𝑥 ⟹ 𝑥(𝑥 + 1) = 𝑥 + 3 ⟹ 𝑥 =
𝑥+1

Es decir, hemos escrito la ecuación en la forma 𝑥 = 𝑔(𝑥) con

𝑥+3
𝑔(𝑥) =
𝑥+1

Dado que sabemos que la raíz de 3 está comprendida entre 1 y 2, derivando 𝑔(𝑥)
tenemos

(𝑥 + 1) − (𝑥 + 3) 2
𝑔′ (𝑥) = 2
=−
(𝑥 + 1) (𝑥 + 1)2

y que

2 2 1
|𝑔′(1)| = (1+1)2 ≤ 2 = < 1 para cualquier 𝑥 ∈ [1,2]
2 2

2 2 2
|𝑔′(2)| = (1+2)2 ≤ 2 = < 1 para cualquier 𝑥 ∈ [1,2]
3 9

Podemos garantizar que partiendo de 𝑥0 = 1 convergerá al raíz cuadrada de 3 y


que el “error a posteriori” será fiable.

Utilizamos ahora el método de iteración de punto fijo para aproximar la solución


de la ecuación.

1ra. Iteración. Si 𝑥0 = 1. Se tiene:

1+3
𝑔(𝑥0 ) = 𝑔(1) = =2
1+1

2da. Iteración. Ahora 𝑥1 = 2, tenemos

2+3
𝑔(𝑥1 ) = 𝑔(2) = = 1.666666667
2+1
La siguiente tabla muestran las demás iteraciones y los errores.

i 𝑥𝑖 𝑔(𝑥𝑖 ) 𝜀𝑖 = |𝑥𝑖+1 − 𝑥𝑖 |
0 1 2 1
1 2 1,66666667 0,33333333
2 1,66666667 1,75 0,08333333
3 1,75 1,72727273 0,02272727
4 1,72727273 1,73333333 0,00606061
5 1,73333333 1,73170732 0,00162602
6 1,73170732 1,73214286 0,00043554
7 1,73214286 1,73202614 0,00011671
La raíz cuadrada de 3, será 1.73202614 con una exactitud de 0.001
(0.00011671<0.001).

Existen otras fórmulas de iteración, por ejemplo

3 3
𝑥 2 = 3 ⟹ 𝑥𝑥 = 3 ⟹ 𝑥 = ⟹ 𝑔( 𝑥) =
𝑥 𝑥

2𝑥 + 3 2𝑥 + 3
𝑥 2 = 3 ⇒ 𝑥 2 + 2𝑥 = 3 +2𝑥 ⇒ 𝑥(𝑥 + 2) = 2𝑥 + 3 ⇒ 𝑥 ⇒ 𝑔(𝑥) =
𝑥+2 𝑥+2

Determine si convergen o no a la raíz cuadrada de 3.

7. RAÍCES DE POLINOMIOS.
No existe ninguna fórmula algebraica para la resolución de raíces de polinomios
de grado mayor que 4, por tanto, hay que aplicar métodos numéricos para el
cálculo de dichas raíces.
Los polinomios forman ecuaciones de la forma
𝑎𝑛 𝑥 𝑛 + 𝑎𝑛−1 𝑥 𝑛−1 + 𝑎𝑛−2 𝑥 𝑛−2 + ⋯ + 𝑎0 = 0
Acotación de raíces.
Sea 𝑃(𝑥) = 𝑎𝑛 𝑥 𝑛 + 𝑎𝑛−1 𝑥 𝑛−1 + 𝑎𝑛−2 𝑥 𝑛−2 + ⋯ + 𝑎0 . Si r es una raíz de 𝑃(𝑥),
entonces
𝐴
|𝑟| < 1 +
|𝑎𝑛 |
Siendo 𝐴 = max |𝑎𝑖 |.
0≤𝑖≤𝑛−1

Ejemplo: Acotar las raíces del polinomio 𝑃(𝑥) = 𝑥 4 + 2𝑥 3 − 3𝑥 2 − 4𝑥 − 1.


Con 𝐴 = max |𝑎𝑖 | = max(|2|, |−3|, |−4|, |1|) = 4 y 𝑎4 = 1
0≤𝑖≤4−1
𝐴 4
|𝑟| < 1 + = 1 + = 5 ⟹ −5 < 𝑟 < 5.
|𝑎4 | 1
Por tanto, la raíz esta entre -5 y 5.
Raíces de polinomios con el algoritmo de Horner. Si usamos el método de Newton-
Raphson para encontrar las raíces de un polinomio P (x) hemos de calcular 𝑃(𝑥𝑛 )
y 𝑃′(𝑥𝑛 ). El algoritmo de Horner hace estos últimos cálculos de forma sencilla para
polinomios.
Sea 𝑥0 ∈ ℝ y 𝑃(𝑥) = 𝑎𝑛 𝑥 𝑛 + 𝑎𝑛−1 𝑥 𝑛−1 + 𝑎𝑛−2 𝑥 𝑛−2 + ⋯ + 𝑎0 . Sea
𝑃(𝑥) = 𝑄(𝑥)(𝑥 − 𝑥0 ) + 𝑅
(R será constante) el resultado de dividir P (x) entre 𝑥 − 𝑥0 . Supongamos
que
𝑄(𝑥) = 𝑏𝑛−1 𝑥 𝑛 + 𝑏𝑛−2 𝑥 𝑛−1 + 𝑏𝑛−3 𝑥 𝑛−2 + ⋯ + 𝑏0 .
Entonces 𝑃(𝑥0 ) = 𝑅 y 𝑃(𝑥) = 𝑄(𝑥)(𝑥 − 𝑥0 ) + 𝑃(𝑥0 ), con lo que
𝑃(𝑥) − 𝑃 (𝑥0 ) = 𝑄(𝑥)(𝑥 − 𝑥0 )
es decir
𝑎𝑛 𝑥 𝑛 + 𝑎𝑛−1 𝑥 𝑛−1 + 𝑎𝑛−2 𝑥 𝑛−2 + ⋯ + 𝑎0 − 𝑃 (𝑥0 ) =
= (𝑏𝑛−1 𝑥 𝑛 + 𝑏𝑛−2 𝑥 𝑛−1 + 𝑏𝑛−3 𝑥 𝑛−2 + ⋯ + 𝑏0 )(𝑥 − 𝑥0 )
Desarrollando e igualando los coeficientes de ambos términos se deduce
que
𝑏𝑛−1 = 𝑎𝑛 , 𝑏𝑛−2 = 𝑎𝑛−1 + 𝑏𝑛−1 𝑥0 , … , 𝑏0 = 𝑎1 + 𝑏1 𝑥0 𝑦 𝑃(𝑥0 ) = 𝑎0 + 𝑏0 𝑥0
La obtención de los coeficientes bi se pueden representar gráficamente así
𝑎𝑛 𝑎𝑛−1 𝑎𝑛−2 … 𝑎1 𝑎0
𝑥0 𝑏𝑛−1 𝑥0 𝑏𝑛−2 𝑥0 … 𝑏1 𝑥0 𝑏0 𝑥0
𝑏𝑛−1 𝑏𝑛−2 𝑏𝑛−3 … 𝑏1 𝑃(𝑥0 )
que también es una forma sencilla de calcular P (x0 ). Además,
𝑃(𝑥) = 𝑄(𝑥)(𝑥 − 𝑥0 ) + 𝑅 ⇒ 𝑃′(𝑥) = 𝑄′(𝑥)(𝑥 − 𝑥0 ) + 𝑄(𝑥) ⇒ 𝑃′(𝑥0 ) =
𝑄(𝑥0 ).
𝑎𝑛 𝑎𝑛−1 𝑎𝑛−2 … 𝑎1 𝑎0
𝑥0 𝑏𝑛−1 𝑥0 𝑏𝑛−2 𝑥0 … 𝑏𝑛−1 𝑥0 𝑏0 𝑥0
𝑏𝑛−1 𝑏𝑛−2 𝑏𝑛−3 … 𝑏1 𝑃(𝑥0 )
𝑥0 𝑐𝑛−2 𝑥0 𝑐𝑛−3 𝑥0 … 𝑐0 𝑥0
𝑐𝑛−2 𝑐𝑛−3 𝑐𝑛−4 … 𝑃′(𝑥0 )
Determinado 𝑃(𝑥0 ) y 𝑃′(𝑥0 ) la fórmula de iteración de Newton se puede
reescribir en términos de los polinomios, es decir
𝑃(𝑥𝑛 )
𝑥𝑛+1 = 𝑥𝑛 −
𝑃′(𝑥𝑛 )
que se utiliza para resolver los polinomios.
Ejemplo: Siendo 𝑃(𝑥) = 𝑥 4 + 2𝑥 3 − 3𝑥 2 − 4𝑥 − 1
La gráfica nos permite verificar el hecho de que las raíces se encuentran entre
-5 y 5, y que todas sus raíces son reales. Calculemos la raíz que se encuentra
en el intervalo [-3,-2].

1ra. Iteración. Tomamos como primer punto 𝑥0 = −3 y aplicando el


algoritmo de Horner. Se tiene:
1 2 -3 -4 -1
-3 -3 3 0 12

1 -1 0 -4 11 = 𝑃(𝑥0 )
-3 -3 12 -36

1 -4 12 -40 = 𝑃′(𝑥0 )

𝑃(𝑥 ) 11
𝑥1 = 𝑥0 − 𝑃′ (𝑥0 ) = −3 − (−40) = −2.725
0
el error 𝜀1 = |𝑥1 − 𝑥0 | = 0.275.
2da. Iteración. Ahora 𝑥1 = −2.725 y aplicando el algoritmo de Horner. Se
tiene:
1 2 -3 -4 -1
-2,725 -2,725 1,975625 2,79142188 3,29337539

1 -0,725 -1,024375 -1,2085781 2,29337539 = 𝑃(𝑥1 )


-2,725 -3 11,175 -30,451875

1 -3,725 10,150625 -31,660453 = 𝑃′(𝑥1 )


𝑃(𝑥1 ) 2.29337539
𝑥2 = 𝑥1 − ′
= −2.725 − = −2.652563406
𝑃 (𝑥1 ) −31.451875
el error 𝜀2 = |𝑥2 − 𝑥1 | = 0.072436594.
3ra. Iteración. Como 𝑥2 = −2.652563406. Se tiene:
1 2 -3 -4 -1
-2,6525634 -2,6525634 1,73096581 3,36619365 1,68121153

1 -0,6525634 -1,2690342 -0,6338063 0,68121153 = 𝑃(𝑥2 )


-2,6525634 -2,725 9,20386028 -21,622401

1 -3,3775634 7,93482609 -22,256207 = 𝑃′(𝑥2 )

𝑃(𝑥2 ) 0.68121153
𝑥3 = 𝑥2 − = −2.6525634 − = −2.621955697
𝑃′ (𝑥2 ) −22.256207
el error 𝜀3 = |𝑥3 − 𝑥2 | = 0.030607709.
Se sigue el proceso hasta la exactitud deseada.

EJERCICIOS.
1. Cuantas raíces tiene la ecuación no lineal y acotarlas.
ln(𝑥 + 1) + tan(2𝑥) = 0
2. Para 𝑓: 𝑅 → 𝑅/𝑓(𝑥) = 2𝑥 3 − 𝑥 2 + 𝑥 − 1 se tiene que f(-4)f(4)<0 y
f(0)f(1)<0, así el método de Bisección se puede aplicar en ambos
intervalos. Si aplica en método de bisección al intervalo [−4, 1] ¿a cuál de
las dos raíces converge el método? ¿Por qué? Justifíquense las respuestas.
3. Si a = 0.1 y b = 1.0, ¿cuántos pasos del método de bisección se necesitan
1
para determinar la raíz con un error a lo más de 2 10−8 ?.

4. Determine el punto de intersección de las curvas dadas por y = x3–2x+1


y y=x2. Hallar mediante Falsa Posición con un error menor que 10-4.
5. Determine la fórmula de la iteración de Newton para calcular la raíz
cúbica de N/M para enteros diferentes de cero de N y M.
6. ¿Para qué valores iniciales el método de Newton converge la función f si esta es
𝑥2
𝑓(𝑥) = 1+𝑥2 ?

7. Investigue la relación que existe entre el método de la secante y el de


Newton-Raphson. Aplique el método de la secante para la función del
ejercicio 6.
8. Encuentre los puntos fijos para cada una de las siguientes funciones:
a) 𝑦 = 𝑒 −𝑥 − 𝑥 b) 𝑦 = 𝑥 2 − 4𝑠𝑒𝑛𝑥 c) 𝑦 = 𝑥 3 − 4𝑥 2 + 5𝑥 − 8
9. Hallar, todas las raíces del polinomio 𝑃(𝑥) = 4𝑥 5 − 3𝑥 3 + 5𝑥 − 6 = 0
(Sugerencia: Si el polinomio tiene raíces complejas utilice el algoritmo de
Horner más Newton para hallar todas las raíces).
10. Investigue el método de Bairstow para hallar raíces polinómicas y aplique
el método al ejercicio 9.
11. Sabiendo que f(0) < 0 y f( /6) > 0, justificar que la expresión
cos𝑥 𝑥 2
𝑔(𝑥) = +
8 4
permitirá obtener una sucesión cuyo límite sea una raíz de la ecuación
f(x) = 0. Hallar dicha función y su raíz con una precisión  = 10-3 .

También podría gustarte