Introducción Al Análisis de Los Errores
Introducción Al Análisis de Los Errores
Introducción Al Análisis de Los Errores
DE YUCATÁN
Facultad de ingeniería.
Asignatura:
Laboratorio de física
Evidencia:
Resumen
Maestro:
Rubén Arturo Medina
Alumno:
Kevin Jordán Uc Góngora
Fecha de entrega:
24/01/2019
Introducción al análisis de los errores
El análisis de errores es el estudio y evaluación de la incertidumbre en la medición. La experiencia
ha demostrado que ninguna medida, por cuidadosa que sea, puede estar completamente libre de
incertidumbres. Debido a que toda la estructura y la aplicación de la ciencia dependen de las
mediciones, la capacidad para evaluar estas incertidumbres y mantenerlas al mínimo es de crucial
importancia.
Capítulo 3. Propagación de incertidumbres.
En las cuantías físicas estas no se pueden obtener directamente de una única medición, pero en
realidad se requiere al menos dos pasos para ello. Primero, se debe obtener al menos una cantidad
que sea susceptible a obtenerse de manera directa para hacer uso de estas en el segundo paso,
usando dichas medidas para obtener la cantidad por la que inicialmente se tenía interés. Un ejemplo
claro de ello es cuando se requiere encontrar el área de un triángulo, se miden la base y la altura
para hallar su área. Por ello al requerirse estos dos pasos, entonces la incertidumbre se estima
también con dos pasos, primero en las mediciones y luego se halla la incertidumbre en los cálculos
de la respuesta final provocado por las medidas.
3.1 Incertidumbres en las mediciones directas.
En las mediciones directas comúnmente se requiere la lectura de escalas o de pantallas digitales, y
frecuentemente de ahí surgen las incertidumbres en conjunto con la intercalación de marcas en una
escala, pero ello mismo provoca que sea sencillo realizar una estimación realista en lecturas de
escalas. Por ello existen otras fuentes de incertidumbres más importantes como al realizar la
medición de la distancia entre dos puntos donde el problema es decidir dónde se localizan dichos
puntos. Un claro ejemplo de este problema es posible expresarse en un experimento óptico, obtener
la distancia entre una imagen enfocada y una lente por la que se visualiza es complicado pues las
lentes no suelen ser uniformes y planas por lo que no es fácil localizar el centro, provocando una
incertidumbre de hasta un centímetro, a este tipo de problemas se conocen como problema de
definición. Si solo se presta atención a la incertidumbre en las escalas es probable que esta no sea la
incertidumbre total. También se debe evitar la sobreestimación de los errores, es preferible hallar
todas las causas de incertidumbre y sus efectos con precisión. Usar un medidor digital es la opción
más fácil de obtener medidas, pero cuando se habla de cifras significativas existe controversia pues
el significado de estas no está claro en absoluto, por lo tanto, estos números dependerán
directamente de la programación del aparato a menos de que se cuente con el manual. Cuando se
realiza una medición y esta puede repetirse, es preferible realizarla varias veces para obtener una
respuesta y una incertidumbre que sean las más óptimas, pero existe la posibilidad de que la
medición esté sujeta a un error sistemático que se eliminan con el cuidado en calibración y
procedimiento.
3.2 La regla de la raíz cuadrada para un experimento de conteo.
En algunos casos se requiere contar eventos de azar y se cuenta con una tasa de promedio, pero
debido a su naturaleza es posible que en el periodo de experimentación no se obtenga dicho valor.
En estos casos la incertidumbre se localiza en que tan parecido fue el valor obtenido respecto al
promedio verdadero, de ahí lo complicado de obtener la incertidumbre, sin embargo, existe una
forma sencilla de conocerla y es mediante el uso de la fórmula de la raíz cuadrada, situando los
números contados dentro de esta. Nombrando entonces el número de eventos contados en un
periodo de tiempo como V, siendo la fórmula: V ± √v.
3.3 Sumas y diferencias; Productos y Cocientes.
Para hallar la incertidumbre de una medición proveniente de mediciones con incertidumbre y se
requiere sumar o restar cualquier número de cantidades, las incertidumbres de estas siempre se
suman para obtener una respuesta final en la medición con una mayor exactitud, aun cuando estas
son pequeñas es importante considerarlas. Cuando las incertidumbres fraccionarias son pequeñas la
incertidumbre de q – xy es la suma de las incertidumbres fraccionarias en x y y. lo mismo aplica
para la incertidumbre en q= x/y. En la incertidumbre fraccionaria en x es definido como dx/lxl,
siendo los resultados de medidas de cualquier valor x expresado en forma de error fraccionaria
como:
Aquí el problema es encontrar el extremo del valor probable del segundo factor de la derecha. Si en
el numerador se tiene un número grande 1+dx/lxl, y en el denominador un valor pequeño 1-dy/lyl.
Entonces el valor probable más grande para q es:
Comparando esta ecuación con la original se puede observar que el mejor valor para qbest es q=
Xbest/Ybest, siendo entonces la incertidumbre fraccionaria:
Por lo tanto, la incertidumbre fraccionaria de q=Bx, cuando B es exacto es la misma que en x. Esto
puede expresarse diferente si se multiplica lql=Bx para obtener dq= lBl*dx, teniendo entonces que
cuando la cantidad en x es medida con incertidumbre dx y es usado para calcular q=Bx, donde B es
exacto, entonces la incertidumbre en q es solo lBl veces que en x:
Siendo esta regla útil para medir algo que es pequeño pero que se encuentra a menudo como el
grosor de una hoja, que puede obtenerse fácilmente con esta técnica sin hacer uso de un equipo
sofisticado.
Potencias.
Si la cantidad en x es medida con incertidumbre dx y dicho valor es utilizado para calcular
potencias q= x^n, entonces la incertidumbre fraccionaria en q es n veces que en x (Siendo n un
número entero positivo):
Siendo gracias a la gráfica que se puede hallar el valor más grande probable para q (qmax), y de
manera similar se halla el valor mínimo de q (qmin). Si la incertidumbre dq es pequeña entonces la
sección de la gráfica correspondiente es aproximadamente una recta. Siendo posible tomar la
incertidumbre dq como cualquiera de las longitudes mostradas para obtener así
Sin embargo, q(x)= 1/senΘ o q(x)= √x también pueden ser calculadas analíticamente. Tomando en
cuenta que la incertidumbre dq es pequeña la fórmula se expresa de la forma
Por lo tanto, para calcular la incertidumbre dq se puede calcular la derivada de dq/dx y multiplicarlo
por la incertidumbre dx. Sin embargo, en ocasiones dq/dx puede dar valores negativos, por lo que la
fórmula concreta es
Un caso particular de la regla es cuando se mide una cantidad x y se busca una potencia n (fija) de
la misma, entonces, q(x)= x^n, siendo la incertidumbre resultante de q
Este resultado da g como el producto o cociente de tres factores, 4 π ^2, l y T ^2. Si las diversas
incertidumbres son independientes y aleatorias, la incertidumbre fraccional en nuestra respuesta es
solo la suma cuadrática de las incertidumbres fraccionarias en estos factores. El factor 4 π ^2 no
tiene incertidumbre, y la incertidumbre fraccional en T ^2 es el doble que en T:
Supongamos que medimos el período T para un valor de la longitud l y obtenemos los resultados:
l= 92.95 ± 0.1 cm,
T= 1.936 ± 0.004 s.
La estimación para g se encuentra como:
Para encontrar nuestra incertidumbre en g necesitamos las incertidumbres fraccionarias en l y T.
Estos se calculan fácilmente
Sustituyendo encontramos que
A partir de este:
Así, en base a estas medidas, nuestra respuesta final es g= 979 ± 4 cm/s^2.
3.11 Fórmula general para errores de propagación.
Con las tres reglas anteriormente estudiadas se puede aplicar una única fórmula general con la que
se puede resolver cualquier problema en la propagación de errores, sin embargo, esta regla suele ser
complicada de usar, resultando útil en algunos problemas que pueden resolverse con el método paso
a paso. Para ilustrar esto mejor es necesario suponer que se cuenta con tres cantidades medibles: x,
y y z, y se tiene que calcular una función como:
En el que una variable aparece más de una vez, para ello es necesario una cancelación de los errores
tanto en el numerador como el denominador, para ello se supone que x, y y z son números positivos
y se considerase que la medición de x está sujeta a error. Si se sobreestima x, se sobreestiman tanto
x + y como x + z, las cuales se anulan entre sí cuando se calcula (x + y) / (x + z), dicho de otra
forma, el error de x se cancela sustancialmente del cociente, lo cual mediante el cálculo por pasos
no es posible.
Supongamos que al principio medimos dos cantidades x y y. cuando q(x) es una función de una sola
variable la mejor estimación para x es Xbest, siendo la mejor estimación para q(x) es q(Xbest).
Entonces los extremos de valores probables para x son Xbest ± dx, siendo entonces los extremos
para evaluar q:
Finalmente, se usa la aproximación
(Siendo u cualquier pequeño incremento) entonces, para obtener los valores extremos se reescribe a
Donde el valor absoluto está por la posibilidad de dq/dx de ser negativo, el resultado significa que
dq= ldq/dxl*dx. Cuando q está en función de dos variables, se generaliza a
Donde u y v son pequeños incrementos en x y y, y dq/dx y dq/dy son las derivadas parciales de q
con respecto a x y y.
Si agregamos los valores de los extremos de x y y, recordando que los valores dq/dx y dq/dy pueden
ser negativos, los extremos de q serán
Donde
La desviación estándar de las medidas x1, x2, …, xN, es una estimación de la incertidumbre media
de las medidas x1, x2, …, xN y se determina de la siguiente manera. Dado que la media x es nuestra
mejor estimación de la cantidad x, es natural considerar la diferencia x i- = di. Esta diferencia, a
menudo llamada la desviación, nos dice cuánto difiere la medida i ^th de la media x. Si la
desviación es muy pequeña entonces nuestras medidas son cercanas y son precisas. Para estimar la
fiabilidad media de las medidas x 1, …, x5, se podría naturalmente intentar promediar las
desviaciones, pero esto en realidad es cero, dado que debido a la definición de la media de x asegura
que la desviación estándar a veces es positiva y a veces negativa, por lo que no es buena idea de
buscar fiabilidad de las mediciones. La mejor opción es cuadrar todas las desviaciones, luego se
toma la raíz cuadrado del resultado para obtener una cantidad con las mismas unidades que x
mismo. Este valor es llamado desviación estándar de x 1, x2, …, xN y se denota por
Por ello la desviación estándar también se conoce como cuadrado medio de la raíz, esto demuestra
ser una manera útil caracterizar la fiabilidad de las mediciones. Para calular la desviación estándar,
es necesario calcular la desviación en di, las raíces de estos, promediarlas y tomar la raíz cuadrada
del resultado.
También existe otra definición de desviación estándar, donde se reemplaza N por N-1 y definiendo
la desviación estándar como:
Sin embargo, esta definición es más larga que la anterior, pero esta soluciona el problema con la
anterior que subestiman las incertidumbres de las mediciones x 1, x2, …, xN cuando el número de
medición es pequeño. Esto se expresa mejor al realizar la desviación estándar de un único valor,
donde con la primera técnica se obtiene un resultado absurdo de 0 y en la segunda se obtiene una
indeterminación, lo cual señala la existencia de un error. La diferencia numérica de estos dos es
realmente insignificante, sin embargo, en ambos casos se requiere la repetición de los casos
considerablemente, en un laboratorio de física se prefiere usar los métodos más largos, sin embargo,
es necesario aclarar siempre que definición se está usando para evitar controversias. Actualmente
existen calculadoras que brindan la desviación estándar de manera prácticamente inmediata.
4.3 La desviación estándar como la incertidumbre en una medida individual.
Si se realiza una única medición (utilizando el mismo método), existe un 68% de probabilidad de
que σx sea el valor correcto. Por lo que se puede nombrar σx para significar exactamente lo que
hemos estado llamando “incertidumbre”. Al realizarse una medición en x, la incertidumbre
asociada con esta medida será con lo cual se puede asegurar que la medición dentro de σx
es en realidad la respuesta correcta. Un ejemplo de ello es imaginar que se tuviese una caja de
resortes similares y se les dice que midan sus constantes de resorte k, se podría medir las constantes
de rebote cargando cada resorte y observando la extensión resultante, se necesita saber k y su
incertidumbre dk para cada primavera. Para ello se medirá la constante k para el primer resorte
varias veces, entonces la media de estas mediciones debería dar una buena estimación de k para el
primer resorte. Considerando que la desviación estándar de las mediciones proporciona una
estimación de la incertidumbre en el método para hallar k. Siempre que los resortes sean
razonablemente similares y se use el mismo método para medir cada uno, se espera razonablemente
la misma incertidumbre en cada medición. Por lo tanto, para cada resorte subsiguiente necesitamos
hacer solo una medición, e inmediatamente se puede establecer que la incertidumbre dk es la
desviación estándar σx medida para el primer resorte, con un 68% de confianza de que la respuesta
σx esté dentro del valor correcto.
Ejemplo:
Podemos imaginarnos haciendo 10 mediciones. en el primer resorte se obtiene los siguientes valores
medidos de k (en newtons /metro): 86, 85, 84, 89, 85, 89, 87, 85, 82, 85.
A partir de estos valores, podemos calcular de inmediato k media = 85.7 N / m y, usando la definición
y nuestra respuesta final, basada en estas 10 mediciones, sería que el resorte tiene
N/m.
Un importante componente en la fórmula es el factor √N en el denominador. La desviación estándar
σx representa la incertidumbre individual de las mediciones x 1, x2, …, xN. Por lo que, si se hacen
más mediciones esta medida no cambia considerablemente. Pero en este último caso presentado
decrecerá cuando √N aumente. Este hecho proporciona a dicha fórmula a tender a ser
mucho más confiable en cuanto al resultado. Por lo tanto, para aumentar la precisión es necesario
aumentar el número de mediciones.
4.6 Errores sistemáticos
ºLa desviación estándar de la media σk se puede considerar como el componente aleatorio dk ran de
la incertidumbre dk pero ciertamente no es la incertidumbre total dk. El problema es decidir cómo
estimar la componente sistemática dk ^ yg y luego cómo para combinar dk ran y dksys para dar la
incertidumbre completa dk. Ninguna teoría simple muestra qué hacer con los errores sistemáticos.
De hecho, la única teoría de los errores sistemáticos es que deben identificarse y reducirse hasta que
sean mucho menos que la precisión requerida. En un laboratorio de enseñanza, sin embargo, este
objetivo a menudo no es alcanzable. Por esta razón, algunos laboratorios de enseñanza establecen
una regla según la cual, en ausencia de información más específica, se debe considerar que los
medidores tienen cierta incertidumbre sistemática. Dadas las reglas de este tipo, hay varias formas
posibles de proceder. Para ejemplificar, supongamos que la constante de un resorte es
encontrado por las mediciones de m y los correspondientes valores de T. Los análisis estadísticos de
varias respuestas para k dan componentes aleatorios de dk como
Supongamos que ahora se nos ha dicho que el saldo utilizado para medir m y el reloj utilizados para
T tienen incertidumbres sistemáticas de hasta el 1% y el 0,5%, respectivamente. Entonces podemos
encontrar el componente sistemático de dk mediante la propagación de errores; La única pregunta
es si combinar los errores en cuadratura o directamente. Debido a que los errores en m y T son
seguramente independientes y, por lo tanto, es posible cierta cancelación, el uso de la suma
cuadrática es probablemente razonable, lo cual da:
Y, por lo tanto.
Ahora que se tiene estimaciones para las incertidumbres aleatorias y sistemáticas en k, se debe
decidir cómo establecer la conclusión final para la constante de resorte k con su incertidumbre
general. Porque el método para combinar dkran y dksys no es completamente clara, varios científicos
lo separan en dos componentes y hallan una respuesta final con la forma.
Otra alternativa, es que en caso de que dkran y dksys puedan ser combinadas en cuadratura, en cuyo
caso se plantea una única incertidumbre.
Con incertidumbre: y
Por lo tanto, la incertidumbre total se toma como dg= 0.04.
Claramente, el valor aceptado de g= 9.80 m/s^2 se encuentra lejos del rango obtenido, 9.97 ± 0.04.
(Más concretamente, la discrepancia es 0.17, que es cuatro veces la incertidumbre.) Este resultado
definitivamente no es satisfactorio y se requiere más análisis. Si no se ha realizado un error al
calcular, entonces, otra explicación es que el valor aceptado es incorrecto. Sin embargo, si el
problema persiste entonces lo más probable sea la existencia de un error sistemático, y se tiene las
siguientes posibilidades:
Tal vez uno de los medidores tuvo errores sistemáticos más grandes de los que se habían
cometido.
Otra posible causa de error sistemático es que se usó un valor incorrecto para algún
parámetro necesario en los cálculos.
La última explicación es la existencia de una falla en el diseño de realización del
experimento.
Obviamente, encontrar la fuente de los errores sistemáticos es difícil y ha desafiado los mejores
esfuerzos de muchos grandes científicos. Con toda probabilidad, los instructores no penalizarán de
manera considerable si esto no se hace. Sin embargo, esperarán una discusión inteligente del
problema y, al menos, una declaración honesta de la existencia de errores sistemáticos que no se
pudieron identificar en el experimento.
Capítulo 5. La distribución normal.
5.1 Histogramas y Distribuciones.
Un punto importante que se debe resaltar es la relevancia de diseñar métodos para registrar y
mostrar grandes cantidades de valores medidos. Para ello supóngase que se cuentan con 10 medidas
de una longitud x: 26, 24, 26, 28, 23, 24, 25, 24, 26, 25. Lo cual transmite poca información siendo
un poco confuso. Para ello es necesario ordenarlos 23, 24, 24, 24, 25, 25, 26, 26, 26, 28. Para que
con ello se realice un registro en una tabla de los diferentes valores obtenidos en x y su frecuencia al
medirse. Para que así se introduzca la notación xk (k=1,2, …) con esto se puede reescribir la media
para obtenerla de manera más ágil al tener muchas mediciones.
Una suma como esta suele llamarse suma ponderada, pues la frecuencia en que ocurre un valor de x
es ponderada. Si se suman todos los valores nk se obtiene entonces N
Implicando que,
Cualquier conjunto de números cuya suma de uno quiere decir que dichos valores están
normalizados. Los cuales son comunmente representados mediante un histograma, pero para una
mejor representación es mejor primero dividir el rango de valores en un número conveniente de
intervalos, comunmente se utiliza una tabla para ello. Todo ello para realizar un histograma donde
se pueda analizar el área de cada barra:
Por lo tanto la probabilidad de obtener una respuesta entre -∞ y +∞ será igual a uno, entonces la
distribución limitante satisface.
Es por eso que cuando se hacen mediciones exactas y debidas los valores están cada vez más cerca
del valor real de x, por lo que el histograma y la dristribuición limitante parecerán ambas una
curva sólida. Si se conoce f(x) entonces se puede calcular la media x que se buscarían en los
siguientes valores. Los valores del intervalo fk=f(xk) dxk y en los límites de todos los intervalo que
tienden a cero se convierten en
Donde sigma es el parámetro de anchura. La curva de campana de Gauss se centra en x=0. Para
obtener la curva de campana centrado en otro punto x=X se remplaza en la X, la función:
Tiene el máximo punto de x=X y se encuentra en la simetría de ambos lados de x=X.
Donde Gx,o(x) describe la distribución limitante de los resultados de las medidas en x que miden
realmente X. Siendo el parámetro sigma el de la función de Gauss, que proviene de la desviación
estándar después de realizarse muchas mediciones.
Este valor es conocido comúnmente como función de error. Lo que no es calculado fácilmente
analíticamente, pero sí, mediante un computador. La probabilidad de que una medida de x caiga
dentro de las desviaciones estándar de t del valor verdadero es del 68%. Y cuando t se aumenta esta
probabilidad se acercará cada vez más a 100%. Una alternativa a la desviación estándar se llama
error probable, o PE, y se define como la distancia para la cual existe una probabilidad del 50% de
una medición entre X ± PE.
5.5 Justificación de la media como mejor estimación.
Si se conociera f(x) se podría calcular la media x y la desviación estándar σ obtenidas después de
infinitas mediciones, así como el valor verdadero de X, pero no la distribución limitante. En la
práctica es muy problemático encontrar la mejor estimación para X y σ en N valores de mediciones.
Para ello la cantidad Prob x σ (x1…xn) es la probabilidad de obtener N resultados x1, …, xn en
términos de X y σ. El método para encontrar las mejores estimaciones para X y σ se le conoce como
el principio de máxima probabilidad, siendo lo siguiente la manera de calcular X:
Conociéndose la distribución de las medidas de x, …, z, ahora se buscará que quiere decir esto en
los valores para q. El problema es deducir la probabilidad de obtener cualquier valor q definido por
q= x + A. En particular la incertidumbre en q es igual que en x
Esto otorga la incertidumbre en la media, o bien, la desviación estándar de la media, pues con esta
fórmula se alcanza un 68% de probabilidad de que la respuesta se encuentre dentro del valor
verdadero X.
5.8 Aceptabilidad de una respuesta medida.
Es necesario responder a dos preguntas: ¿Cómo se sabe que una cantidad medida se encuentra
dentro del rango Xbest +/- dx? Para ello se realizan varias mediciones de x, siendo la media de x la
mejor estimación de valor para x. y la desviación estándar de la media σx es una buena medida de
su incertidumbre. Esperando que el 68% las medidas de x caigan en el rango Xmedia +/- σx.
Siendo la segunda cuestión, ¿Cómo se decide si el acuerdo entre nuestro valor y el valor esperado es
o no aceptable? El límite entre aceptabilidad e inaceptable depende del nivel por debajo del cual
juzgamos que una discrepancia es injustificadamente improbable. Muchos científicos consideran
que el 5% es un límite justo por "improbabilidad irrazonable". La mayoría de los físicos no pasan
mucho tiempo debatiendo precisamente dónde se encuentra el límite de la aceptabilidad. Si la
discrepancia es apreciablemente menor que 2σ, entonces, por casi cualquier estándar, el resultado se
consideraría aceptable. Si se considera los valores de otra persona, se espera el valor X exp. Se dice
entonces que Xbest difiere de X exp por t desviación estándar, donde: