Introducción Al Análisis de Los Errores

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 19

UNIVERSIDAD AUTÓNOMA

DE YUCATÁN

Facultad de ingeniería.

Asignatura:
Laboratorio de física
Evidencia:
Resumen
Maestro:
Rubén Arturo Medina
Alumno:
Kevin Jordán Uc Góngora

Fecha de entrega:
24/01/2019
Introducción al análisis de los errores
El análisis de errores es el estudio y evaluación de la incertidumbre en la medición. La experiencia
ha demostrado que ninguna medida, por cuidadosa que sea, puede estar completamente libre de
incertidumbres. Debido a que toda la estructura y la aplicación de la ciencia dependen de las
mediciones, la capacidad para evaluar estas incertidumbres y mantenerlas al mínimo es de crucial
importancia.
Capítulo 3. Propagación de incertidumbres.
En las cuantías físicas estas no se pueden obtener directamente de una única medición, pero en
realidad se requiere al menos dos pasos para ello. Primero, se debe obtener al menos una cantidad
que sea susceptible a obtenerse de manera directa para hacer uso de estas en el segundo paso,
usando dichas medidas para obtener la cantidad por la que inicialmente se tenía interés. Un ejemplo
claro de ello es cuando se requiere encontrar el área de un triángulo, se miden la base y la altura
para hallar su área. Por ello al requerirse estos dos pasos, entonces la incertidumbre se estima
también con dos pasos, primero en las mediciones y luego se halla la incertidumbre en los cálculos
de la respuesta final provocado por las medidas.
3.1 Incertidumbres en las mediciones directas.
En las mediciones directas comúnmente se requiere la lectura de escalas o de pantallas digitales, y
frecuentemente de ahí surgen las incertidumbres en conjunto con la intercalación de marcas en una
escala, pero ello mismo provoca que sea sencillo realizar una estimación realista en lecturas de
escalas. Por ello existen otras fuentes de incertidumbres más importantes como al realizar la
medición de la distancia entre dos puntos donde el problema es decidir dónde se localizan dichos
puntos. Un claro ejemplo de este problema es posible expresarse en un experimento óptico, obtener
la distancia entre una imagen enfocada y una lente por la que se visualiza es complicado pues las
lentes no suelen ser uniformes y planas por lo que no es fácil localizar el centro, provocando una
incertidumbre de hasta un centímetro, a este tipo de problemas se conocen como problema de
definición. Si solo se presta atención a la incertidumbre en las escalas es probable que esta no sea la
incertidumbre total. También se debe evitar la sobreestimación de los errores, es preferible hallar
todas las causas de incertidumbre y sus efectos con precisión. Usar un medidor digital es la opción
más fácil de obtener medidas, pero cuando se habla de cifras significativas existe controversia pues
el significado de estas no está claro en absoluto, por lo tanto, estos números dependerán
directamente de la programación del aparato a menos de que se cuente con el manual. Cuando se
realiza una medición y esta puede repetirse, es preferible realizarla varias veces para obtener una
respuesta y una incertidumbre que sean las más óptimas, pero existe la posibilidad de que la
medición esté sujeta a un error sistemático que se eliminan con el cuidado en calibración y
procedimiento.
3.2 La regla de la raíz cuadrada para un experimento de conteo.
En algunos casos se requiere contar eventos de azar y se cuenta con una tasa de promedio, pero
debido a su naturaleza es posible que en el periodo de experimentación no se obtenga dicho valor.
En estos casos la incertidumbre se localiza en que tan parecido fue el valor obtenido respecto al
promedio verdadero, de ahí lo complicado de obtener la incertidumbre, sin embargo, existe una
forma sencilla de conocerla y es mediante el uso de la fórmula de la raíz cuadrada, situando los
números contados dentro de esta. Nombrando entonces el número de eventos contados en un
periodo de tiempo como V, siendo la fórmula: V ± √v.
3.3 Sumas y diferencias; Productos y Cocientes.
Para hallar la incertidumbre de una medición proveniente de mediciones con incertidumbre y se
requiere sumar o restar cualquier número de cantidades, las incertidumbres de estas siempre se
suman para obtener una respuesta final en la medición con una mayor exactitud, aun cuando estas
son pequeñas es importante considerarlas. Cuando las incertidumbres fraccionarias son pequeñas la
incertidumbre de q – xy es la suma de las incertidumbres fraccionarias en x y y. lo mismo aplica
para la incertidumbre en q= x/y. En la incertidumbre fraccionaria en x es definido como dx/lxl,
siendo los resultados de medidas de cualquier valor x expresado en forma de error fraccionaria
como:

Aquí el problema es encontrar el extremo del valor probable del segundo factor de la derecha. Si en
el numerador se tiene un número grande 1+dx/lxl, y en el denominador un valor pequeño 1-dy/lyl.
Entonces el valor probable más grande para q es:

Por otra parte, debido al teorema binomial se puede simplificar a:


Para el valor menos probable para q se requiere una expresión similar con dos signos menos.
Combinando estos se encuentra que el valor q es:

Comparando esta ecuación con la original se puede observar que el mejor valor para qbest es q=
Xbest/Ybest, siendo entonces la incertidumbre fraccionaria:

En resumen, cuando se divide o multiplica dos cantidades medibles x y y, la incertidumbre en la


respuesta final es la suma de la incertidumbre fraccionaria en x y y. Pero si se divide o multiplica
una serie de números entonces se aplica una regla provisional, utilizada cuando varias cantidades
son medidas con pequeñas incertidumbres medibles x, ……, w los valores se utilizan para calcular

Entonces la incertidumbre fraccionaria en dicho valor calculado de q es la suma de las


incertidumbres fraccionarias de cada valor de la serie.
3.4 Dos especiales casos importantes.
En la regla anteriormente dicha se debe considerar otros dos casos. Uno enfatiza cuando en el
producto de dos valores, uno de ellos no tiene incertidumbre; el segundo implica la potencia de un
número medido.
Cantidad medida por número exacto.
Si se mide un valor x y luego este es utilizado para conocer el producto q= Bx, donde B no tiene
incertidumbre de acuerdo a la regla anterior la incertidumbre fraccionaria en q=Bx es la suma de las
incertidumbres fraccionarias en B y X, siendo entonces:

Por lo tanto, la incertidumbre fraccionaria de q=Bx, cuando B es exacto es la misma que en x. Esto
puede expresarse diferente si se multiplica lql=Bx para obtener dq= lBl*dx, teniendo entonces que
cuando la cantidad en x es medida con incertidumbre dx y es usado para calcular q=Bx, donde B es
exacto, entonces la incertidumbre en q es solo lBl veces que en x:
Siendo esta regla útil para medir algo que es pequeño pero que se encuentra a menudo como el
grosor de una hoja, que puede obtenerse fácilmente con esta técnica sin hacer uso de un equipo
sofisticado.
Potencias.
Si la cantidad en x es medida con incertidumbre dx y dicho valor es utilizado para calcular
potencias q= x^n, entonces la incertidumbre fraccionaria en q es n veces que en x (Siendo n un
número entero positivo):

3.5 Incertidumbres independientes en una suma.


Si las incertidumbres originales son independientes y aleatorias, la regla de la incertidumbre es dada
por reglas similares en las cuales las incertidumbres se agregan en cuadratura. Primero hay que
recordar que la incertidumbre en q es: dq= dx-dy (calculados con las reglas anteriormente
mencionadas), pues el valor de q se debe encontrar entre estos dos números. Sin embargo, es
probable que la fórmula sobreestime dq, pues si se considera que q es el extremo más alto, esto
cuando x es subestimado en el total dx al igual que en y, lo cual es bastante improbable. Si ambos
son medidos independientemente y los errores son aleatorios, existe un 50% de probabilidad de que
una subestimación de x esté acompañada de una sobreestimación de y, o viceversa, por tanto, dq=
dx + dy exagera el error probable. Por otra parte, dq no puede ser exactamente estimado pues
depende del significado que se le brinde a la incertidumbre y de las leyes estadísticas que rigen los
errores en una medición. Si las mediciones de x y y son independientes y son de distribución
normal, entonces la incertidumbre de q= x + y está dada por:
Cuando se combina dos números y cuadrarlos, siendo agregado sus cuadrados y tomando sus raíces
cuadradas se dice que el número se agrega en cuadratura. Entonces si las mediciones de x y y son
independientes y cuentan solo con incertidumbres aleatorias, entonces la incertidumbre dq en q= x
+ y es la suma cuadrática de las incertidumbres dx y dy. Esta nueva expresión siempre será más
pequeña que la que es calculada con , por lo que es recomendable usarla
cuando sea aplicable. Pues esta expresión refleja la posibilidad de que la sobreestimación de x
pueda ser compensada por una subestimación en y o viceversa, pero esta cancelación no siempre es
posible, pues cuando sospechamos que los errores en x y y son independientes y al azar, no se
justifica el uso de la suma cuadrática para dq. Por otro lado, el límite garantiza que dq no es peor
que dx + dy, por lo que es más seguro usar la regla antigua. Comúnmente si las incertidumbres se
agregan en cuadratura o directamente no existe mucha diferencia.
3.6 Más sobre incertidumbres independientes
Incertidumbres en sumas y restas.
Cuando x,…, w es medido con incertidumbre dx,…, dw los valores pueden ser usados para
calcular:
Si estas incertidumbres son independientes y al azar, entonces la incertidumbre de q es la suma
cuadrática:
Incertidumbres en productos y cocientes.
Cuando x, …, w es medido con incertidumbre dx, …, dw los valores pueden ser usados para
calcular:
Si estas incertidumbres son independientes y al azar, entonces la incertidumbre fraccionaria en q es
la suma cuadrática de la incertidumbre fraccionaria original:

3.7 Funciones arbitrarias de una variable.


En ocasiones es necesario operaciones complicadas como el cálculo de un seno, coseno o raíz
cuadrada. Un claro ejemplo es al tratar de hallar el índice de refracción n de un vidrio obteniendo un
ángulo 0, donde se necesita no solo la fórmula (n= 1/senΘ para calcular dicho índice sino también
considerar hallar la incertidumbre dn cuando la medida del ángulo es 0. En general, cuando se tiene
una medición de x en la forma estándar y se quiere calcular q(x) algo como q(x)=
1/senΘ o q(x)= √x. Una manera simple de para resolver esto es mediante una gráfica de q(x).

Siendo gracias a la gráfica que se puede hallar el valor más grande probable para q (qmax), y de
manera similar se halla el valor mínimo de q (qmin). Si la incertidumbre dq es pequeña entonces la
sección de la gráfica correspondiente es aproximadamente una recta. Siendo posible tomar la
incertidumbre dq como cualquiera de las longitudes mostradas para obtener así
Sin embargo, q(x)= 1/senΘ o q(x)= √x también pueden ser calculadas analíticamente. Tomando en
cuenta que la incertidumbre dq es pequeña la fórmula se expresa de la forma
Por lo tanto, para calcular la incertidumbre dq se puede calcular la derivada de dq/dx y multiplicarlo
por la incertidumbre dx. Sin embargo, en ocasiones dq/dx puede dar valores negativos, por lo que la
fórmula concreta es
Un caso particular de la regla es cuando se mide una cantidad x y se busca una potencia n (fija) de
la misma, entonces, q(x)= x^n, siendo la incertidumbre resultante de q

3.8 Propagación paso a paso.


Ahora que se conocen prácticamente todos los casos para problemas de propagación de manera
separada, entonces es posible aplicar estos conocimientos en conjunto para resolver un caso
particular donde se apliquen todos ellos, realizándose paso a paso. Por ejemplo, conociéndose las
medidas de x, y, z y u se requiere: calcular la función sen u, luego el producto de z y sen u, la
diferencia entre y y z*sen u, y por último el producto de x y la anterior operación mencionada. Por
lo tanto, esto hace referencia que, para calcular la incertidumbre de la respuesta final (siempre y
cuando los valores involucrados sean independientes) se debe proceder paso a paso con las
incertidumbres individuales de cada caso y operar con estas para hallar la respuesta. Sin embargo,
se debe considerar tres puntos, primero, que las incertidumbres en sumas o restas implican
incertidumbres absolutas y de las incertidumbres de productos o cocientes resultan fracciones, por
lo que requerirá una técnica para pasar de incertidumbre absoluta a fraccionaria y viceversa; en
segundo lugar, las incertidumbres rara vez son necesarias para más de una cifra significativa; por
último, se debe considerar que a veces se encontrarán funciones q(x) cuya incertidumbre no se
pueda encontrar de manera confiable mediante el método de paso a paso, pues puede resultar una
incertidumbre innecesariamente grande.
3.9 Ejemplos.
Medida de g con un péndulo simple.
Como primer ejemplo, supongamos que medimos la aceleración de la gravedad utilizando un
péndulo simple. Se sabe que el período de dicho péndulo es T = 2π √l / g, donde l es la longitud del
péndulo. Por lo tanto, si l y T se miden, podemos encontrar g como

Este resultado da g como el producto o cociente de tres factores, 4 π ^2, l y T ^2. Si las diversas
incertidumbres son independientes y aleatorias, la incertidumbre fraccional en nuestra respuesta es
solo la suma cuadrática de las incertidumbres fraccionarias en estos factores. El factor 4 π ^2 no
tiene incertidumbre, y la incertidumbre fraccional en T ^2 es el doble que en T:

Entonces, nuestra incertidumbre fraccional en la respuesta para g será:

Supongamos que medimos el período T para un valor de la longitud l y obtenemos los resultados:
l= 92.95 ± 0.1 cm,
T= 1.936 ± 0.004 s.
La estimación para g se encuentra como:
Para encontrar nuestra incertidumbre en g necesitamos las incertidumbres fraccionarias en l y T.
Estos se calculan fácilmente
Sustituyendo encontramos que
A partir de este:
Así, en base a estas medidas, nuestra respuesta final es g= 979 ± 4 cm/s^2.
3.11 Fórmula general para errores de propagación.
Con las tres reglas anteriormente estudiadas se puede aplicar una única fórmula general con la que
se puede resolver cualquier problema en la propagación de errores, sin embargo, esta regla suele ser
complicada de usar, resultando útil en algunos problemas que pueden resolverse con el método paso
a paso. Para ilustrar esto mejor es necesario suponer que se cuenta con tres cantidades medibles: x,
y y z, y se tiene que calcular una función como:
En el que una variable aparece más de una vez, para ello es necesario una cancelación de los errores
tanto en el numerador como el denominador, para ello se supone que x, y y z son números positivos
y se considerase que la medición de x está sujeta a error. Si se sobreestima x, se sobreestiman tanto
x + y como x + z, las cuales se anulan entre sí cuando se calcula (x + y) / (x + z), dicho de otra
forma, el error de x se cancela sustancialmente del cociente, lo cual mediante el cálculo por pasos
no es posible.
Supongamos que al principio medimos dos cantidades x y y. cuando q(x) es una función de una sola
variable la mejor estimación para x es Xbest, siendo la mejor estimación para q(x) es q(Xbest).
Entonces los extremos de valores probables para x son Xbest ± dx, siendo entonces los extremos
para evaluar q:
Finalmente, se usa la aproximación
(Siendo u cualquier pequeño incremento) entonces, para obtener los valores extremos se reescribe a

Donde el valor absoluto está por la posibilidad de dq/dx de ser negativo, el resultado significa que
dq= ldq/dxl*dx. Cuando q está en función de dos variables, se generaliza a

Donde u y v son pequeños incrementos en x y y, y dq/dx y dq/dy son las derivadas parciales de q
con respecto a x y y.
Si agregamos los valores de los extremos de x y y, recordando que los valores dq/dx y dq/dy pueden
ser negativos, los extremos de q serán

Lo que significa que la incertidumbre en q(x, y) es


Si la función q depende de más de dos variables, entonces se agrega un término adicional para cada
variable adicional.
Teniendo que x, …, z son medidas con incertidumbre dx, …, dz y los valores medidos son usados
para calcular la función q (x, …, z). Si las incertidumbres en x, …, z son independientes y al azar,
entonces la incertidumbre en q es
En realidad, el término ldq/dxl *dx en sí mismo es la incertidumbre en q causada por la
incertidumbre en x solamente. Lo mismo en el caso de la y. Siendo entonces la incertidumbre total
en q la suma cuadrática de las incertidumbres parciales debidas a cada una de las incertidumbres
separadas dx, dy, …, dz. Primero se calculan las incertidumbres parciales en q debidas a dx, dy, …,
dz por separado, luego simplemente se colocan estas incertidumbres separadas en cuadratura para
obtener la incertidumbre total
En resumen, cuando la propagación por pasos es posible, comúnmente es más simple hacer uso de
este que de las reglas generales, pero cuando una variable se usa más de una vez puede provocar
errores de compensación, ocasionando que el método por pasos sobreestime la incertidumbre final,
siendo mejor calcular la incertidumbre dq con un solo paso con las fórmulas anteriormente
descritas.
Capítulo 4. Análisis estadísticos de azar. Incertidumbres.
4.1 errores aleatorios y sistemáticos.
Cuando las incertidumbres son encontradas mediante la repetición de mediciones se conoce como
errores aleatorios, cuando no es posible llegar a estos valores son llamados sistemáticos.
Para representar esto es necesario suponer que cronometramos una revolución de un plato giratorio
en rotación constante. Una fuente de error será nuestro tiempo de reacción para iniciar y detener el
reloj. Si nuestro tiempo de reacción fuera siempre exactamente igual, estos dos retrasos se
cancelarían entre sí. En la práctica, sin embargo, nuestro tiempo de reacción variará. Podemos
demorar más en comenzar, y subestimar el tiempo de una revolución; o podemos demorarnos más
en detenernos, y así sobrestimar el tiempo. Al analizar estadísticamente la dispersión de los
resultados, podemos obtener una evaluación muy confiable de este tipo de error. Sin embargo, si
nuestro cronometro no inicializa adecuadamente, los valores del tiempo serán subestimado y no será
posible localizar el error, a este tipo de error se le conoce como sistemático, los cuales no pueden
hallarse mediante un análisis estadístico. Estos errores son comunes pues se debe a errores del
observador, a irregularidades con los aparatos de medición, problemas de definición y otros.
Para tener una mejor idea de la diferencia entre errores aleatorios y sistemáticos, considere la
analogía que se muestra en la siguiente figura. Aquí el "experimento" es una serie de disparos
disparados contra un objetivo; Las "medidas" precisas son tomas que llegan cerca del centro. Los
errores aleatorios son causados por cualquier cosa que hace que los disparos lleguen a puntos
aleatoriamente diferentes. Los errores sistemáticos surgen si algo hace que los disparos lleguen
fuera del centro en una dirección "sistemática".
Sin embargo, hay que considerar que saber la posición del objetivo corresponde, en una medición
de laboratorio, a conocer el verdadero valor de la cantidad medida, y en la gran mayoría de las
mediciones reales, no se conoce este valor. Al examinar la distribución de los valores medidos, se
puede evaluar fácilmente los errores aleatorios, pero no obtener orientación respecto a los errores
sistemáticos.
La distinción entre errores aleatorios y sistemáticos no siempre es clara, y un problema que causa
errores aleatorios en un experimento puede producir errores sistemáticos en otro. Por ejemplo, si se
coloca la cabeza en primer lugar hacia un lado y luego hacia otro para leer un medidor típico (como
un reloj ordinario), la lectura del medidor cambia. Este efecto, llamado paralaje, significa que un
medidor se puede leer correctamente solo si se coloca directamente frente a él. No importa lo
cuidadoso que se sea, no siempre puede colocar su ojo exactamente delante del medidor; en
consecuencia, sus mediciones tendrán una pequeña incertidumbre debido al paralaje, y esta
incertidumbre probablemente será aleatoria. Por otro lado, un experimentador descuidado que
coloca un metro a un lado de su asiento y se olvida de preocuparse por el paralaje introducirá un
error sistemático en todas sus lecturas. Por lo tanto, el mismo efecto, el paralaje, puede producir
incertidumbre aleatoria en un caso, e incertidumbres sistemáticas en otro. El tratamiento de los
errores aleatorios es diferente al de los errores sistemáticos. Por todo lo anterior, las incertidumbres
sistemáticas suelen ser difíciles de evaluar e incluso de detectar. El científico experimentado debe
aprender a anticipar las posibles fuentes de error sistemático y asegurarse de que todos los errores
sistemáticos sean mucho menores que la precisión requerida.
4.2 La media y la desviación estándar.
Cuando se realizan N incrementos de la cantidad x (todos usando el mismo equipo y
procedimientos) y encontramos los valores de N: x 1, x2, …, xN
la mejor estimación para x es generalmente el promedio de x 1, …, xN, esto es:

Donde
La desviación estándar de las medidas x1, x2, …, xN, es una estimación de la incertidumbre media
de las medidas x1, x2, …, xN y se determina de la siguiente manera. Dado que la media x es nuestra
mejor estimación de la cantidad x, es natural considerar la diferencia x i- = di. Esta diferencia, a
menudo llamada la desviación, nos dice cuánto difiere la medida i ^th de la media x. Si la
desviación es muy pequeña entonces nuestras medidas son cercanas y son precisas. Para estimar la
fiabilidad media de las medidas x 1, …, x5, se podría naturalmente intentar promediar las
desviaciones, pero esto en realidad es cero, dado que debido a la definición de la media de x asegura
que la desviación estándar a veces es positiva y a veces negativa, por lo que no es buena idea de
buscar fiabilidad de las mediciones. La mejor opción es cuadrar todas las desviaciones, luego se
toma la raíz cuadrado del resultado para obtener una cantidad con las mismas unidades que x
mismo. Este valor es llamado desviación estándar de x 1, x2, …, xN y se denota por

Por ello la desviación estándar también se conoce como cuadrado medio de la raíz, esto demuestra
ser una manera útil caracterizar la fiabilidad de las mediciones. Para calular la desviación estándar,
es necesario calcular la desviación en di, las raíces de estos, promediarlas y tomar la raíz cuadrada
del resultado.

También existe otra definición de desviación estándar, donde se reemplaza N por N-1 y definiendo
la desviación estándar como:

Sin embargo, esta definición es más larga que la anterior, pero esta soluciona el problema con la
anterior que subestiman las incertidumbres de las mediciones x 1, x2, …, xN cuando el número de
medición es pequeño. Esto se expresa mejor al realizar la desviación estándar de un único valor,
donde con la primera técnica se obtiene un resultado absurdo de 0 y en la segunda se obtiene una
indeterminación, lo cual señala la existencia de un error. La diferencia numérica de estos dos es
realmente insignificante, sin embargo, en ambos casos se requiere la repetición de los casos
considerablemente, en un laboratorio de física se prefiere usar los métodos más largos, sin embargo,
es necesario aclarar siempre que definición se está usando para evitar controversias. Actualmente
existen calculadoras que brindan la desviación estándar de manera prácticamente inmediata.
4.3 La desviación estándar como la incertidumbre en una medida individual.
Si se realiza una única medición (utilizando el mismo método), existe un 68% de probabilidad de
que σx sea el valor correcto. Por lo que se puede nombrar σx para significar exactamente lo que
hemos estado llamando “incertidumbre”. Al realizarse una medición en x, la incertidumbre
asociada con esta medida será con lo cual se puede asegurar que la medición dentro de σx
es en realidad la respuesta correcta. Un ejemplo de ello es imaginar que se tuviese una caja de
resortes similares y se les dice que midan sus constantes de resorte k, se podría medir las constantes
de rebote cargando cada resorte y observando la extensión resultante, se necesita saber k y su
incertidumbre dk para cada primavera. Para ello se medirá la constante k para el primer resorte
varias veces, entonces la media de estas mediciones debería dar una buena estimación de k para el
primer resorte. Considerando que la desviación estándar de las mediciones proporciona una
estimación de la incertidumbre en el método para hallar k. Siempre que los resortes sean
razonablemente similares y se use el mismo método para medir cada uno, se espera razonablemente
la misma incertidumbre en cada medición. Por lo tanto, para cada resorte subsiguiente necesitamos
hacer solo una medición, e inmediatamente se puede establecer que la incertidumbre dk es la
desviación estándar σx medida para el primer resorte, con un 68% de confianza de que la respuesta
σx esté dentro del valor correcto.
Ejemplo:
Podemos imaginarnos haciendo 10 mediciones. en el primer resorte se obtiene los siguientes valores
medidos de k (en newtons /metro): 86, 85, 84, 89, 85, 89, 87, 85, 82, 85.
A partir de estos valores, podemos calcular de inmediato k media = 85.7 N / m y, usando la definición

La incertidumbre en cualquier medida de k es, por lo tanto, aproximadamente 2 N / m. Si Ahora


medimos el segundo resorte una vez y obtenemos la respuesta k =71 N / m, podemos sin más
preámbulos tomar dk = = 2 N / m y declarar con un 68% de confianza que k se encuentra en el
rango.
4.4 La desviación estándar de la media
Si x1, x2, …, xN son los resultados de las mediciones de N de la misma cantidad, entonces, la mejor
estimación de la cantidad x es su media. Así como la desviación estándar σx caracteriza la
incertidumbre promedio de las mediciones separadas x 1, x2, …, xN. La respuesta
representa una combinación juiciosa de todas las mediciones de N, y se cuenta con todas las razones
para pensar que será más confiable que cualquiera de las mediciones tomadas solas. La
incertidumbre final de está dada por la desviación estándar σx dividido por √N. Esta
ecuación es llamada desviación estándar de media, y se denota:

Como ejemplo, podemos considerar las 10 mediciones reportadas en el constante de resorte k de un


resorte. Como vimos, la media de estos valores es k = 85.7N / m, y la desviación estándar es = 2.2
N / m. Por lo tanto, la desviación estándar de la media es

y nuestra respuesta final, basada en estas 10 mediciones, sería que el resorte tiene
N/m.
Un importante componente en la fórmula es el factor √N en el denominador. La desviación estándar
σx representa la incertidumbre individual de las mediciones x 1, x2, …, xN. Por lo que, si se hacen
más mediciones esta medida no cambia considerablemente. Pero en este último caso presentado
decrecerá cuando √N aumente. Este hecho proporciona a dicha fórmula a tender a ser
mucho más confiable en cuanto al resultado. Por lo tanto, para aumentar la precisión es necesario
aumentar el número de mediciones.
4.6 Errores sistemáticos

ºLa desviación estándar de la media σk se puede considerar como el componente aleatorio dk ran de
la incertidumbre dk pero ciertamente no es la incertidumbre total dk. El problema es decidir cómo
estimar la componente sistemática dk ^ yg y luego cómo para combinar dk ran y dksys para dar la
incertidumbre completa dk. Ninguna teoría simple muestra qué hacer con los errores sistemáticos.
De hecho, la única teoría de los errores sistemáticos es que deben identificarse y reducirse hasta que
sean mucho menos que la precisión requerida. En un laboratorio de enseñanza, sin embargo, este
objetivo a menudo no es alcanzable. Por esta razón, algunos laboratorios de enseñanza establecen
una regla según la cual, en ausencia de información más específica, se debe considerar que los
medidores tienen cierta incertidumbre sistemática. Dadas las reglas de este tipo, hay varias formas
posibles de proceder. Para ejemplificar, supongamos que la constante de un resorte es
encontrado por las mediciones de m y los correspondientes valores de T. Los análisis estadísticos de
varias respuestas para k dan componentes aleatorios de dk como
Supongamos que ahora se nos ha dicho que el saldo utilizado para medir m y el reloj utilizados para
T tienen incertidumbres sistemáticas de hasta el 1% y el 0,5%, respectivamente. Entonces podemos
encontrar el componente sistemático de dk mediante la propagación de errores; La única pregunta
es si combinar los errores en cuadratura o directamente. Debido a que los errores en m y T son
seguramente independientes y, por lo tanto, es posible cierta cancelación, el uso de la suma
cuadrática es probablemente razonable, lo cual da:

Y, por lo tanto.

Ahora que se tiene estimaciones para las incertidumbres aleatorias y sistemáticas en k, se debe
decidir cómo establecer la conclusión final para la constante de resorte k con su incertidumbre
general. Porque el método para combinar dkran y dksys no es completamente clara, varios científicos
lo separan en dos componentes y hallan una respuesta final con la forma.

Otra alternativa, es que en caso de que dkran y dksys puedan ser combinadas en cuadratura, en cuyo
caso se plantea una única incertidumbre.

En conclusión, en medida del valor k


La expresión para dk no está justificada rigurosamente. Tampoco el significado de la respuesta es
claro; por ejemplo, probablemente no se puede reclamar un 68% de confianza. Indica que la
verdadera respuesta está en el rango k media ± dk. No obstante, la expresión. al menos proporciona
una estimación razonable de nuestra incertidumbre total, dado que el aparato tiene incertidumbres
sistemáticas que no pudimos eliminar. En desviación estándar se puede apreciar que σk se acerca a
cero cuando N crece, por lo que N puede reducir el componente aleatorio de dk ran= σk
indefinidamente. En practica para reducir la incertidumbre se requiere mejorar las técnicas o
equipos para reducir tanto el azar como los errores sistemáticos en cada medición.
Probablemente se le pedirá que mida cantidades, como la aceleración de la gravedad, por lo que ya
se conoce un valor exacto, aceptado. En este tipo de experimento, La lógica del análisis de errores
es un poco confusa. Probablemente el curso más honesto es ignorar el valor aceptado conocido
hasta que haya realizado todos los cálculos de su valor medido, q best, y su incertidumbre.
Entonces, es necesario saber si el valor aceptado se encuentra dentro (o al menos cerca de) el rango
q best ± dq. Si sí lo hace, simplemente puede registrar este acuerdo en su informe. Si el valor
aceptado se encuentra bien fuera del rango qbest ± dq, entonces, se deben examinar las posibles
causas de la excesiva discrepancia. Por ejemplo, para calcular la aceleración de gravedad g y se
obtiene el resultado:

Con incertidumbre: y
Por lo tanto, la incertidumbre total se toma como dg= 0.04.
Claramente, el valor aceptado de g= 9.80 m/s^2 se encuentra lejos del rango obtenido, 9.97 ± 0.04.
(Más concretamente, la discrepancia es 0.17, que es cuatro veces la incertidumbre.) Este resultado
definitivamente no es satisfactorio y se requiere más análisis. Si no se ha realizado un error al
calcular, entonces, otra explicación es que el valor aceptado es incorrecto. Sin embargo, si el
problema persiste entonces lo más probable sea la existencia de un error sistemático, y se tiene las
siguientes posibilidades:

 Tal vez uno de los medidores tuvo errores sistemáticos más grandes de los que se habían
cometido.
 Otra posible causa de error sistemático es que se usó un valor incorrecto para algún
parámetro necesario en los cálculos.
 La última explicación es la existencia de una falla en el diseño de realización del
experimento.
Obviamente, encontrar la fuente de los errores sistemáticos es difícil y ha desafiado los mejores
esfuerzos de muchos grandes científicos. Con toda probabilidad, los instructores no penalizarán de
manera considerable si esto no se hace. Sin embargo, esperarán una discusión inteligente del
problema y, al menos, una declaración honesta de la existencia de errores sistemáticos que no se
pudieron identificar en el experimento.
Capítulo 5. La distribución normal.
5.1 Histogramas y Distribuciones.
Un punto importante que se debe resaltar es la relevancia de diseñar métodos para registrar y
mostrar grandes cantidades de valores medidos. Para ello supóngase que se cuentan con 10 medidas
de una longitud x: 26, 24, 26, 28, 23, 24, 25, 24, 26, 25. Lo cual transmite poca información siendo
un poco confuso. Para ello es necesario ordenarlos 23, 24, 24, 24, 25, 25, 26, 26, 26, 28. Para que
con ello se realice un registro en una tabla de los diferentes valores obtenidos en x y su frecuencia al
medirse. Para que así se introduzca la notación xk (k=1,2, …) con esto se puede reescribir la media
para obtenerla de manera más ágil al tener muchas mediciones.

Una suma como esta suele llamarse suma ponderada, pues la frecuencia en que ocurre un valor de x
es ponderada. Si se suman todos los valores nk se obtiene entonces N

Con otras palabras, el número de veces en que ocurre xk se introduce a

En términos de Fk se puede reescribir la fórmula para la media en una forma compacta.

Implicando que,

Cualquier conjunto de números cuya suma de uno quiere decir que dichos valores están
normalizados. Los cuales son comunmente representados mediante un histograma, pero para una
mejor representación es mejor primero dividir el rango de valores en un número conveniente de
intervalos, comunmente se utiliza una tabla para ello. Todo ello para realizar un histograma donde
se pueda analizar el área de cada barra:

5.2 Distribución limitante.

Cuando se realizan demasiadas mediciones y se tabulan para realizar un histograma comunmente


estas comunmente define una curva continua, esta curva o proceso se le conoce como limite de
distribución, la cual comúnmente es simétrica. Sin embargo hay que considerar que la distribución
limitante es un constructo inexacto.
Dado ello llegará un punto en el que el histograma no será distinguible entre esta y la curva del
límite, por ello las fracciones de los valores totales que estén dentro de un segmento de dicha
curva puede encontrarse mediante el área bajo esta misma con ayuda de integrales. Una vez
hecho ello se entiende que f(x) dx es la probabilidad de que en una sola medida de x dé una
respuesta entre x y x+ dx. De manera similar, la integral de f(x) dx nos dice la probabilidad de que
cualquier medición caerá entre x=a y x=b.

Por lo tanto la probabilidad de obtener una respuesta entre -∞ y +∞ será igual a uno, entonces la
distribución limitante satisface.

Es por eso que cuando se hacen mediciones exactas y debidas los valores están cada vez más cerca
del valor real de x, por lo que el histograma y la dristribuición limitante parecerán ambas una
curva sólida. Si se conoce f(x) entonces se puede calcular la media x que se buscarían en los
siguientes valores. Los valores del intervalo fk=f(xk) dxk y en los límites de todos los intervalo que
tienden a cero se convierten en

De manera similar se calcula la desviación estándar.

5.3 La distribución normal.


Si las medidas de x están sujetas a muchos errores aleatorios pequeños, pero errores sistemáticos
insignificantes, su distribución será una curva simétrica en forma de campana centrada en el valor
real X. A esto se le conoce como la distribución normal o función de Gauss. El prototipo de esta
función es

Donde sigma es el parámetro de anchura. La curva de campana de Gauss se centra en x=0. Para
obtener la curva de campana centrado en otro punto x=X se remplaza en la X, la función:
Tiene el máximo punto de x=X y se encuentra en la simetría de ambos lados de x=X.

Siendo la fórmula para la función de distribución:

Donde Gx,o(x) describe la distribución limitante de los resultados de las medidas en x que miden
realmente X. Siendo el parámetro sigma el de la función de Gauss, que proviene de la desviación
estándar después de realizarse muchas mediciones.

5.4 La desviación estándar como límite de confianza del 68%.


podríamos calcular Prob(dentro de tσ), que significa "la probabilidad de una respuesta dentro de tσ
de X", donde t es cualquier número positivo. Esta probabilidad se da por el área y un cálculo:

Este valor es conocido comúnmente como función de error. Lo que no es calculado fácilmente
analíticamente, pero sí, mediante un computador. La probabilidad de que una medida de x caiga
dentro de las desviaciones estándar de t del valor verdadero es del 68%. Y cuando t se aumenta esta
probabilidad se acercará cada vez más a 100%. Una alternativa a la desviación estándar se llama
error probable, o PE, y se define como la distancia para la cual existe una probabilidad del 50% de
una medición entre X ± PE.
5.5 Justificación de la media como mejor estimación.
Si se conociera f(x) se podría calcular la media x y la desviación estándar σ obtenidas después de
infinitas mediciones, así como el valor verdadero de X, pero no la distribución limitante. En la
práctica es muy problemático encontrar la mejor estimación para X y σ en N valores de mediciones.
Para ello la cantidad Prob x σ (x1…xn) es la probabilidad de obtener N resultados x1, …, xn en
términos de X y σ. El método para encontrar las mejores estimaciones para X y σ se le conoce como
el principio de máxima probabilidad, siendo lo siguiente la manera de calcular X:

Mientras que para σ es:


Ahora es un buen momento para revisar la historia bastante complicada que se ha desarrollado tan
lejos. Primero, si las medidas de x están sujetas solo a errores aleatorios, sus limitaciones la
distribución es la función de Gauss centrada en el verdadero valor X y con ancho σ. El ancho a es el
límite de confianza del 68%, ya que hay una probabilidad del 68% que cualquier medida caerá
dentro de una distancia del verdadero valor X. En la práctica, ni X ni σ se conocen. En cambio,
conocemos nuestros N valores medidos X1, . . ., xn donde N es tan grande como nuestro tiempo y
paciencia nos permitió hacerlo. Sobre la base de estos N valores medidos, nuestra mejor estimación
del valor verdadero X ha demostrado ser la media nuestra mejor estimación del ancho
σ es la desviación estándar.
5.6 Justificación de la adición en cuadratura.
Cantidad medida más número fijo.

Conociéndose la distribución de las medidas de x, …, z, ahora se buscará que quiere decir esto en
los valores para q. El problema es deducir la probabilidad de obtener cualquier valor q definido por
q= x + A. En particular la incertidumbre en q es igual que en x

Cantidades medidas con números fijos.


Los valores de q=Bx serán normalmente distribuidos en el centro de q= Bx y B σ, la incertidumbre
entonces en este es B veces que en x.

Suma de dos cantidades medidas.


Cuando se quiere sumar dos variables, x y y, entonces hay que considerar que se necesita encontrar
la distribución y la anchura entre los valores de estos, así como también que sus medidas se
encuentran distribuidas entre los valores verdaderos X y Y. Siendo entonces los valores de (x + y)
dados por

Que están distribuidos en (X + Y) con la anchura


Un caso general.
Teniendo la suma x + y se puede justificar fácilmente el error de propagación, considerando que se
calcula un valor q(x, y) en términos de estas dos variables, con ello y una formula se sabe que los
valores de q(x, y) son distribuidos normalmente en los valores reales q(X, Y) con anchura.

5.7 Desviación estándar de la media.


Suponiendo que se tiene la medida de x que se encuentra normalmente distribuida en el valor
verdadero X con parámetro de anchura σx, y se quiere buscar con seguridad el promedia de N
medidas, entonces se aplica la siguiente fórmula.

Esto otorga la incertidumbre en la media, o bien, la desviación estándar de la media, pues con esta
fórmula se alcanza un 68% de probabilidad de que la respuesta se encuentre dentro del valor
verdadero X.
5.8 Aceptabilidad de una respuesta medida.
Es necesario responder a dos preguntas: ¿Cómo se sabe que una cantidad medida se encuentra
dentro del rango Xbest +/- dx? Para ello se realizan varias mediciones de x, siendo la media de x la
mejor estimación de valor para x. y la desviación estándar de la media σx es una buena medida de
su incertidumbre. Esperando que el 68% las medidas de x caigan en el rango Xmedia +/- σx.
Siendo la segunda cuestión, ¿Cómo se decide si el acuerdo entre nuestro valor y el valor esperado es
o no aceptable? El límite entre aceptabilidad e inaceptable depende del nivel por debajo del cual
juzgamos que una discrepancia es injustificadamente improbable. Muchos científicos consideran
que el 5% es un límite justo por "improbabilidad irrazonable". La mayoría de los físicos no pasan
mucho tiempo debatiendo precisamente dónde se encuentra el límite de la aceptabilidad. Si la
discrepancia es apreciablemente menor que 2σ, entonces, por casi cualquier estándar, el resultado se
consideraría aceptable. Si se considera los valores de otra persona, se espera el valor X exp. Se dice
entonces que Xbest difiere de X exp por t desviación estándar, donde:

También podría gustarte