Introduccion Teoria de Medicion
Introduccion Teoria de Medicion
Introduccion Teoria de Medicion
La Física, como toda ciencia experimental, tiene como criterio de verdad la contrastación de sus
teorías con los datos surgidos de mediciones. Así se dice que una ley, una hipótesis o un modelo,
representan adecuadamente la realidad (fenómeno físico) si las consecuencias que de ellas se
derivan se corresponden con los datos experimentales.
Cualquier aseveración en Física la cual, o sus consecuencias lógicas, no sean verificables
experimentalmente, carece de sentido.
Por otra parte el progreso de la Ciencia se debe en gran medida, a la observación de los
fenómenos, reproducidos en forma de experimentos a fin de medir con más comodidad, y la
formulación de nuevas hipótesis a partir de esa observación.
Sin la actividad experimental que a la vez genera nuevas ideas y permite su verificación no
habría real incremento en nuestro conocimiento del mundo que nos rodea.
Esto demuestra la importancia, del proceso de medición, pero, antes de medir, se debe
desarrollar la capacidad de observar.
Observar supone mirar con atención, descubrir las principales magnitudes físicas que están
involucradas en el fenómeno, analizar su comportamiento en forma global y estudiar como
medirlas.
Puesto que toda conclusión a que se llegue a partir de la experimentación debe ser susceptible
de verificación y además debe ser compatible con el resto del cuerpo de conocimiento, es
imprescindible conocer el grado de confiabilidad de la medición efectuada. Como ejemplo basta
recordar que Kepler dedicó diez años a tratar de verificar la teoría de su maestro Ticho Brahe
sobre el movimiento del planeta Marte utilizando los datos experimentales que el mismo Brahe
había recopilado. Finalmente no pudo reducir las discrepancias entre el modelo y los datos a
menos de 2 minutos de arco. Pero Kepler sabía que Brahe no podía cometer errores de más de un
minuto lo que lo obligó a reformular la teoría con su propio modelo de movimiento planetario.
El ejemplo muestra como, para que la información sea intercambiable y reproducible, es
necesario saber en que con condiciones se la obtuvo y cuál es su grado de confiabilidad.
Analizar esto es el objetivo de lo que sigue.
MAGNITUDES Y CANTIDADES
Magnitud es todo aquello que puede ser medido: longitud, masa, tiempo, etc., son ejemplos de
magnitudes. Si queremos definir una magnitud en particular, debemos recurrir a una definición
operacional: "longitud es la magnitud que se mide con una regla, calibre, etc.", "tiempo es lo que
se mide con un reloj". LA OPERACION DE MEDIR DEFINE LA MAGNITUD.
La longitud de una mesa en particular, la masa de un objeto en particular, el tiempo que tarda un
determinado móvil en recorrer una distancia son "cantidades" de las magnitudes longitud, masa y
tiempo.
EL PROCESO DE MEDICION
El proceso de medición es una operación física experimental que consiste en comparar una
cantidad de una magnitud con otra cantidad arbitrariamente determinada unidad.
En ella intervienen necesariamente tres sistemas:
1
Física 1 Errores de Medición
2E
Posteriormente veremos que el "seguramente" se debe reemplazar por: "con una probabilidad p".
Dicho de otra manera, existe una determinada probabilidad de que el valor teórico de la
magnitud que estamos midiendo se encuentre en el intervalo de incerteza.
De aquí en más utilizaremos indistintamente los términos "error" e "incerteza" de una medición
ya que, a pesar de que la segunda expresión es más adecuada, en la bibliografía aparecen de esa
manera.
En efecto, "error" da la idea de un término correctivo que puede ser subsanado, mientras que
"incerteza" es nuestra incapacidad de fijar el valor exacto de la magnitud medida.
no hacer coincidir el cero de la regla con el extremo del objeto que se quiere medir, etc. Todos
ellos se pueden evitar poniendo cuidado y repitiendo las mediciones o los cálculos.
Errores sistemáticos:
Son aquellos inherentes al procedimiento mismo de medición y por lo mismo son errores
previsibles. Generalmente pueden ser debidamente acotados.
No es posible establecer un criterio general sino que se debe analizar cada caso en particular para
ponerlos de manifiesto. Por ejemplo: un instrumento descalibrado repetirá, si se mide varias
veces en las mismas condiciones, el mismo error con el mismo signo y es posible eliminarlo
contrastando (calibrando) el instrumento con un patrón.
Errores accidentales, aleatorios o casuales:
Aún habiendo eliminado los errores groseros y los sistemáticos, es un hecho que cuando se
efectúan mediciones repetidas con instrumentos y métodos de gran exactitud, se obtienen
resultados que, en general, son distintos. Estos errores provienen de múltiples factores
inapreciables y su magnitud y signo son imposibles de predecir. Es decir que estas perturbaciones
provienen de fuentes de error independientes, imposibles de detectar, que dan lugar a
desviaciones pequeñas, positivas y negativas. Este tipo de errores requiere de un tratamiento
estadístico, que se verá más adelante, de manera de acotarlos ya que no se los puede eliminar.
Por supuesto la división entre errores sistemáticos y casuales no es tajante y debe ser sometida a
revisión crítica permanente. Un perfeccionamiento en el proceso de medición puede poner de
manifiesto la existencia de nuevos errores sistemáticos que anteriormente se incluían entre los
accidentales. En cuanto a los errores groseros, cabe aclarar que algunos autores no los consideran
dentro de la clasificación.
ORIGEN DE LOS ERRORES
La causa de las incertezas, independientemente de su naturaleza, puede estar en cualquiera de los
sistemas que intervienen en el proceso de medición.
Errores debidos al observador:
Cada observador tiene una forma personal de apreciar los fenómenos y, en particular, de efectuar
las lecturas de los instrumentos. Esta modalidad da origen a errores de tipo sistemático. Por
ejemplo, un observador que mide varias veces el período de un péndulo puede tener una
tendencia a disparar el cronómetro antes (o después) de que el mismo pase por el punto de
referencia. Si no existe esta tendencia y la reacción en disparar y detener el cronómetro se
compensan quedarán los errores de tipo aleatorio que siempre están presentes.
Errores propios del instrumento:
Dependen del tipo de instrumento empleado, principio de funcionamiento, calidad etc.
En este punto es conveniente hacer una referencia al proceso de "calibración" del instrumento.
Calibrar significa comparar el valor medido por el instrumento Xm con el valor verdadero Xv de
la magnitud medida. Esto permite, más allá de los ajustes que puedan hacerse, establecer el error
propio e irreducible del instrumento.
Ei = Xm - Xv
Sin embargo la anterior no pasa de ser una definición ya que el valor de Xv es inalcanzable
porque todo proceso de medición del mismo contiene incertezas a lo que se agregan razones
físicas que escapan al nivel de este curso (principio de incertidumbre). Es más, Xv de hecho no
existe.
A falta de éste, el mejor valor alcanzable con la técnica disponible (instrumento más refinado,
técnica de medida más depurada etc.) se denomina: valor verdadero convencional Xvc y para todo
propósito se asume que su incerteza es despreciable.
3
Física 1 Errores de Medición
La calibración se efectúa entonces contrastando el valor medido por el instrumento con el valor
verdadero convencional para obtener el error propio del instrumento.
Ei = Xvc - Xm
El valor de Xvc se obtiene generalmente mediante instrumentos denominados "patrón" y esta
calibración debe efectuarse periódicamente.
El error instrumental estará entonces exactamente determinado, con lo que no constituye una
incerteza sino que se entiende como una corrección que se adiciona (o resta) de las lecturas.
Así por ejemplo, contrastando la lectura de una balanza con el valor de las pesas patrón
colocadas en el platillo se puede determinar la desviación (en más o en menos) y si no puede
ajustarse mecánicamente, agregar o quitar ésta de las pesadas a efectuar.
Quedará no obstante la incerteza propia de la lectura es decir la "apreciación" del instrumento.
Ejemplos de errores propios del instrumento:
Construcción deficiente o desgaste por el uso, descalibrado por golpes, calentamiento o uso
inadecuado. Son los más difíciles de detectar por lo que es conveniente hacer periódicas
comparaciones con instrumentos de exactitud comprobada (patrones).
Limitaciones propias del sistema de lectura: grosor de las líneas de la escala, grosor de la
aguja, separación entre líneas, incertezas internas, etc.
1 = (75,54 ± 0,02) mm
2 = (75,5 ± 0,5 ) mm
la primera medición es más exacta. Si se ha medido la misma magnitud (como en el ejemplo)
usando dos instrumentos distintos, la "comparación" del error absoluto nos indica cuál es la de
mayor calidad. Pero si se quieren comparar dos medidas de una dada magnitud pero de distinta
especie, como por ejemplo diámetro y altura de un cilindro (ambas de la misma magnitud:
longitud) debemos recurrir a otra magnitud para poder calificarlas. Definimos entonces, como
error relativo a la relación entre el error absoluto y el valor medido:
e = E / Xm
y error relativo porcentual
e% = e . 100 = ( E / Xm ).100
Ejemplo: Con una regla milimetrada se mide la longitud de una barra cilíndrica y su diámetro
con un calibre, obteniéndose:
L = (697,0 ± 0,5 ) mm
= ( 15,34 ± 0,02) mm
eL% = 0,07 %
e % = 0,13 %
La medición del largo es de mejor calidad aunque menos exacta que la del diámetro (observar
que su error absoluto es mayor).
MEDICIONES DIRECTAS E INDIRECTAS
Se denomina medición directa la lectura de cierta cantidad de una magnitud física mediante un
instrumento. La medición de una longitud con una regla, la masa de un cuerpo con una balanza,
una corriente eléctrica con un amperímetro, un intervalo de tiempo con un cronómetro, etc., son
ejemplos de mediciones directas.
5
Física 1 Errores de Medición
Una medición indirecta es aquella que se obtiene mediante la utilización de una relación
matemática que la vincula con otras magnitudes que pueden ser medidas directamente. Por
ejemplo, la densidad de un sólido homogéneo obtenida como cociente entre la masa y el volumen
del mismo; la velocidad media de un móvil dividiendo la distancia recorrida por el tiempo
empleado; el volumen de un cuerpo regular en base a sus dimensiones lineales; etc.
ERRORES EN UNA SOLA MEDICION DIRECTA
Comenzaremos con el caso más elemental, en el que se busca determinar el valor de una
magnitud y su incerteza, o sea su error absoluto, haciendo una sola lectura.
Con qué criterio se establece la incerteza? No existe una receta para establecer el valor del error;
es necesario un análisis detallado del método y del instrumento utilizado.
Distintos autores fijan criterios diferentes para acotar el error en una única medición directa. El
nuestro será analizar en detalle cada situación concreta.
Supongamos que queremos medir la longitud de una varilla con una regla metálica de
apreciación 1 mm. Hacemos coincidir un extremo de la varilla con la división cero de la regla y
observamos la ubicación del otro extremo de la misma:
23 24
Afirmamos entonces que la longitud medida es mayor que 232 mm y menor que 233 mm.
232 mm < Lm < 233 mm
y expresamos la medición como:
L = (232,5 ± 0,5 ) mm
en este caso vemos que:
Estamos estimando media división.
El intervalo de incerteza coincide con la apreciación del instrumento
El error es E=0,5mm.
Supongamos ahora que recurrimos a una lupa para efectuar la lectura y observamos:
24
23
22 23 24
OBSERVACIONES:
1. Para la matemática 12,0 = 12. Para las mediciones 12.0 ≠ 12. Cuando escribimos
12,0 estamos indicando que podemos medir hasta la décima pero su valor es nulo (doce
unidades, cero décimas); cuando escribimos 12 estamos indicando que no podemos medir
hasta la décima.
2. Hay simple coincidencia entre la última cifra significativa del error y la del valor medido.
Si escribimos L = (232,45 ± 0,5) mm, al indicar el valor medido decimos que podemos
medir a la centésima y sin embargo no la indicamos en el error. Esto no tiene sentido.
De igual modo si escribiéramos L = (232 ± 0,5) mm al indicar el valor medido sin
decimales, estamos diciendo que no podemos medir a la décima y sin embargo la
indicamos en el error.
3) Adoptaremos como criterio que el error se expresa con, a lo sumo, dos cifras significativas,
por ejemplo: 12; 1,5; 0,05; 0,035; etc. No tiene sentido hacerlo con más: 12,5; 1,45;
0,03547; etc. Por qué? Volvamos al concepto de error: "determina un intervalo de
incerteza centrado en el valor medido" y tomemos el primer caso.
La primer cifra significativa (1) nos da un ancho del intervalo del orden de diez unidades,
la segunda (2) le agrega dos unidades, y la tercera (5) aumenta el intervalo de incerteza en
cinco décimas (cinco centésimas de la primera cifra significativa), lo que es despreciable
frente a las 10 unidades.
Lo analizado en este ejemplo vale para cualquier tipo de lectura sobre una escala graduada
(por ejemplo: instrumentos de aguja).
Supongamos ahora que queremos medir el período de un péndulo con un cronómetro
digital de apreciación 0,01 s.
Disparamos manualmente el mismo cuando el péndulo pasa por un punto de referencia y lo
detenemos cuando ha completado una oscilación. El cronómetro nos indica 2,86 s. Como
expresamos el resultado?
En primer lugar, en todo instrumento digital, el último dígito (por lo menos) es dudoso,
entonces podríamos indicar:
T = (2,68 0,01) s.
pero de este modo estamos haciendo referencia solamente al error instrumental (debido al
instrumento) y en este caso interviene también el operador. La demora del operador al disparar y
detener el cronómetro es superior a la centésima de segundo y depende de su práctica. Debemos,
7
Física 1 Errores de Medición
por lo tanto, aumentar la cota de error por lo menos hasta la décima (o dos décimas si el operador
no tiene mucha práctica. Es decir, indicar por ejemplo:
T = (2,7 0,1) s.
Si el disparo del cronómetro se hiciera sin intervención humana, con un fotodiodo que no
introduce incerteza apreciable, entonces sí indicaríamos hasta la centésima de segundo.
Como conclusión podemos decir que no tiene sentido utilizar un instrumento de mucha exactitud
(de muy alta calidad) con un método más rudimentario. En un caso como el del ejemplo, el valor
obtenido por el método de mayor exactitud puede servir de valor patrón (valor verdadero
convencional) del otro.
Es común indicar el valor del error igual al de la apreciación del instrumento (y por lo tanto el
intervalo de incerteza como el doble de la apreciación). Sin embargo, en algunos casos es
aceptable tomar como intervalo de incerteza la apreciación del instrumento cuando a criterio del
observador esta consideración sea aceptable, o bien deba aumentarse cuando el observador no
confíe en la capacidad de definición del instrumento.
De lo dicho surge la importancia del buen criterio del operador para dar a sus resultados el grado
de confiabilidad más adecuado.
Z = f (X,Y,U,...)
Si asignamos a X0, Y0, U0, ... el valor medido de cada magnitud: Xm, Ym, Um,.. y asimilamos
el incremento de las variables al error:
X = (X-X0) = (X-Xm) = EX
Y = (Y-Y0) = (Y-Ym) = EY
8
Física 1 Errores de Medición
La suma de los términos siguientes representa la incerteza en la medición indirecta y todos los
términos deben tomarse en valor absoluto al igual que el error porque si los consideramos con su
signo, como las derivadas pueden ser positivas o negativas, se podría obtener incerteza nula en la
magnitud medida indirectamente lo que es imposible ya que cada medición directa está afectada
por un error.
Al sumar los términos en valor absoluto sumamos incertezas, es decir nos ponemos en la
situación más desfavorable (tenemos mayor seguridad de que el valor de la medición estará
dentro del intervalo de incerteza).
EZ = f . EX + f . EY + f . EU + ....
X Xm,Ym,Um,.. Y Xm,Ym,Um,… U Xm,Ym,Um,..
Sin embargo, a los efectos de cálculos sencillos, la expresión anterior conduce a los mismos
resultados y es de más fácil aplicación.