0% encontró este documento útil (0 votos)
22 vistas9 páginas

Especs

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 9

ESPECIFICACIONES EN

LA INSTRUMENTACIÓN
DE MEDIDA

La especificación de un instrumento de medida es la


descripción escrita de su comportamiento que objetivamente cuantifica sus
posibilidades. Sin embargo, no todos los fabricantes especifican con los mismos
criterios o, tan siquiera, con los mismos parámetros. Además, hay fabricantes
agresivos que presentan unas especificaciones aparentemente superiores a las
reales, mientras que otros más conservadores, prefieren especificar el
comportamiento del peor de sus equipos.
Las especificaciones definen el comportamiento no de un equipo en particular,
sino de todos los equipos del mismo lote o del mismo modelo. Por ello, es habitual
que las especificaciones de un modelo se presenten de tal forma que un gran
porcentaje de los equipos de aquel modelo se comporten al menos tan bien como se
presenta en sus especificaciones. Dado que las especificaciones de todos los
equipos de un mismo modelo tienden a distribuirse de forma normal o gaussiana,
nos encontraremos, por una parte, que la mayoría de los equipos se comportan
mejor de lo esperado y, por otra, que unos pocos equipos no cumplen con las
tolerancias especificadas. En este último caso, la garantía del equipo compromete
al fabricante a reajustar el equipo sin cargo alguno de reparación.
Pero, ¿qué parámetros definen el comportamiento de un equipo de medida, y
cómo los cuantificamos de forma objetiva? Términos como error, tolerancia,
precisión, exactitud o incertidumbre se utilizan a menudo con este propósito, pero
no siempre se emplean de forma correcta.

1. Error en la medida

En metrología se asume que toda cantidad a medir tiene un valor verdadero. Este valor
verdadero es el que se obtendría con un instrumento de medida perfecto. Sin embargo, en
metrología también se reconoce que tal instrumento ideal no existe, por lo que el verdadero
valor de una medida no se conocerá (si bien nos podremos acercar al mismo tanto como la
tecnología y nuestro procedimiento de medida nos permita). Para soslayar esta limitación se
recurre al concepto de valor convencionalmente verdadero, es decir, el valor de la
medida que, a efectos prácticos, se considera como suficientemente próximo al verdadero.

www.guemisa.com
El valor convencionalmente verdadero, o valor nominal, se materializa físicamente en
patrones. Así, se define como error de medida de un instrumento a la diferencia entre la
medida obtenida por el mismo y el valor nominal. Por ejemplo, si empleamos como patrón
de medida una pesa de 1 Kg de valor nominal, y una balanza indica que su peso es de 0,9
Kg, su error de medida es de 0,1 Kg. Este valor lo podemos expresar en porcentaje
relativo al valor nominal, definiéndose así el error relativo. En el ejemplo anterior, el error
 0,1 Kg 
relativo es del 10%  ⋅ 100 . En los instrumentos electrónicos de precisión es
 1 Kg 
habitual expresar los errores relativos en ppm ó partes por millón (1 ppm = 0,0001%).

2. Exactitud y Precisión

Una forma de mejorar la información dada por un instrumento de medida es repetir


muchas veces la misma medida en las mismas condiciones. Si el equipo de medida tiene
resolución suficiente, nos podemos encontrar que las distintas realizaciones de la medida
dan resultados diferentes. La distribución típica de estas medidas recibe el nombre de
normal o gaussiana (ver fig. 1). Esta distribución indica que el resultado más probable de la
medida es el central (valor medio de todas las repeticiones), si bien existe cierta dispersión
de las medidas en torno a este valor medio;
frecuencia cuanto más alta sea esta dispersión, mayor
relativa
probabilidad tendremos de obtener un error
elevado en una única realización de la medida.
En definitiva, el comportamiento de un equipo
de medida se define en términos de su
exactitud y su precisión. Un instrumento de
medida es tanto más exacto cuanto más
valor próximo está el valor medio de las n medidas
medio Medida
al valor convencionalmente verdadero. Y el
Figura 1 mismo instrumento será más preciso cuanto
menor sea la dispersión de estas medidas.
Así, por ejemplo, el lanzador de dardos de la fig. 2 es muy preciso en el caso A, pues es
capaz de lanzar los dardos prácticamente al mismo punto. Sin embargo es poco exacto,
pues este punto está alejado del blanco. En el
caso B sucede justo lo contrario: el lanzador
está siendo poco preciso (los dardos están
muy dispersos) pero, sin embargo, lanza con
CASO A exactitud pues el punto medio de todos los
Alta precisión
Baja exactitud impactos es justo el blanco. Evidentemente, el
caso C es el más interesante, pues reúne
CASO B
Baja precisión precisión con exactitud.
Alta exactitud
Los instrumentos de medida se diseñan
para que sean precisos, y se reajustan
CASO C periódicamente para que además sean
Alta precisión
Alta exactitud
exactos. Cuanto más exacto sea un
Figura 2 instrumento preciso, más próximo estará el

www.guemisa.com
resultado de cada medida individual al valor convencionalmente verdadero.
Para finalizar con estos dos conceptos, consideremos los voltímetros de la Fig. 3 cuando
se les aplican 100 V nominales. Las lecturas obtenidas
97,24
con el voltímetro A se distribuyen entre 97,16 V y 97,24
100
97,16
V, siendo su valor medio 97,2 V. La precisión absoluta
(0,08)
95 105 del voltímetro A para esta medida es, por lo tanto, de
voltímetro A 0,08 V mientras que su exactitud referida al valor nominal
es del 97,2% 
97 ,2 
⋅ 100 . Por otra parte, las lecturas
99,1 100 100,7  100 
(1,6)
95 105 del voltímetro B oscilan entre 99,1 V y 100,7 V, siendo su
voltímetro B valor medio 99,9 V. La precisión absoluta del voltímetro
B es, por lo tanto, de 1,6 V, y su exactitud del 99,9%.
100 (0,08)
Aunque el voltímetro B sea más exacto, el voltímetro A es
99,96 100,04
mucho más preciso (20 veces más). Ajustando el
95 105
voltímetro A, o considerando su error sistemático de -2,8
voltímetro A ajustado
V en la medida de 100 V, obtendremos un instrumento
muy preciso y además exacto.
Figura 3

3. Tolerancia

La precisión y exactitud de un equipo determinan perfectamente sus posibilidades de


medida. Sin embargo, no todos los equipos de un mismo modelo tienen idénticas
precisiones y exactitudes. Además, éstas no se mantienen constantes en el tiempo; lo más
normal es que los equipos degraden paulatinamente sus prestaciones (es lo que se conoce
como deriva de especificaciones en el tiempo). Por ello, se emplea la tolerancia como una
especificación límite global para todos los instrumentos de un mismo modelo. Así, la
tolerancia es el error de medida máximo que se puede esperar dentro de un conjunto de
instrumentos con el mismo modelo y durante un periodo de tiempo determinado
(típicamente un año). Por ejemplo, una tolerancia del 2% en la medida de 1 A para un
modelo de amperímetro, significa que cualquier amperímetro de dicho modelo al que se le
aplique 1A nominal en un tiempo no superior al año de ser reajustado, debe presentar una
lectura entre 0,98 A y 1,02 A. La Fig. 4 presenta la deriva en el tiempo de dos de estos
amperímetros que se reajustan anualmente.

Medida Los fabricantes más


1 año 2º año
prestigiosos prevén que el
1,02 A
99% de los equipos de un
mismo lote o modelo
Valor Nominal
1A cumplirán con la tolerancia
que especifican.
0,98 A
Otros fabricantes, para
presentar tolerancias más
Tiempo
estrechas (especificaciones
Ajuste y Ajuste y Ajuste y
Calibración Calibración Calibración más vistosas) reducen el
Figura 4 nivel de confianza al 95%.

www.guemisa.com
4. Expresión de la tolerancia en los multímetros digitales

Consideremos a continuación la expresión de la tolerancia en el instrumento más


universal para la medida eléctrica: el multímetro digital. Pero para ello, previamente
debemos conocer las dos especificaciones técnicas típicas de estos equipos, como son su
resolución (expresada en número de cuentas o número de dígitos) y su rango. Para
comprender lo que es el número de
cuentas y el rango en un multímetro
Atenuación
+ digital conviene recurrir al
(Rango)
Comparador funcionamiento básico del multímetro,
- que se resume en la Fig. 5. La tensión
999
de salida del convertidor digital-
STOP analógico, CD/A, aumenta a medida
0000
C D/A
Contador que el contador incrementa su cuenta
(1000 cuentas)

RESET
(paso a paso desde 0 hasta un valor
final, que define la resolución del
multímetro). El contador no se detiene

V Pantalla
hasta que la tensión de salida del CDA
supere a la tensión de la señal a medir
(lo que provocará el cambio de estado
Figura 5 del comparador. En este momento se
detiene la cuenta del contador y su
valor se transfiere a la pantalla. Finalizada la transferencia se comienza una nueva cuenta. Si
se llega a la cuenta máxima (por ejemplo, 999 ) y el comparador no ha conmutado, el
circuito de control del multímetro actúa sobre la etapa de atenuación de la señal para
acomodarla dentro de los límites de tensión de salida del CDA. Esta etapa inicial tiene
varios divisores de tensión que definen los diferentes rangos del multímetro (por ejemplo, el
divisor 1:1 para el rango de 100 mV, el divisor 10:1 para el rango de 1 V, el divisor 100:1
para el rango de 10 V, etc.).
La resolución de un multímetro digital es la tensión mínima que puede detectar, y
depende de la tensión que asigna el CDA a cada una de las cuentas del contador así como
del rango que se seleccione (ya sea

V V manual o automáticamente). La
resolución se obtiene sin más que dividir
Multímetro de 3 dígitos
dicho rango por el número total de

V V cuentas. Por ejemplo, un multímetro


digital de 1000 cuentas tiene una
Multímetro de 3 ½ dígitos
resolución de 1 mV en el rango de 1 V.

V V Además del número de cuentas, otra


forma muy típica de especificar la
Multímetro de 3 ¾ dígitos
resolución de un multímetro digital es a
Lecturas mínimas y máximas en distintos multímetros partir de su numero de dígitos (ver Fig.
6). Así, un multímetro de 3 dígitos tiene
Figura 6
un contador de 1000 cuentas pues con 3
dígitos se puede contar desde 000 hasta 999. Un multímetro de 4 dígitos dispone de un
contador de 10000 cuentas (0000 hasta 9999). Un multímetro de 2000 cuentas (0000 a

www.guemisa.com
1999) tiene un contador de 3 ½ dígitos, pues el dígito más significativo (el que está a la
izquierda) sólo puede valer 0 ó 1. En la fracción m/n de este convenio, m expresa el máximo
alcance del dígito más significativo, y n su número de estados diferentes. Por ejemplo, en un
multímetro de 3 ¾ dígitos (4000 cuentas) el dígito más significativo puede llegar a valer
como máximo 3 y puede tener 4 estados distintos ( 0, 1, 2, y 3).

Conociendo el significado del rango y la resolución de un multímetro, se está en


condiciones de entender la expresión de sus especificaciones.

Las especificaciones primarias de un multímetro digital se refieren al comportamiento


básico del equipo, y pueden constar de hasta tres componentes:

- Un término proporcional a la señal a medir


- Un término proporcional al rango (también llamado escala o alcance)
- Un término fijo o suelo. Equivale al ruido presente en todo equipo de medida.

Así, por ejemplo, se puede especificar la tolerancia primaria de un modelo de multímetro


de 4 ½ dígitos (20.000 cuentas) de la siguiente forma:

Rango Resolución % de la lectura % del rango Ruido


1V 50 µV ± 0,05 ± 0,02
10 V 500 µV ± 0,07 ± 0,05 ±100 µV
100 V 5 mV ± 0,1 ± 0,05
Tabla 1

De tal forma que el error primario máximo en estos multímetros para la medida de 4 V
(rango de 10 V) se calcula como:

error primario = ± ( 0,07/100 . 4V + 0,05/100 . 10V + 100 µV ) = ± 7,9 mV

Las especificaciones secundarias modifican a las primarias estableciendo, por una


parte, el intervalo de validez temporal de éstas últimas (o bien, su deriva con el tiempo) y,
por otra, definiendo el comportamiento del equipo con la temperatura. Así, en el caso del
multímetro del ejemplo, la especificación secundaria para la temperatura podría ser:

Margen de temperatura: 18 ºC a 28 ºC
Coeficiente de temperatura: 0,005% de la lectura/ ºC

que indica que las especificaciones primarias son válidas siempre que la medida se realice en
el margen de temperaturas de 18ºC a 28 ºC, de tal forma que si la medida de 4V se realiza
a 38ºC, al error primario de ± 7,9 mV habría que añadirle el error secundario

error secundario = 0,005/100 . 4V . (38 -28) = 2 mV

www.guemisa.com
Por último, las especificaciones terciarias corresponden al entorno de medida más que
al propio equipo de medida. Son ejemplos de especificaciones terciarias las que definen el
comportamiento del equipo con la carga a medir, la tensión de alimentación, la altitud,
humedad, etc. Un ejemplo de especificación terciaria sería el siguiente:

Tensión de alimentación: 6 V a 12 V
Coeficiente de corrección: 0,3% de la lectura/ V entre 4 V-15 V

que indica que las especificaciones primarias del multímetro son validas para tensiones de
alimentación entre 6 y 12 V. Si el multímetro se alimenta a 4 V, hay que considerar un error
terciario adicional en la medida de 0,3 . (6-4) % = 0,6% de la lectura.
En la Fig. 7 se presentan las gráficas de tolerancias primarias, secundarias y terciarias vistas
en este ejemplo (Para una mayor claridad se ha exagerado la contribución de cada error)

Tolerancia (%) 1a: especificación primaria proporcional a la señal


1b: añade la especificación primaria proporcional al rango
1c: añade la especificación primaria del ruido de fondo
3 2: añade la especificación secundaria de la temperatura
3: añade la especificación terciaria de la alimentación

1c

1b

1a
señal (V)
1 mV 1V 10V 100 V
Figura 7

Como se puede ver, la contribución del rango (gráfica 1b) hace que el error de medida
sea menor cuanto más próxima esté la señal a medir al fondo de escala. Por otra parte, el
error de suelo (gráfica 1c) sólo es apreciable para las medidas de muy baja tensión. Los
errores secundarios y terciarios (gráficas 2 y 3) deben considerarse siempre, pues en
ocasiones pueden ser incluso más importantes que los primarios.

www.guemisa.com
4. Incertidumbre de una medida

Según el Vocabulario Internacional de Metrología, VIM, la incertidumbre de una


medida es una estimación que caracteriza el rango de valores en el cual se sitúa el
verdadero valor de una magnitud de medida (VIM 3.9, 1984)
Dado que los instrumentos de medida no son perfectos, siempre habrá incertidumbre sobre
la veracidad de las medidas que proporcionan. Cuando una balanza indica que el peso de
una persona es de 75 Kg, sabemos que no tenemos la certeza de que éste sea el peso real
de la persona. Dependiendo de la precisión y exactitud de la balanza podemos estimar que
el peso real está en un entorno más o menos próximo a 75 Kg.
Es por esto que los metrólogos recomiendan expresar una medida no sólo por un único
valor, sino por el intervalo de valores que con una alta probabilidad contiene el valor
verdadero de la magnitud. En el caso del ejemplo anterior, el verdadero peso de la persona
se encontrará probablemente dentro del intervalo [73 - 77] Kg. La notación que se
recomienda emplear para presentar este intervalo es (75 ± 2) Kg, es decir, (C ± i) donde C
es el valor central del intervalo e i la incertidumbre de la medida.

Para calcular con precisión la incertidumbre de una medida se debe tener en cuenta
todos los factores que afecten al proceso de medida. Generalmente, los factores más
importantes a considerar son:

1- Especificaciones del instrumento de medida


2- Método de medida. Por ejemplo, en la medida a dos hilos de una resistencia de 0,5 Ω,
se deberá tener en cuenta la propia resistencia de los dos hilos (ver figura 8). Esta
resistencia se puede medir (y ser, por ejemplo, de 0,1 Ω por hilo), pero la incertidumbre
en su medida afectará a la incertidumbre final en la medida de la resistencia de 0,5 Ω.
3- Condiciones ambientales. Que
influyen en las prestaciones del
equipo de medida 0,7 Ω
4- Operador. La contribución del
operador a la incertidumbre de la
0,5 Ω
medida es especialmente significativa 0,1 Ω
cuando debe realizar lecturas en
equipos analógicos (voltímetros de 0,1 Ω
agujas, lecturas sobre tubos de rayos
catódicos, etc.) El método de medida aporta incertidumbre al resultado final
Figura 8
El efecto de todos estos factores se
puede cuantificar y minimizar en un Laboratorio de Metrología. Allí se mantiene controlado
y prácticamente constante el entorno ambiental, se cuenta con equipos muy precisos y
periódicamente calibrados y, además, si existe variabilidad en la medida, se puede repetir n
veces la misma para hacer un análisis estadístico de los resultados obtenidos.
Sin embargo, cuando se trabaja en campo la situación es muy diferente. En campo no es
posible, o no es práctico, cuantificar con tanto rigor el efecto de cada uno de estos factores.
En este caso lo aconsejable es considerar sólo aquellos factores que aportan la mayor parte

www.guemisa.com
de la incertidumbre al resultado final de la medida. En efecto, si los factores que aportan
incertidumbre en una medida son independientes, la incertidumbre final de dicha medida se
calcula a partir de una suma cuadrática (raíz cuadrada de las componenetes al cuadrado), y
los términos más pequeños (aquellos que están en una proporción 1:4 con respecto al
mayor de los factores) son despreciables. Por ejemplo, si para medir una resistencia
eléctrica empleamos un multímetro cuya tolerancia es de ±0,4 Ω, y el método de medida
aporta una incertidumbre de ±0,1 Ω, este último factor es despreciable a efectos de cálculo
de incertidumbre, que podríamos aproximar a ±0,4 Ω.

5. Calibración de la instrumentación de medida. T.U.R.

Calibrar un instrumento de medida supone comparar sus mediciones con las de otro
instrumento de referencia o patrón, estableciendo la validez de las indicaciones del
instrumento en calibración frente al de referencia. Para que la calibración sea efectiva, es
necesario que la incertidumbre del
patrón sea menor que la incertidumbre
800 g del instrumento que se pretende
calibrar. Si se quiere calibrar una
Especificación
(1±0,1) Kg báscula de la que se especifica una
Especificación
± 100 g incertidumbre de ±100 g, con una
Peso real
900 g pesa patrón de 1 Kg que tiene
también una incertidumbre de ±100 g,
La báscula está dentro de especificaciones, pero la elevada
podría suceder que aunque la báscula
incertidumbre del patrón puede provocar su rechazo esté dentro de especificaciones, su
lectura fuera de 800 g. Esta
Figura 9
desviación de 200 g con respecto a la
lectura esperada de 1 Kg, nos haría rechazar el báscula por defectuosa (ver figura 9). La
relación entre la incertidumbre del equipo a calibrar y la incertidumbre del patrón, calculadas
ambas para el mismo nivel de confianza, recibe el nombre de T.U.R. (Test Uncertainty
Ratio).

incertidumbre del equipo a calibrar


T.U.R. =
incertidumbre del patron

Para garantizar una calibración certera, el T.U.R. debe ser por lo menos de 4, aunque
este valor puede variar dependiendo de los requerimientos de fiabilidad. En efecto,
estadísticamente se puede demostrar que con un T.U.R. de 4, la probabilidad de dar por
válido un equipo que realmente está fuera de especificaciones es tan solo del 0,15%.
La relación T.U.R. proporciona un buen criterio de partida a la hora de seleccionar el
instrumento adecuado para una medida.

www.guemisa.com
6. Conclusiones

Las especificaciones de los equipos de instrumentación pueden presentarse de muy


diferentes formas pero, en cualquier caso deberán ser, por una parte, lo suficientemente
completas para poder anticipar la aptitud del instrumento en las diferentes condiciones de
uso y, por otra, fáciles de usar e interpretar.
La precisión y exactitud de un instrumento de medida determinan cuantitativamente su
comportamiento, aunque estas especificaciones sólo se detallan en los equipos de medida
de más altas prestaciones. El comportamiento global de un conjunto de equipos se presenta
en términos de tolerancia. El fabricante puede expresar la tolerancia como el error máximo
posible en cualquiera de los instrumentos de un mismo lote o modelo, aunque habitualmente
especifica la tolerancia en términos del comportamiento estadístico de las muestras
seleccionadas durante el control de calidad de su producción.
El resultado de una medida se debe expresar mediante un intervalo que a priori pueda
contener su verdadero valor con una cierta probabilidad. El intervalo se define en términos
de incertidumbre de la medida, siendo esta incertidumbre un valor que se puede acotar
tanto más cuanto mejor se cuantifiquen todos los factores que intervienen en el proceso de
medida. En este sentido se han promulgado recomendaciones y normativas (INC-1 1980,
WECC-19, etc.) que sirven de guía para la expresión de la incertidumbre. Estas normativas
son aplicables tanto al entorno controlado de un laboratorio, donde se puede incluso repetir
una medida para realizar un análisis estadístico de los datos obtenidos, como al entorno
mucho más variable de una planta industrial, donde generalmente contaremos sólo con una
medida y las especificaciones del instrumento para estimar la incertidumbre. En este último
caso es conveniente contar con equipos especialmente diseñados para medir en campo, con
especificaciones válidas para diferentes condiciones ambientales y de medida.
A la hora de calibrar o verificar un instrumento de medida es necesario emplear un
patrón con al menos una incertidumbre cuatro veces inferior a la propia del equipo a
calibrar (T.U.R.= 4). De esta forma prácticamente evitaremos que equipos que estén fuera
de especificaciones sean dados como buenos. Esta proporción es especialmente
recomendable en las calibraciones hechas en campo a partir de una sola medida.

www.guemisa.com

También podría gustarte