Precisión y Exactitud
Precisión y Exactitud
Precisión y Exactitud
Ir a la navegaciónIr a la búsqueda
La exactitud indica la proximidad de los resultados de la medición con respecto al valor verdadero,
mientras que la precisión indica la repetibilidad o reproductibilidad de la medida.
En ingeniería, ciencia, industria y estadística, exactitud y precisión no son
equivalentes.1
Precisión se refiere a la dispersión del conjunto de valores obtenidos de
mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la
precisión. Una medida común de la variabilidad es la desviación estándar de las
mediciones y la precisión se puede estimar como una función de ella. Es
importante resaltar que la automatización de diferentes pruebas o técnicas puede
producir un aumento de la precisión. Esto se debe a que con dicha
automatización, lo que logramos es una disminución de los errores manuales o su
corrección inmediata. No hay que confundir resolución con precisión.
Exactitud se refiere a cuán cerca del valor real se encuentra el valor medido. En
términos estadísticos, la exactitud está relacionada con el sesgo de una
estimación. Cuanto menor es el sesgo más exacta es una estimación. Cuando se
expresa la exactitud de un resultado, se expresa mediante el error absoluto que es
la diferencia entre el valor experimental y el valor verdadero.
Desde la aparición de la Guía para expresar incertidumbres de medida (GUM:
JCGM-100 de la BIPM) algunos de los conceptos anteriores han sido revisados y
el "error absoluto" no se considera medible ni estimable, desaconsejándose el uso
de dicho término, pues el mensurando en ninguna manera puede ser conocido.
Ver Incertidumbre (metrología)
Índice
1Definición común
2Ejemplo
3Cuantificación y estimación
4Definición según normas ISO (ISO 5725)
5En clasificación binaria
6Precisión y exactitud numérica
7Referencias
8Bibliografía
9Véase también
Definición común[editar]
En los campos de ciencia, ingeniería y estadística, la exactitud de un sistema
de medición representa el grado de acercamiento de las medidas de
una cantidad al verdadero valor de esa cantidad.2 La precisión de un sistema de
medición, se encuentra relacionado con la reproducibilidad y la repetibilidad; y se
define como el grado en que la repetición de una medición en las mismas
condiciones muestra los mismos resultados.23 Aunque las dos palabras; precisión
y exactitud pueden parecer sinónimas en el lenguaje coloquial, tienen un
significado deliberadamente contrastante en el uso del método científico.
Un sistema de medición puede ser exacto, pero no preciso; preciso, pero no
exacto; ninguna de las dos cosas; o ambas.
Por ejemplo, si un experimento contiene un error sistemático, al aumentar
el tamaño muestral, generalmente mejora la precisión; pero no lo hace la
exactitud. El resultado del experimento sería entonces una cadena consistente de
resultados, aunque inexactos. La eliminación de errores sistemáticos mejora la
exactitud, pero no influye en la precisión.
Un sistema de medición se considera válido si se comporta de ambas
maneras, exacta y precisa. Otros términos relacionados son bias o sesgo (efectos
unidireccionales en las mediciones causados por un factor o una serie de factores
no relacionados con la variable independiente), y variabilidad o
simplemente error que refiere a la variabilidad aleatoria.
La terminología también es aplicable a mediciones indirectas. Esto es, a valores
obtenidos por procedimientos computacionales sobre datos observados.
Además de exactitud y precisión, las mediciones pueden también tener resolución,
la que se define como el cambio más pequeño en la magnitud física que se está
midiendo que es capaz de producir una respuesta en la medición.
En análisis numérico, la exactitud es también la cercanía de un cálculo al
verdadero valor; mientras que precisión es la resolución de la representación,
típicamente definida por el número de dígitos decimales o binarios.
La literatura estadística prefiere el uso de los términos sesgo y variabilidad, en
lugar de exactitud y precisión: el sesgo es la cantidad de inexactitud y la
variabilidad la cantidad de imprecisión.
Ejemplo[editar]
Ejemplo de precisión y exactitud
Cuantificación y estimación[editar]
Véase también: Falsa precisión
En instrumentación industrial, la exactitud es la tolerancia de una medición, o
transmisión de un instrumento y define los límites de los errores cometidos cuando
el instrumento está funcionando en condiciones operativas normales. 4
En condiciones ideales, un instrumento de medición es tanto exacto como preciso,
con todas las mediciones agrupadas estrechamente en torno al verdadero valor.
La exactitud y precisión de un proceso de medición es, por lo general, establecido
por la medición repetida de alguna referencia trazable técnicamente
estandarizada. Estos estándares están definidos en el Sistema Internacional de
Unidades, y mantenidos por organizaciones de estandarización nacionales.
Lo mismo aplica cuando las mediciones repetidas se promedian; en este caso, el
término error estándar está apropiadamente aplicado. La precisión de la media es
igual a la desviación estándar conocida para el proceso dividida por la raíz
cuadrada del número de mediciones promediadas. Adicionalmente, el teorema
central del límite muestra que la distribución de probabilidad de las mediciones
promediadas se encuentra más cercana a una distribución normal que la de las
mediciones individuales.
Con respecto a la exactitud cabe distinguir:
De acuerdo a la norma ISO 5725-1, la exactitud está compuesta por la veracidad (proximidad de los
resultados al verdadero valor) y precisión (repetibilidad o reproducibilidad de la medición)
En clasificación binaria[editar]
La exactitud se utiliza también como una medida estadística de que tan bien una
prueba de clasificación binaria identifica correctamente o excluye una condición.
Esto es, la exactitud es la proporción de resultados verdaderos (tanto verdaderos
positivos (VP) como verdaderos negativos (VN)) entre el número total de casos
examinados (verdaderos positivos, falsos positivos, verdaderos negativos, falsos
negativos).7 Para dejar en claro el contexto por la semántica, a menudo se refiere
como "exactitud Rand" or "índice Rand".8910 Es un parámetro de la prueba.
Una exactitud del 100% significa que los valores medidos son exactamente los
mismos que los dados.
Por otro lado, la precisión o valor predictivo positivo se define como la proporción
de verdaderos positivos contra todos los resultados positivos (tanto verdaderos
positivos, como falsos positivos)
Referencias[editar]
0. ↑ Skoog, Douglas A. (2009). Principios de Análisis Instrumental (6 edición).
PARANINFO, S.A. p. 965. ISBN 9789-70686-829-9.
1. ↑ Saltar a:a b c JCGM 200:2008 International vocabulary of metrology — Basic and
general concepts and associated terms (VIM)
2. ↑ Taylor, John Robert (1999). An Introduction to Error Analysis: The Study of
Uncertainties in Physical Measurements. University Science Books. pp. 128-
129. ISBN 0-935702-75-X.
3. ↑ Creus, Antonio. Instrumentación Industrial[cita requerida]
4. ↑ BS ISO 5725-1: "Accuracy (trueness and precision) of measurement methods and
results - Part 1: General principles and definitions.", p.1 (1994)
5. ↑ BS 5497-1: "Precision of test methods. Guide for the determination of repeatability
and reproducibility for a standard test method." (1979)
6. ↑ Metz, CE (October 1978). «Basic principles of ROC analysis». Semin Nucl Med. 8 (4):
283-98.
7. ↑ «Copia archivada». Archivado desde el original el 11 de marzo de 2015. Consultado
el 2 de abril de 2016.
8. ↑ http://arxiv.org/pdf/1503.06410.pdf
9. ↑ «Copia archivada». Archivado desde el original el 4 de marzo de 2016. Consultado el
2 de abril de 2016.