Investigacion de Laboratorio

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

Qué es Precisión:

Precisión es la delimitación de un concepto, variable o medida con errores mínimos.

Precisión deriva del latín praecisio que indica algo que está bien cortado y delimitado.

En el sentido filosófico, la precisión es la abstracción mental que separa y define conceptos


con el fin de diferenciarlos de otros. Por ejemplo, la diferencia entre libertad y libertinaje
tiene una base similar pero la libertad se limita en el respeto por los otros mientras que el
libertinaje se define por el abuso de la libertad.

Precisión se refiere a la ejecución de algo de la forma que fue planeada como, por ejemplo,
la precisión militar. También puede usarse para referirse a un objeto que ejecuta
exactamente de la forma deseada como, por ejemplo, una navaja de precisión o una balanza
de precisión.

https://www.significados.com/precision/

Precisión

En ingeniería, ciencia, industria y estadística, se denomina precisión a la capacidad de un


instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas
condiciones o de dar el resultado deseado con exactitud. Esta cualidad debe evaluarse a
corto plazo. No debe confundirse con exactitud ni con reproducibilidad.

La precisión refleja la proximidad de distintas medidas entre sí, y es función exclusiva de


los errores accidentales.1

Es un parámetro relevante, especialmente en la investigación de fenómenos físicos, ámbito


en el cual los resultados se expresan como un número más una indicación del error máximo
estimado para la magnitud. Es decir, se indica una zona dentro de la cual está comprendido
el verdadero valor de la magnitud.

En informática, se denomina asimismo precisión al número de bits usados para representar


un valor. En general, en un sistema computacional la precisión está dada por el valor del
dígito menos significativo de una palabra digital que representa un número con una escala y
en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos
valores sucesivos representables en el tipo de dato y escala del número.

https://es.wikipedia.org/wiki/Precisi%C3%B3n
Qué es Exactitud:

Exactitud es la cualidad de ajustarse o acercarse a lo que se considera verdadero.

La palabra exactitud deriva del latín exactus que significa algo puntual, y lleva el sufijo -tud
que indica cualidad.

La exactitud es una definición correcta y verdadera de algo. Por ejemplo, “Los expertos
definieron con exactitud las consecuencias de la crisis”.

En las ciencias, la exactitud se refiere a la cercanía que los resultados medidos tienen con
respecto al valor de referencia, denominada valor real. Como ejemplo, podemos considerar
que la exactitud es la cercanía que un dardo está del blanco.

En todo proyecto de investigación, basados en el método científico, se debe recoger una


cantidad de datos y resultados suficientes para corroborar la exactitud de la hipótesis
planteada.

Sinónimos de exactitud son similitud, correspondencia, veracidad, certeza, puntualidad.

https://www.significados.com/exactitud/

¿Qué es exactitud?

Exactitud indica el grado de cercanía o proximidad entre un valor medido, o una serie de
valores observados, con el valor real de alguna cosa. Así, la exactitud aumenta cuanto más
cerca se encuentre una medición de un objeto con la medida real de dicho objeto.

De la misma forma, la exactitud se relaciona con la cercanía a un punto de referencia u


objetivo determinado.

La exactitud depende de la calibración de los instrumentos de medición. Mientras mejor


estén calibrados, menos es el margen de error y más exacto es el instrumento.

https://www.diferenciador.com/diferencia-entre-exactitud-y-precision/

Exactitud

En ingeniería, ciencia, industria y estadística, se denomina exactitud a la capacidad de un


instrumento de acercarse al valor de la magnitud real. La exactitud es diferente de la
precisión.
La exactitud depende de los errores sistemáticos que intervienen en la medición, denotando
la proximidad de una medida al verdadero valor y, en consecuencia, la validez de la
medida.

Suponiendo varias mediciones, no estamos midiendo el error de cada una, sino la distancia
a la que se encuentra la medida real de la media de las mediciones (cuán calibrado está el
aparato de medición).

Esta cualidad también se encuentra en instrumentos generadores de magnitudes físicas,


siendo en este caso la capacidad del instrumento de acercarse a la magnitud física real.

Exactitud es la cercanía del valor experimental obtenido, con el valor exacto de dicha
medida. El valor exacto de una magnitud física es un concepto utópico, ya que es imposible
conocerlo sin incertidumbre alguna.

Por ejemplo, si leemos la velocidad del velocímetro de un auto, esta tiene una precisión de
3 cifras significativas y una exactitud de 5 km/h.

Desde la aparición de la Guia para expresar incertidumbres de medida (GUM: JCGM-100


de la BIPM) algunos de los conceptos anteriores han sido revisados y el "error absoluto" no
se considera medible ni estimable, desaconsejándose el uso de dicho término, pues el
mensurando en ninguna manera puede ser conocido. Ver Incertidumbre (metrología)

https://es.wikipedia.org/wiki/Exactitud

La apreciación de un instrumento de medición

La apreciación (o sensibilidad) de un instrumento de medición es la menor medida exacta


que se puede tomar con él.

La apreciación (a) de un calibre pie de rey, se define como la relación entre la menor
división de la regla fija por el número de divisiones del nonius.

a = Valor de la menor división de la regla fija / Nº de divisiones del nonius.

https://ikastaroak.ulhi.net/edu/es/DFM/TFM/TFM02/es_DFM_TFM02_Contenidos/websit
e_132_clculo_de_la_apreciacin.html

¿Qué es la apreciación de un instrumento de medición?

La apreciación de cualquier instrumento de medida es el valor de la menor división de su


escala.
En una regla milimetrada, la apreciación es 1 mm

En una balanza de precisión la apreciación puede ser de 0,001 g

https://brainly.lat/tarea/1027067

ERROR ABSOLUTO, ERROR RELATIVO.

Bien sea una medida directa (la que da el aparato) o indirecta (utilizando una fórmula)
existe un tratamiento de los errores de medida. Podemos distinguir dos tipos de errores que
se utilizan en los cálculos:

Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacto.
Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta
sale positiva o negativa). Tiene unidades, las mismas que las de la medida.

Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se
multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto
puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o
por defecto. no tiene unidades.

https://sites.google.com/site/khriztn/1-3/1-3-1

Error absoluto

El error absoluto de una medida (εa) es la diferencia entre el valor real de la medida (X) y
el valor que se ha obtenido en la medición (Xi). 

εa= X−Xi

El error absoluto puede ser un valor positivo o negativo, según si la medida es superior al
valor real o inferior y además tiene las mismas unidades que las de la medida.

Error relativo

Es el cociente entre el error absoluto y el valor que consideramos como exacto (la media).
Al igual que el error absoluto puede ser positivo o negativo porque puede se puede
producir por exceso o por defecto y al contrario que él no viene acompañado de unidades. 

εr=εaX

De igual forma, se puede multiplicar por 100 obteniéndose así el tanto por ciento (%) de
error.
εr=εaX ⋅100 %

https://www.fisicalab.com/apartado/errores-absoluto-relativos

ERRORES INSTRUMENTALES

Referentes a los defectos de los instrumentos. Las fallas de los instrumentos se pueden


verificar con la estabilidad y la reproducibilidad. Para evitar estos errores, el usuario debe
tomar precauciones antes de usar el instrumento o comparar con otro instrumento de las
mismas características.

https://instrumentacionelectronicai.wordpress.com/tag/error-instrumental/

Errores Instrumentales

La precisión de un instrumento de medición se llama "error instrumental". Debido a que el


error instrumental tiene un efecto en las variaciones de los valores medidos, es
absolutamente necesario comprobar problemas a través de una inspección periódica
(calibración periódica).

https://www.keyence.com.mx/ss/products/measure-sys/measurement-
selection/environment/periodic.jsp

Errores determinados e indeterminados.

El problema que se plantea desde el punto de vista práctico es atribuir correctamente los
correspondientes errores absolutos a las medidas y a los datos que se emplean para el
cálculo y posteriormente calcular el error absoluto que debe atribuirse al resultado.

Conviene señalar aquí que los errores que aparecen se pueden clasificar en dos grupos lo
que nos permitirán hacer un tratamiento para cada uno de ellos.

http://metodos.fam.cie.uva.es/ftao/optica/Practicas/errores/2

Errores determinados

Los errores determinados son aquellos que pueden atribuirse a causas definidas, como
fallas en los materiales o equipos, impurezas en las substancias y reactivos, propiedades
físicas o químicas no consideradas en las muestras, o cambios físicos inducidos a éstas
últimas, como sobrecalentamiento.

Estos errores suelen ser predecibles y reproducibles. Se pueden clasificar en: Sistemáticos,
cuando el método refleja las propiedades químicas de los componentes del sistema de
análisis. Operativos, que son causados por ineptitud del analista. Instrumentales, si son
provocados por fallas o averías en los aparatos y equipos de medición.
Errores indeterminados

Los errores indeterminados son provocados por variaciones aleatorias o fortuitas que
pueden variar dependiendo del analista observador, siendo mayores en el inexperto o
descuidado y menores en el experimentado y meticuloso. También pueden originarse en
factores ambientales no controlables, impredecibles o imperceptibles por el analista, por lo
que parecen fluctuaciones al azar. En realidad son causadas por el ruido estático en
instrumentos eléctricos y electrónicos, o vibraciones mecánicas (sísmicas o tectónicas) o
corrientes de viento en instrumentos mecánicos, como balanzas o buretas.

https://es.slideshare.net/chemistrylugobobe/determinacin-de-errores

Cuando se realiza una medición, ¿cómo se evitan los errores de paralaje?

Cómo evitar el error de paralaje

El error de paralaje se produce cuando la medida de la longitud de un objeto es mayor o


menor que la longitud verdadera debido a que el ojo está siendo colocado en un ángulo a
las marcas de medición con respecto al objeto. Por ejemplo, una persona que está viendo el
velocímetro de un auto desde el asiento del conductor obtendrá una lectura precisa porque
tiene una línea de visión directa. Una persona que está viendo el velocímetro desde el
asiento del pasajero va a sobrestimar la lectura debido al ángulo entre el ojo, el velocímetro
y la flecha.

Orienta tu línea de visión directamente por encima de la marca de medición de manera que
una línea vertical imaginaria conecte el ojo, la marca y el objeto. El error de paralaje es
causado principalmente por ver el objeto en un ángulo oblicuo con respecto a la escala, lo
que hace que el objeto parezca estar en una posición diferente en la escala.

Coloca el dispositivo de medición sobre su borde, de manera que esté a nivel con el objeto
a medir. Si la medida de marcado está por encima o por debajo del objeto, éste magnificará
cualquier error de paralaje causado por la línea de visión al estar en un ángulo con respecto
al marcado.

Utiliza el mejor borde posible del dispositivo de medición o utiliza un dispositivo con
bordes más finos. Un borde más ancho permite un mayor error de paralaje debido a que el
objeto podría ser superior o inferior con respecto a la verdadera medición de marcado.

Pide a otras personas que tomen medidas. Debido a que el error de paralaje es un tipo de
error aleatorio, se puede promediar varias lecturas tomadas por diferentes personas para
cancelar la mayor parte del ángulo de paralaje. Es probable que algunas lecturas tengan un
error de paralaje positivo y otras tendrán un error negativo. El promedio de estas lecturas
estará más cerca de la verdadera medición.

https://www.geniolandia.com/13133965/lectura-con-el-calibrador-de-vernier

Cómo prevenir el error de paralaje

El error de paralaje se produce cuando la medida de la longitud de un objeto es mayor o


menor que la longitud real debido a que su ojo está colocado en ángulo con respecto a las
marcas de medición. por ejemplo, una persona que ve el velocímetro de un automóvil desde
el asiento del conductor obtendrá una lectura precisa porque tiene una línea de visión
directa. una persona que vea el velocímetro desde el asiento del pasajero sobreestimará la
lectura debido al ángulo entre su ojo, el medidor y la flecha.

Oriente su línea de visión directamente sobre la marca de medición en una regla o


dispositivo similar para que una línea vertical imaginaria conecte su ojo, la marca y el
objeto. el error de paralaje se debe principalmente al ver el objeto en un ángulo oblicuo con
respecto a la escala, lo que hace que el objeto parezca estar en una posición diferente en la
escala.

Coloque el dispositivo de medición en su borde para que esté nivelado con el objeto que se
está midiendo. Si la marca de medición está por encima o por debajo del objeto, aumentará
cualquier error de paralaje causado por su línea de visión en ángulo con respecto a la
marca.

Busque el borde más fino posible del dispositivo de medición, o use un dispositivo con
bordes más finos. un borde más ancho permite un mayor error de paralaje porque el objeto
podría ser más alto o más bajo con respecto a la marca de medición real.

Coloque su ojo al nivel de la marca de medición apropiada cuando mida el nivel de un


líquido en un cilindro graduado. lea la parte inferior de la superficie curva del líquido, el
menisco, para obtener una medición precisa y evitar errores de paralaje.

Pedir a otras personas que tomen medidas. Debido a que el error de paralaje es un tipo de
error aleatorio, puede promediar múltiples lecturas tomadas por diferentes personas para
cancelar la mayor parte del ángulo de paralaje. es probable que algunas lecturas tengan un
error de paralaje positivo y otras que tengan un error negativo. El promedio de estas
lecturas será más cercano a la medida real.

También podría gustarte