Exactitud y precisión

Comparte en tus redes sociales.

Diferencias entre exactitud y precisión

¿Qué es la Exactitud?

La exactitud de una medición, se da en términos de inexactitud, y es aquella medida en la que sus lecturas tienen a una aproximación de un valor patrón o de un valor verdadero.

La exactitud, es entonces aquel grado llamado “conformidad” de ese valor patrón, o de ese valor ideal, considerándose como un valor verdadero.

Siendo entonces, aquel grado de conformidad una máxima desviación entre la curva de calibración del instrumento y entre una curva especificada, estando de tal manera de que llega al mínimo de dicha desviación máxima.

Por otro lado, la exactitud nos permite tener unos límites de errores cuando ese instrumento se emplea en unas condiciones normales durante un periodo de tiempo.

Hay varias maneras de expresar la exactitud, entre ellas están:

  1. En unidades de la variable que se mide, o sea de manera directa.
  2. Un porcentaje de la lectura afectada
  3. Tanto por ciento de un valor máximo en el campo de medida
  4. Un porcentaje de una longitud de escala
  5. Un porcentaje de alcance, en el campo de medida (un rango)

¿Cómo varia la exactitud?

La exactitud, puede variar en cada punto de medición del campo. Sin embargo, cada fabricante del instrumento especifica la margen que tiene de exactitud el instrumento.

Por ejemplo: en el manómetro, el fabricante dice que puede tener una exactitud de 1% de escala y de 0.5% en la zona central.

Si lo que se desea obtener es la máxima exactitud de un instrumento, se procede a calibrar únicamente en ese punto de trabajo, sin estar considerante los valores restantes de un campo de medida.

Ejemplo de exactitud:

Un termómetro de 0 a 150   y de 1% de exactitud, que está ubicando en un baño con una temperatura constante a 80 podría estar calibrado a ese valor, y su exactitud será la máxima que se puede adquirir en un termómetro patrón.

Con todo esto, lo que se pretende es que el instrumento, pueda tener un margen de seguridad para poder compensar aquellos efectos de apreciación de las personas que hacen la calibración.

Las diversas exactitudes de un instrumento de medición, tienen algunas alteraciones por el desplazamiento del instrumento de un punto al otro, o por efectos ambientales y de envejecimiento del mismo.

 

¿Qué es la precisión?

La precisión, es aquella en el que el instrumento tiende a dejar unas lecturas muy unidas con respecto a la otra, es decir, que su grado de dispersión es muy pequeño.

Un instrumento, por ejemplo puede tener una baja exactitud, pero podría tener una buena precisión.

Ejemplo de precisión:

Un manómetro de intervalos de medida entre 0 y 10 bar, presenta un error de cero marcando un 1 bar sin presión, y con lecturas de por ejemplo 6.048, 6.049, 6.050, 6.051 hechas en largo tiempo y con las mismas condiciones, para una presión de 5 bar, tendría un error de 1 bar.

Pero aquellos valores leídos estarían próximos entre ellos, y con una dispersión muy pequeña entre ellos, es decir. que ese instrumento tendría una gran precisión.

Por lo tanto, estos instrumentos de medición están diseñados por los fabricantes para que puedan ser precisión, y como periódicamente se des calibran, tienen que reajustarse para que puedan llegar a ser exactos también. A señales de que el termino “precisión” es sinónimo de repetibilidad.

 

CONTENIDOS MÁS RELEVANTES.

 

soy el administrador del sitio web. si tienes alguna duda, no dudes en contactarme

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *