Precisión y exactitud

La exactitud indica los resultados de la proximidad de la medición con respecto al valor verdadero, mientras que la precisión con respecto a la repetibilidad o reproductibilidad de la medida.

En ingeniería, ciencia, industria y estadística, exactitud y precisión no son equivalentes.[1]

Precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella. Es importante resaltar que la automatización de diferentes pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha automatización, lo que logramos es una disminución de los errores manuales o su corrección inmediata. No hay que confundir resolución con precisión.

Exactitud se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacta es una estimación. Cuando se expresa la exactitud de un resultado, se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero.

Definición común

En los campos de ciencia, ingeniería y estadística, la exactitud de un sistema de medición representa el grado de acercamiento de las medidas de una cantidad al verdadero valor de esa cantidad.[3] Aunque las dos palabras; precisión y exactitud pueden pareces sinónimas en el lenguaje coloquial, tienen un significado deliberadamente contrastante en el uso del método científico.

Un sistema de medición puede ser exacto, pero no preciso; preciso, pero no exacto; ninguna de las dos cosas; o ambas.

Por ejemplo, si un experimento contiene un error sistemático, al aumentar el tamaño muestral, generalmente mejora la precisión; pero no lo hace la exactitud. El resultado del experimento sería entonces una cadena consistente de resultados, aunque inexactos. La eliminación de errores sistemáticos mejora la exactitud, pero no influye en la precisión.

Un sistema de medición se considera válido si se comporta de ambas maneras, exacta y precisa. Otros términos relacionados son bias o sesgo (efectos unidireccionales en las mediciones causados por un factor o una serie de factores no relacionados con la variable independiente), y variabilidad o simplemente error que refiere a la variabilidad aleatoria.

La terminología también es aplicable a mediciones indirectas. Esto es, a valores obtenidos por procedimientos computacionales sobre datos observados.

Además de exactitud y precisión, las mediciones pueden también tener resolución, la que se define como el cambio más pequeño en la magnitud física que se está midiendo que es capaz de producir una respuesta en la medición.

En análisis numérico, la exactitud es también la cercanía de un cálculo al verdadero valor; mientras que precisión es la resolución de la representación, típicamente definida por el número de dígitos decimales o binarios.

La literatura estadística prefiere el uso de los términos sesgo y variabilidad, en lugar de exactitud y precisión: el sesgo es la cantidad de inexactitud y la variabilidad la cantidad de imprecisión.

Other Languages