16 votos

Si "Error estándar" e "Intervalos de confianza" miden la precisión de la medición, ¿cuáles son las medidas de exactitud?

En el libro "Biostatistics for dummies" en la página 40 leí:

El error estándar (abreviado como EE) es una forma de indicar qué tan precisa es su estimación o medición de algo.

y

Los intervalos de confianza proporcionan otra forma de indicar la precisión de una estimación o medición de algo.

Pero no se menciona nada sobre cómo indicar la precisión de la medición.

Pregunta: ¿Cómo se puede indicar cuán precisa es la medición de algo? ¿Qué métodos se utilizan para eso?


No confundir con la exactitud y precisión de la prueba: https://en.wikipedia.org/wiki/Accuracy_and_precision#In_binary_classification

0 votos

¿Estás preguntando sobre la precisión de un único parámetro o la precisión de un modelo en general?

0 votos

La precisión se ve afectada por errores sistemáticos (o sesgo)

0 votos

@Aksakal y precisión con error aleatorio?

19voto

Matt Puntos 588

La precisión puede estimarse directamente a partir de tus puntos de datos, pero la exactitud está relacionada con el diseño experimental. Supongamos que quiero encontrar la altura promedio de los hombres estadounidenses. Dado una muestra de alturas, puedo estimar mi precisión. Sin embargo, si mi muestra proviene de todos los jugadores de baloncesto, mi estimación será sesgada e inexacta, y esta inexactitud no puede identificarse a partir de la muestra en sí misma.

Una forma de medir la exactitud es realizando la calibración de tu plataforma de medición. Al utilizar tu plataforma para medir una cantidad conocida, puedes probar de manera confiable la precisión de tu método. Esto podría ayudarte a encontrar el sesgo de medición, por ejemplo, si tu cinta métrica para el ejemplo de la altura estuviera faltando una pulgada, reconocerías que todas tus muestras de calibración leen una pulgada demasiado corta. Sin embargo, no ayudaría a solucionar tu problema de diseño experimental.

2 votos

+1..además, puede haber sesgo en la metodología de estimación, independientemente del plan de muestreo...puedes tener una idea de esto usando el bootstrapping. Un buen ejemplo es el $s=\sqrt{\frac{\sum (x_i-\bar x)^2}{n}}$ (que tiene un sesgo bajo, especialmente para muestras pequeñas).

3voto

Aksakal Puntos 11351

La precisión está determinada por los errores aleatorios, y la exactitud se define por los errores sistemáticos. La precisión a menudo puede incrementarse con ensayos repetidos aumentando el tamaño de la muestra. La exactitud no se puede arreglar recolectando más datos de la misma medición porque el error sistemático no desaparecerá.

El error sistemático conduce a un sesgo en la media y no puede ser determinado o corregido dentro del mismo experimento. Considera esto: el punto entero de tu experimento a menudo radica en detectar el efecto, como la desviación de cero. Mides la significancia al comparar la desviación con el error estándar, ¡pero esa desviación puede en sí ser un sesgo (error sistemático)! Por eso el error sistemático es el peor tipo de error en las ciencias físicas.

En física, por ejemplo, se supone que debes determinar el sesgo (error sistemático) fuera de tu experimento, y luego corregirlo en tus mediciones. Curiosamente, en el campo de pronósticos económicos el mayor problema son los cambios de la media, que es básicamente equivalente al error sistemático o sesgo en las ciencias físicas.

Puedes recordar cuánta vergüenza causó el error sistemático a los chicos de OPERA que "detectaron" neutrinos moviéndose más rápido que la luz. Ellos no tuvieron en cuenta una serie de fuentes de errores sistemáticos, y tuvieron que retirar la conclusión. Después de todo, los neutrinos no superan la velocidad de la luz, ¡qué decepción!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X