He derivado los siguientes datos de tiempo de respuesta para una prueba de rendimiento que estoy ejecutando:
Mínimo - 8seg Máximo - 284seg Promedio - 28seg Desviación Estándar - 27seg
¿Qué dice la desviación estándar acerca de la distribución de datos de tiempo de respuesta? Cuando se menciona una desviación estándar baja/alta, ¿qué significa esto realmente? ¿Es en comparación con el Promedio/Mínimo/Máximo?
Sé qué es la desviación estándar y cómo se calcula. Simplemente no estoy seguro de cómo determinar si es alta o baja.
0 votos
"Sé lo que es la desviación estándar". Hmm ... si sabes lo que es la desviación estándar, deberías saber que es una medida de dispersión de datos ...
1 votos
Sí, lo que me confunde es cómo saber si una desviación estándar es alta o baja. Los ejemplos que he leído hasta ahora no han dicho qué la hace alta o baja.
3 votos
¿No son términos como "alto" o "bajo" simplemente una cuestión de juicio subjetivo? Los datos que tienes parecen sugerir que el tiempo es, muy aproximadamente, de 28 segundos +/- 27 segundos, por lo que en un sentido muy ingenuo esperas que los resultados generalmente caigan entre 1 segundo y 60 segundos. Diría que es una desviación bastante alta, pero supongo que depende de la característica de un problema.