En resumen, tengo una colección de unos 30 scripts que manipulan conjuntos de datos y los colocan en una base de datos. Estos scripts reportan sus tiempos de ejecución así como cualquier error que ocurra a una base de datos separada. Escribí otro script que recorre esta base de datos diariamente y para cada script determina si se produjo un error. También comprueba el tiempo de ejecución de cada script 30 días atrás y los promedia.
Tomo el tiempo de ejecución del actual script y veo si es mayor de 3 desviaciones estándar que la media. Si lo es, informo de que el tiempo de ejecución está demasiado lejos de la media.
¿Es éste el método correcto para realizar dicha tarea? Tengo la impresión de que obtengo demasiados errores de "tiempo de funcionamiento demasiado alejado de la media". ¿Aumentar el tamaño de la muestra ayudaría, o no se aplica la regla de las 3 desviaciones estándar? Suponía que el 99% de los datos se encontraban dentro de las 3 desviaciones estándar y que una forma fiable de detectar los valores atípicos (un script que tardó mucho tiempo en ejecutarse) sería utilizar este método.