Suponga que tiene dos métodos para hacer predicción. El primer método hace 4 predicciones y 2 de cada 4 son correctas. El segundo método hace 40 predicciones y 20 clientes de los 40 son correctos. Las precisiones de la predicción de ambos métodos son los mismos, que es 2/4=20/40=0.5. Pero creo que el segundo método es mejor que la primera, porque hace predicciones más correctas. ¿Hay una medida para cuantificar esto? Cualquier sugerencia puede ayudar:) Gracias de antemano.
Respuesta
¿Demasiados anuncios?Queremos estimar la probabilidad de éxito al hacer una predicción. Estamos utilizando el estimador $S/N$ donde $N$ es el número de ensayos y $S$ es el número de éxitos. En el caso de que usted describe, ambas estimaciones son $\frac{1}{2}$.
Sin embargo, la varianza del estimador de al $N=40$ $\frac{1}{10}$ los tiempos de la varianza cuando el estimador se basa en el $N=4$. O, equivalentemente, la desviación estándar del estimador al $N=40$ $\frac{1}{\sqrt{10}}$ veces la desviación estándar cuando se $N=4$. La estimación basada en la $40$ ensayos es más fiable que la estimación basada en la $4$ ensayos. La varianza (o desviación estándar) es una manera de cuantificar cuánto más fiable.