6 votos

¿Cómo cuantificar la differencen entre 2/4 y 20/40?

Suponga que tiene dos métodos para hacer predicción. El primer método hace 4 predicciones y 2 de cada 4 son correctas. El segundo método hace 40 predicciones y 20 clientes de los 40 son correctos. Las precisiones de la predicción de ambos métodos son los mismos, que es 2/4=20/40=0.5. Pero creo que el segundo método es mejor que la primera, porque hace predicciones más correctas. ¿Hay una medida para cuantificar esto? Cualquier sugerencia puede ayudar:) Gracias de antemano.

9voto

Oli Puntos 89

Queremos estimar la probabilidad de éxito al hacer una predicción. Estamos utilizando el estimador $S/N$ donde $N$ es el número de ensayos y $S$ es el número de éxitos. En el caso de que usted describe, ambas estimaciones son $\frac{1}{2}$.

Sin embargo, la varianza del estimador de al $N=40$ $\frac{1}{10}$ los tiempos de la varianza cuando el estimador se basa en el $N=4$. O, equivalentemente, la desviación estándar del estimador al $N=40$ $\frac{1}{\sqrt{10}}$ veces la desviación estándar cuando se $N=4$. La estimación basada en la $40$ ensayos es más fiable que la estimación basada en la $4$ ensayos. La varianza (o desviación estándar) es una manera de cuantificar cuánto más fiable.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X