Supongamos que medimos el error del clasificador en un conjunto de pruebas y obtenemos una determinada tasa de éxito, por ejemplo, el 75%. Ahora, por supuesto, esto es sólo una medida. ¿Cómo calcular el "verdadero" porcentaje de éxito? Seguro que se aproxima al 75%, pero ¿en qué medida?
Entiendo que está relacionado con los intervalos de confianza pero ahora estoy perdido en los intervalos de confianza. Creo que mi ejemplo es similar a esta en wikipedia en el que se estudia la distribución del peso de los vasos de margarina. (Lo siento, las matemáticas no se reproducen aquí, por lo que he creado una captura de pantalla - también es posible que desee hojear el correspondiente sección en el artículo de la wikipedia).
Tengo las siguientes preguntas:
- ¿Por qué utilizan la fórmula del error estándar anterior?
- ¿De dónde sale este ^{-1}(0,975)=1,96?
- Para resolver mi problema de "tasa de éxito real", ¿debo repetir la estimación N veces y luego aplicar el mismo razonamiento que se hace con los vasos de margarina?