Es fácil explicar por qué la desviación típica de un conjunto de datos se calcula como se calcula. Si se puede calcular una media, ésta es, en cierto sentido, simplemente una desviación media de cada puntuación con respecto a la media de todas las puntuaciones (sí, ya sé que desviación media y desviación típica no son lo mismo). La desviación típica de una proporción es más difícil de entender intuitivamente. ¿Por qué multiplicar p por (1-p)? ¿Qué sentido tiene? ¿Es análogo a la idea de desviación media, tan evidente en la fórmula de desviación típica utilizada para un conjunto de puntuaciones? Si es así, ¿cómo?
Respuesta
¿Demasiados anuncios?La explicación intuitiva de $p$ y $(1-p)$ puede no explicarse mejor utilizando una analogía con la media aritmética (no es imposible, sólo digo que puede no ser el camino más fructífero).
Si aceptamos que existe algún valor para la varianza (desviación típica) cuando muestreamos proporciones, entonces estamos diciendo que existe alguna medida de dispersión para $p$ éxitos. Pero, por cada $p$ éxitos, hay $q=1-p$ fallos. Por lo tanto, la medida de la dispersión para los dos debería ser la misma. (Para cada valor observado $\hat{p}$ de $p$ la distancia entre ambos será la misma que la distancia entre $\hat{q}$ de $q$ .... por lo que la dispersión de los valores debería ser la misma).
Por lo tanto, si no hay diferencia en la medida de la dispersión para $p$ y $1-p$ la fórmula debe ser simétrica. (Además, una representación visual de los histogramas de las muestras de $p$ y $q$ también mostraría esta simetría).