1 votos

Desviación típica de una proporción

Es fácil explicar por qué la desviación típica de un conjunto de datos se calcula como se calcula. Si se puede calcular una media, ésta es, en cierto sentido, simplemente una desviación media de cada puntuación con respecto a la media de todas las puntuaciones (sí, ya sé que desviación media y desviación típica no son lo mismo). La desviación típica de una proporción es más difícil de entender intuitivamente. ¿Por qué multiplicar p por (1-p)? ¿Qué sentido tiene? ¿Es análogo a la idea de desviación media, tan evidente en la fórmula de desviación típica utilizada para un conjunto de puntuaciones? Si es así, ¿cómo?

1voto

Gregg H Puntos 251

La explicación intuitiva de $p$ y $(1-p)$ puede no explicarse mejor utilizando una analogía con la media aritmética (no es imposible, sólo digo que puede no ser el camino más fructífero).

Si aceptamos que existe algún valor para la varianza (desviación típica) cuando muestreamos proporciones, entonces estamos diciendo que existe alguna medida de dispersión para $p$ éxitos. Pero, por cada $p$ éxitos, hay $q=1-p$ fallos. Por lo tanto, la medida de la dispersión para los dos debería ser la misma. (Para cada valor observado $\hat{p}$ de $p$ la distancia entre ambos será la misma que la distancia entre $\hat{q}$ de $q$ .... por lo que la dispersión de los valores debería ser la misma).

Por lo tanto, si no hay diferencia en la medida de la dispersión para $p$ y $1-p$ la fórmula debe ser simétrica. (Además, una representación visual de los histogramas de las muestras de $p$ y $q$ también mostraría esta simetría).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X