El libro de texto da un ejemplo de comprobación de una hipótesis nula de que al lanzar un dado 100 veces se obtiene un valor de $6$ , $\frac{1}{6}$ tiempos. En el experimento, se lanzó un dado 100 veces y 30 de ellas fueron $6$ 's.
El libro obtiene un $z$ puntúa para ello con la fórmula $$\frac{\bar{x}- \mu}{ \sqrt{ \frac{p(1-p)}{100}}} = \frac{.30- .167}{ \sqrt{ \frac{.167(1-.167)}{100}}} $$ .
Entiendo que $\sqrt{ \frac{0.167(1-0.167)}{100}}$ debe ser la desviación estándar de la media de la muestra (díganme si me equivoco), pero ¿cómo obtuvieron $0.167(1-0.167)$ como la varianza?
¿De dónde salió esa fórmula?