Se discute mucho en este sitio por qué la suma de las desviaciones al cuadrado se divide por $n - 1$ al calcular la varianza o la desviación estándar de la muestra.
Una de las explicaciones que he oído al respecto es que "utilizamos" algunos de los datos para estimar la media de la población con la media de la muestra. Por lo tanto, eso costó 1 grado de libertad.
¿Puede alguien explicar, entonces, por qué, al calcular el error estándar de las proporciones de la muestra (como parte de la prueba z para 1 proporción poblacional) dividimos por $n$ y no $n - 1$ . El primer paso en ese proceso es calcular $\widehat{p}$ . Luego, el error estándar de las proporciones de la muestra se "construye" sobre la base de ese primer paso. Habría pensado que estimar la proporción poblacional con la proporción muestral nos habría costado 1 grado de libertad. Sé que cuando se cumplen los supuestos, las proporciones muestrales se distribuyen de forma normal (cuya forma no se rige por los grados de libertad), pero me queda la duda de por qué este cálculo (y francamente, el cálculo del error estándar de la media muestral) no es análogo al que hicimos para la desviación estándar muestral. ¿Por qué ambos errores estándar se calculan dividiendo por $n$ y no $n - 1$ ?