Para entender el concepto intuitivamente, hágase la pregunta de por qué es necesario. Y comience desde una pregunta más simple, ¿por qué se calcula la varianza como $V = \frac 1 {N-1} \sum (x_i-\bar x)^2$ con un $N-1$ como denominador.
El hecho es que le interesa la varianza de la población, no la de la muestra. Ahora, obviamente la muestra está menos dispersa que la población (porque es muy probable que la muestra haya omitido algunos de los valores extremos), por lo que la varianza calculada en la muestra es menor que la de la población.
Hay que corregir el sesgo.
Intuitivamente, el promedio observado $\bar x = \frac 1 N \sum x_i$ no es exacto sino solo una aproximación de la media de la población. La varianza de esta aproximación debe sumarse a la varianza observada en la muestra para obtener la mejor aproximación de la muestra de la población. Ahora esta varianza se puede calcular: $\sigma^2(\bar X) = \frac 1 N \sigma^2(X)$ (usando el iid si los $X_i$). Por lo tanto, la varianza de la muestra es $1 -\frac 1 N$ la varianza de la población.
Formalmente (en caso de que necesite leer dos veces el razonamiento anterior), calcule el valor esperado de $\sum (X_i-\bar X)^2$. Encontrará $(N-1) \sigma^2$ en lugar de $N \sigma^2$, por lo tanto la varianza de la población es $\frac N {N-1}$ la varianza de la muestra (como se afirma).
Cuando siga los cálculos, comience reemplazando $\bar X$ con su definición $\bar X = \frac 1 N \sum X_i$, desarrolle los cuadrados, expanda la suma y luego un término desaparece. Es decir, $N\bar X=\sum X_i$ aparece dos veces con signos opuestos, negativo en el producto doble $2 \bar X X$ y positivo en el cuadrado $\bar X^2$. Entonces $\sum (X_i-\bar X)^2$ es la suma de $N-1$ términos iguales en expectativa.
Esto se debe a que los $X_i$ no son independientes sino que están vinculados por una relación $\sum X_i=N \bar X. En general, si se sabe que los $X_i$ están vinculados por $p$ relaciones lineales independientes $f_j$, entonces se pueden cancelar $p$ términos de la suma $\sum (X_i-f_j(X_i))^2$. Por lo tanto, el estimador no sesgado, $\sum (X_i-f_j(X_i))^2 \approx \frac N {N-p} \sum (x_i-f_j(x_i))^2$.
En la regresión, ANOVA, etc., las relaciones independientes no son tan independientes porque a menudo se supone que la suma de las variables independientes (causas) tiene el mismo promedio que la variable dependiente (efecto). $\sum a_i \bar X_i = \bar Y. Por lo tanto el grado de libertad $N-1$, $p-1$ y $N-p$ y los factores de corrección $\frac N {N-1}$, $\frac p {p-1}$ y $\frac N {N-p}$ para $SS_{Total}$, $SS_{Model}$ y $SS_{Error}$ respectivamente.
En pocas palabras, el grado de libertad es el número de relaciones independientes que vinculan un conjunto de variables, teniendo en cuenta la variable introducida para estimadores intermedios.
0 votos
En CV: stats.stackexchange.com/questions/16921/….