Sea LL = loglikelihood
Este es un resumen rápido de lo que se ve en la salida de summary(glm.fit),
Desviación nula = 2(LL(Modelo saturado) - LL(Modelo nulo)) en df = df_Sat - df_Null
Desviación residual = 2(LL(Modelo saturado) - LL(Modelo propuesto)) df = df_Sat - df_Proposed
El Modelo saturado es un modelo que asume que cada punto de datos tiene sus propios parámetros (lo que significa que tiene n parámetros que estimar).
El Modelo nulo asume exactamente lo "contrario", en el sentido de que asume un parámetro para todos los puntos de datos, lo que significa que sólo se estima un parámetro.
El Modelo propuesto asume que puedes explicar tus puntos de datos con p parámetros + un término de intercepción, por lo que tienes p+1 parámetros.
Si su Desviación nula es realmente pequeño, significa que el Modelo Nulo explica bastante bien los datos. Lo mismo ocurre con su Desviación residual .
¿Qué significa realmente pequeño? Si su modelo es "bueno", entonces su Desviación es aproximadamente Chi^2 con (df_sat - df_model) grados de libertad.
Si desea comparar su modelo nulo con su modelo propuesto, puede consultar
(Desviación nula - Desviación residual) aprox. Chi^2 con df Propuesto - df Nulo \= (n-(p+1))-(n-1)=p
¿Los resultados que has dado son directamente de R? Parecen un poco Impares, porque generalmente deberías ver que los grados de libertad reportados en la Nula son siempre mayores que los grados de libertad reportados en la Residual. Esto se debe a que, de nuevo, Null Deviance df = Saturated df - Null df = n-1 Desviación residual df = df saturado - df propuesto = n-(p+1)