Esas cifras son residuos de desviación .
$$r_{d_i} = \operatorname{sign}(y_i -\hat{\mu_i}) \sqrt{d_i}$$
donde $d_i$ es la contribución de las observaciones individuales al desviación .
NO son como los residuos de la regresión ordinaria, que serían $y_i -\hat{\mu_i}$
Conceptualmente, los residuos de Pearson se asemejan más a la noción de un residuo de regresión: una escala $y_i -\hat{\mu_i}$ .
Sin embargo, los residuos de Pearson pueden tender a estar bastante sesgados en los GLM y tener otros problemas, mientras que los residuos de desviación tienden a ser más normales.
El glm
en R devuelve una función que define $d_i$ para cada modelo.
Por ejemplo, 1
utils::data(anorexia, package="MASS")
anorex.1 <- glm(Postwt ~ Prewt + Treat + offset(Prewt),
family = gaussian, data = anorexia)
anorex.1$family$dev.resids
function (y, mu, wt)
wt * ((y - mu)^2) #<---- d(i) for a gaussian model
<bytecode: 0x0bef2398>
<environment: 0x0d214114>
Por ejemplo, 2
clotting <- data.frame(
u = c(5,10,15,20,30,40,60,80,100),
lot1 = c(118,58,42,35,27,25,21,19,18),
lot2 = c(69,35,26,21,18,16,13,12,12))
glm(lot1 ~ log(u), data=clotting, family=Gamma)$family$dev.resids
function (y, mu, wt)
-2 * wt * (log(ifelse(y == 0, 1, y/mu)) - (y - mu)/mu) #<- d(i) for Gamma model
<bytecode: 0x0cd3d11c>
<environment: 0x0cd3fd94>
0 votos
En caso de que no lo sepas, puedes ver todos los residuos utilizando
model$residuals
.0 votos
resid(model)
es preferible amodel$residuals
. Algunas veces serán iguales y otras no.