Aquí hay un ejemplo reproducible utilizando R, donde me di cuenta de que la adición de un valor de peso uniforme a un glmm, el AIC de los modelos siguen siendo los mismos, pero Pseudo R^2 se reduce mucho. ¿Por qué?
require(lme4)
require(MuMIn)
data<-sleepstudy #Load data.
weight<-rep(470,180) #I create a uniform variable that will be the weight.
newdata<-cbind(sleepstudy,weight)
m1<-lmer(data=newdata,formula=Reaction~Days+(1|Subject)) # Run normal model without weights
m2<-lmer(data=newdata,formula=Reaction~(1|Subject)) # Run null model without weights
anova(m1,m2) #Compare models and check AIC.
r.squaredGLMM(m1) #Check Pseudo R^2
r.squaredGLMM(m2)
m3<-lmer(data=newdata,formula=Reaction~Days+(1|Subject),weights=weight) #Run models with weights.
m4<-lmer(data=newdata,formula=Reaction~(1|Subject),weights=weight)
anova(m3,m4)
r.squaredGLMM(m3)
r.squaredGLMM(m4)
Cuando añado pesos (por ejemplo, asumo que hay un nivel máximo de "Reacción"), el AIC de los modelos permanece invariable PERO R^2 baja abruptamente. Lo mismo ocurre con un conjunto de datos que tengo. Ejecuto los modelos utilizando una distribución binomial (la variable dependiente es una proporción) y al añadir pesos, R^2 se destruye. ¿Alguien sabe por qué ocurre esto y/o cómo superar este problema (es decir, entender por qué mis datos ahora no explican casi la varianza de la variable dependiente)?