Un modelo multinivel, con una variable explicativa en el nivel individual (X) y una variable explicativa en el nivel de grupo (Z):
$$Y_{ij}=\gamma_{00}+\gamma_{10}X_{ij}+\gamma_{01}Z_{j}+\gamma_{11}X_{ij}Z_{j}+u_{0j}+u_{1j}X_{ij}+e_{ij}$$
correlation between $u_{0j}$ and $u_{1j}$ is $0$ . En Este pdf , está escrito en el p.90 que
El efecto de la interacción de estos simulado características se presentan en la tabla 4. Probado con un blockwise la corrección de Bonferroni, ninguna de las interacciones fueron estadísticamente significativas .
Pero me he encontrado con todos los efectos fijos $(\gamma_{00},\gamma_{10},\gamma_{01},\gamma_{11})$ y todos los efectos aleatorios $(u_{0j},u_{1j})$ estadísticamente significativas a excepción de los individuos a nivel residual$(e_{ij})$ .
Ahora mi pregunta es si todos ellos son insignificantes según el citado documento , cómo puede ser que el modelo sea válido ? Indicando todos aquellos insignificante , ¿qué es lo que implica ?
Cualquier ayuda es muy apreciada. Gracias .
EDITAR :
He encontrado todos los efectos fijos $(\gamma_{00},\gamma_{10},\gamma_{01},\gamma_{11})$ y todos los efectos aleatorios $(u_{0j},u_{1j})$ estadísticamente significativo de acuerdo a este post y los códigos se copian aquí :
simfun <- function(J,n_j,g00,g10,g01,g11,sig2_0,sig01,sig2_1){
N <- sum(rep(n_j,J))
x <- rnorm(N)
z <- rnorm(J)
mu <- c(0,0)
sig <- matrix(c(sig2_0,sig01,sig01,sig2_1),ncol=2)
u <- MASS::mvrnorm(J,mu=mu,Sigma=sig)
b_0j <- g00 + g01*z + u[,1]
b_1j <- g10 + g11*z + u[,2]
y <- rep(b_0j,each=n_j)+rep(b_1j,each=n_j)*x + rnorm(N,0,sqrt(0.5))
sim_data <- data.frame(Y=y,X=x,Z=rep(z,each=n_j),group=rep(1:J,each=n_j))
}
fit <- function(J,n_j,g00,g10,g01,g11,sig2_0,sig01,sig2_1){
dat <- simfun(J,n_j,g00,g10,g01,g11,sig2_0,sig01,sig2_1)
full <- lmer(Y~X+Z+X:Z+(X||group),data=dat,control=lmerControl(optCtrl=list(maxfun=20000)))
#Testing significance of random intercept
null.U0 <- update(full, .~.-(1 | group))
dev.U0 <- as.numeric(2*(logLik(full)-logLik(null.U0)))
p.U0 <- 0.5*(1-pchisq(dev.U0,1))*(1/6) #multiplied by (1/6) since there are 6 parameters to be tested, that is there are 6 null hypothesis.
#Testing significance of random slope
null.U1 <- update(full, .~.-(0 + X | group))
dev.U1 <- as.numeric(2*(logLik(full)-logLik(null.U1)))
p.U1 <- 0.5*(1-pchisq(dev.U1,1))*(1/6)
#Testing significance of intercept of fixed part
null.int <- update(full, .~.-1)
dev.int <- as.numeric(2*(logLik(full)-logLik(null.int)))
p.int <- (1-pchisq(dev.U1,1))*(1/6)
#Testing significance of X of fixed part
null.x <- update(full, .~.-X)
dev.x <- as.numeric(2*(logLik(full)-logLik(null.x)))
p.x <- (1-pchisq(dev.x,1))*(1/6)
#Testing significance of Z of fixed part
null.z <- update(full, .~.-X)
dev.z <- as.numeric(2*(logLik(full)-logLik(null.z)))
p.z <- (1-pchisq(dev.z,1))*(1/6)
#Testing significance of interaction part
null.xz <- update(full, .~.-X:Z)
dev.xz <- as.numeric(2*(logLik(full)-logLik(null.xz)))
p.xz <- (1-pchisq(dev.xz,1))*(1/6)
pvals <- data.frame(p.U0=p.U0,p.U1=p.U1,p.int=p.int,p.x=p.x,p.z=p.z,p.xz=p.xz)
}
c1 <- replicate(1000,fit(30,5,1,.3,.3,.3,(1/18),0,(1/18)))
colMeans(apply(c1,2,unlist))