En este ejemplo, hay tres observaciones para cada combinación de las tres máquinas (A, B, C) y los seis trabajadores. Utilizaré InIn para denotar un nn -y la matriz de identidad de las dimensiones 1n1n para denotar un nn -vector de unos. Digamos que yy es el vector de observaciones, que supondré que está ordenado por trabajador, luego máquina y luego réplica. Sea μμ sean los valores esperados correspondientes (por ejemplo, los efectos fijos), y que γγ sea un vector de desviaciones específicas del grupo respecto a los valores esperados (por ejemplo, los efectos aleatorios). Condicionado a γγ el modelo de yy se puede escribir:
y∼N(μ+γ,σ2yI54)y∼N(μ+γ,σ2yI54)
donde σ2yσ2y es la varianza "residual".
Para entender cómo la estructura de covarianza de los efectos aleatorios induce una estructura de covarianza entre las observaciones, es más intuitivo trabajar con la representación "marginal" equivalente que se integra sobre los efectos aleatorios γγ . La forma marginal de este modelo es,
y∼N(μ,σ2yI54+Σ)y∼N(μ,σ2yI54+Σ)
Aquí, ΣΣ es una matriz de covarianza que depende de la estructura de γγ (por ejemplo, los "componentes de la varianza" subyacentes a los efectos aleatorios). Me referiré a ΣΣ como la covarianza "marginal".
En su m1
los efectos aleatorios se descomponen como γ=Zθγ=Zθ
Donde Z=I18⊗13Z=I18⊗13 es una matriz de diseño que asigna los coeficientes aleatorios a las observaciones, y θT=[θ1,A,θ1,B,θ1,C…θ6,A,θ6,B,θ6,C]θT=[θ1,A,θ1,B,θ1,C…θ6,A,θ6,B,θ6,C] es el vector de 18 dimensiones de coeficientes aleatorios ordenados por trabajador y luego por máquina, y se distribuye como
θ∼N(0,I6⊗Λ)θ∼N(0,I6⊗Λ)
Aquí ΛΛ es la covarianza de los coeficientes aleatorios. La suposición de simetría compuesta significa que ΛΛ tiene dos parámetros, que llamaré σθσθ y ττ y la estructura:
Λ=[σ2θ+τ2τ2τ2τ2σ2θ+τ2τ2τ2τ2σ2θ+τ2]
(En otras palabras, la matriz de correlación subyacente Λ tiene todos los elementos de la offdiagonal con el mismo valor).
La estructura de covarianza marginal inducida por estos efectos aleatorios es Σ=Z(I6⊗Λ)ZT para que la varianza de una observación dada sea σ2θ+τ2+σ2y y la covarianza entre dos observaciones (separadas) de los trabajadores i,j y máquinas u,v es: cov(yi,u,yj,v)={0if i≠jτ2if i=j,u≠vσ2θ+τ2if i=j,u=v
Para su m2
los efectos aleatorios se descomponen en
γ=Zω+Xη
Donde Z es como antes, X=I6⊗19 es una matriz de diseño que asigna los interceptos aleatorios por trabajador a las observaciones, ωT=[ω1,A,ω1,B,ω1,C,…,ω6,A,ω6,B,ω6,C] es el vector de 18 dimensiones de intercepciones aleatorias para cada combinación de máquina y trabajador; y ηT=[η1,…,η6] es el vector de 6 dimensiones de interceptos aleatorios para el trabajador. Estos se distribuyen como, η∼N(0,σ2ηI6) ω∼N(0,σ2ωI18) Donde σ2η,σ2ω son las varianzas de estos interceptos aleatorios.
La estructura de covarianza marginal de m2
es Σ=σ2ωZZT+σ2ηXXT para que la varianza de una observación dada sea σ2ω+σ2η+σ2y y la covarianza entre dos observaciones de los trabajadores i,j y máquinas u,v es: cov(yi,u,yj,v)={0if i≠jσ2ηif i=j,u≠vσ2ω+σ2ηif i=j,u=v
Así que... σ2θ≡σ2ω y τ2≡σ2η . Si m1
asumió una simetría compuesta (que no tiene con su llamada a lmer, porque la covarianza de los efectos aleatorios no está estructurada).
La brevedad no es mi punto fuerte: todo esto no es más que una forma larga y enrevesada de decir que cada modelo tiene dos parámetros de varianza para los efectos aleatorios, y no son más que dos formas diferentes de escribir el mismo modelo "marginal".
En código...
sigma_theta <- 1.8
tau <- 0.5
sigma_eta <- tau
sigma_omega <- sigma_theta
Z <- kronecker(diag(18), rep(1,3))
rownames(Z) <- paste(paste0("worker", rep(1:6, each=9)),
rep(paste0("machine", rep(1:3, each=3)),6))
X <- kronecker(diag(6), rep(1,9))
rownames(X) <- rownames(Z)
Lambda <- diag(3)*sigma_theta^2 + tau^2
# marginal covariance for m1:
Z%*%kronecker(diag(6), Lambda)%*%t(Z)
# for m2:
X%*%t(X)*sigma_eta^2 + Z%*%t(Z)*sigma_omega^2
7 votos
+1 y, en mi opinión, esto está absolutamente en el tema. Vota por la reapertura.
2 votos
@Peter Flom ¿por qué considera esta pregunta como off-topic?
4 votos
Tal vez no haya quedado claro que usted preguntaba por los modelos y no por el
lme4
sintaxis. Sería útil -y ampliaría el grupo de potenciales respondedores- si los explicaras para la gente que no está familiarizada conlme4
.0 votos
Parece que se trata de la codificación.
1 votos
Creo que ésta es casi literalmente la definición de simetría compuesta. ¿Hay alguna definición específica de simetría compuesta que una respuesta deba utilizar, y luego demostrar que esa definición implica la equivalencia de los modelos m1 y m2?
2 votos
Si es útil, aquí hay dos buenos posts sobre lo que hace la sintaxis lme4, y lo que es la simetría compuesta en el contexto de los modelos mixtos (ver las respuestas aceptadas en ambas preguntas). stats.stackexchange.com/questions/13166/rs-lmer-cheat-sheet y stats.stackexchange.com/questions/15102/
0 votos
Creo que entiendo la sintaxis de lme4, pero no veo cómo la simetría compuesta implica que m1 se reduce a m2. Tal vez soy incapaz de ver el bosque por los árboles..