42 votos

¿Qué es la simetría compuesta en términos sencillos?

I recientemente realizado que un modelo mixto con sólo el sujeto como factor aleatorio y los otros factores como factores fijos es equivalente a un ANOVA cuando se ajusta la estructura correlacional del modelo mixto a la simetría compuesta.

Por lo tanto, me gustaría saber qué significa la simetría compuesta en el contexto de un ANOVA mixto (es decir, de parcela dividida), en el mejor de los casos explicada en lenguaje sencillo.

Además de la simetría compuesta lme ofrece otros tipos de estructuras correlacionales, como

corSymm matriz de correlación general, sin estructura adicional.

o diferentes tipos de correlación espacial .

Por lo tanto, tengo la pregunta relacionada sobre qué otros tipos de estructuras correlacionales puede ser aconsejable utilizar en el contexto de los experimentos diseñados (con factores entre y dentro de los sujetos).

Sería estupendo que las respuestas indicaran algunas referencias de diferentes estructuras correlativas.

1 votos

Como me resultaría difícil explicar CS en lenguaje llano, sólo un comentario: Me gusta el capítulo 7 "Examining the Multilevel's Error Covariance Structure" en "Applied Longitudinal Data Analysis" de Singer/Willett (2003). Ofrece una gran visión de conjunto.

0 votos

Secundo el consejo de conseguir un buen libro de texto. Singer/Willett es bueno; también me gusta Weiss (2005) "Modeling Longitudinal Data"; el capítulo 8 "Modeling the Covariance Matrix" contiene esta información específica.

44voto

Niall Puntos 51

La simetría compuesta es esencialmente la estructura de correlación "intercambiable", excepto con una descomposición específica para la varianza total. Por ejemplo, si se tiene un modelo mixto para el sujeto $i$ en grupo $j$ respuesta, $Y_{ij}$ con sólo un intercepto aleatorio por grupo

$$ Y_{ij} = \alpha + \gamma_{j} + \varepsilon_{ij} $$

donde $\gamma_{j}$ es la agrupación $j$ efecto aleatorio con varianza $\sigma^{2}_{\gamma}$ y $\varepsilon_{ij}$ es el tema $i$ en grupo $j$ "error de medición" con varianza $\sigma^{2}_{\varepsilon}$ y $\gamma_{j}, \varepsilon_{ij}$ son independientes. Este modelo especifica implícitamente la matriz de covarianza de simetría compuesta entre las observaciones del mismo grupo:

$$ {\rm cov}(Y_{ij}, Y_{kj}) = \sigma^{2}_{\gamma} + \sigma^{2}_{\varepsilon} \cdot \mathcal{I}(k = i) $$

Obsérvese que el supuesto de simetría compuesta implica que la correlación entre los distintos miembros de un cluster es $\sigma^{2}_{\gamma}/(\sigma^{2}_{\gamma} + \sigma^{2}_{\varepsilon})$ .

En "lenguaje llano" se podría decir que esta estructura de covarianza implica que todos los miembros distintos de un grupo están igualmente correlacionados entre sí y con la variación total, $\sigma^{2} = \sigma^{2}_{\gamma} + \sigma^{2}_{\varepsilon}$ puede dividirse en el componente "compartido" (dentro de un clúster), $\sigma^{2}_{\gamma}$ y el componente "no compartido", $\sigma^{2}_{\varepsilon}$ .

Editar: Para ayudar a la comprensión en el sentido de "plain english", considere un ejemplo en el que los individuos se agrupan dentro de las familias de manera que $Y_{ij}$ denota el tema $i$ en familia $j$ respuesta. En este caso, la suposición de simetría compuesta significa que la variación total de $Y_{ij}$ puede dividirse en la variación en una familia, $\sigma^{2}_{\varepsilon}$ y la variación entre familias, $\sigma^{2}_{\gamma}$ .

6 votos

(+1) También de posible interés: Introducción a la esfericidad .

1 votos

Creo que quiere decir "dónde $\gamma_j$ es la agrupación $j$ efecto aleatorio"... ¿Cuál es la parte que dice $I(k=i)$ ?

0 votos

¡Gracias Kyle! Por cierto, @Jack, el $\mathcal{I}(k=i)$ bit era sólo una forma compacta de escribir que, si se trata del mismo individuo, entonces se tiene correlación perfecta (es decir, la covarianza es igual a la varianza total); es decir, se tiene $\sigma_{\varepsilon}^2 + \sigma_{\gamma}^2$ por la diagonal y $\sigma_{\gamma}^2$ en todas partes. ¿Queda claro?

2voto

V. W. Zhao Puntos 21

La simetría compuesta sólo significa que todas las varianzas son iguales y todas las covarianzas son iguales. Así que se utiliza la misma varianza y covarianza para todos los sujetos. Si cree que esto se aplica a los factores de su modelo ANOVA, la simetría compuesta es una buena estructura de covarianza para utilizar debido a su estructura simple.

2voto

Para mí, la mejor respuesta que he visto sobre la simetría compuesta es la de David Howell ( aquí ):

En otras palabras, la correlación entre el ensayo 1 y el ensayo 2 es igual a la correlación entre el ensayo 1 y el ensayo 4 o el ensayo 3 y el ensayo 4, etc. Pero una forma más directa de pensar en la simetría compuesta es decir que requiere que todos los sujetos de cada grupo cambien de la misma manera a lo largo de los ensayos. En otras palabras, las pendientes de las líneas que regresan la variable dependiente en el tiempo son las mismas para todos los sujetos. Dicho así, es fácil ver que la simetría compuesta puede ser realmente una suposición poco realista. Si algunos de sus sujetos mejoran pero otros no, no tiene simetría compuesta y comete un error si utiliza una solución que supone que la tiene.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X