9 votos

En cuanto a la utilidad de la intersección de la pendiente de la correlación de modelos multinivel

En su libro "Análisis Multinivel: Una Introducción Básica y Avanzada de los modelos Multinivel" (1999), Snijders Y Bosker (ch. 8, sección 8.2, página 119) dijo que el intercepto-pendiente de la correlación, que se calcula como el intercepto-pendiente de la covarianza dividida por la raíz cuadrada del producto de interceptar y la varianza de la pendiente de la varianza, es no acotada entre -1 y +1, y puede ser incluso infinito.

Dado esto, no creo que yo debo confiar en él. Pero tengo un ejemplo para ilustrar. En uno de mis análisis, que ha de carrera (dicotomía), la edad y la edad*raza como efectos fijos, cohorte como efecto aleatorio, y la raza dicotomía variable aleatoria pendiente, mi serie de diagramas de dispersión muestran que la pendiente no varía mucho a través de los valores de mi grupo (es decir, de la cohorte) de la variable, y no veo la pendiente cada vez menos o más empinada a través de cohortes. La Prueba de razón de Verosimilitud también muestra que el ajuste entre el intercepto aleatorio y aleatorio pendiente de los modelos no es significativo a pesar de mi tamaño de la muestra total (N=22,156). Y, sin embargo, el intercepto-pendiente de la correlación fue de cerca de -0.80 (lo que supondría una fuerte convergencia en el grupo diferencia en Y variable en el tiempo, es decir, a través de cohortes).

Creo que es una buena ilustración de por qué no confío en la intersección de la pendiente de la correlación, en la parte superior de lo que Snijders Y Bosker (1999) ya se dijo.

Debemos realmente la confianza y el informe de la intersección de la pendiente de la correlación en multinivel estudios? Específicamente, ¿cuál es la utilidad de esta correlación?

EDIT 1: yo no creo que eso responde a mi pregunta, pero gung me pidió que proporcionar más información. Ver más abajo, por si ayuda.

Los datos son de la Encuesta Social General. Para la sintaxis, he utilizado el programa Stata 12, así que se lee:

xtmixed wordsum bw1 aged1 aged2 aged3 aged4 aged6 aged7 aged8 aged9 bw1aged1 bw1aged2 bw1aged3 bw1aged4 bw1aged6 bw1aged7 bw1aged8 bw1aged9 || cohort21: bw1, reml cov(un) var
  • wordsum es un vocabulario de la prueba de puntuación (0-10),
  • bw1 es la variable étnica (negro=0, negro=1),
  • aged1-aged9 son variables ficticias de edad,
  • bw1aged1-bw1aged9 son la interacción entre la etnia y la edad,
  • cohort21 es mi cohorte variable (21 categorías, de 0 a 20).

La salida de lee:

    . xtmixed wordsum bw1 aged1 aged2 aged3 aged4 aged6 aged7 aged8 aged9 bw1aged1 bw1aged2 bw1aged3 bw1aged4 bw1aged6 bw1aged7 bw1aged8 bw1aged9 || cohort21: bw1, reml 
> cov(un) var

Performing EM optimization: 

Performing gradient-based optimization: 

Iteration 0:   log restricted-likelihood = -46809.738  
Iteration 1:   log restricted-likelihood = -46809.673  
Iteration 2:   log restricted-likelihood = -46809.673  

Computing standard errors:

Mixed-effects REML regression                   Number of obs      =     22156
Group variable: cohort21                        Number of groups   =        21

                                                Obs per group: min =       307
                                                               avg =    1055.0
                                                               max =      1728


                                                Wald chi2(17)      =   1563.31
Log restricted-likelihood = -46809.673          Prob > chi2        =    0.0000

------------------------------------------------------------------------------
     wordsum |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]
-------------+----------------------------------------------------------------
         bw1 |   1.295614   .1030182    12.58   0.000     1.093702    1.497526
       aged1 |  -.7546665    .139246    -5.42   0.000    -1.027584   -.4817494
       aged2 |  -.3792977   .1315739    -2.88   0.004    -.6371779   -.1214175
       aged3 |  -.1504477   .1286839    -1.17   0.242    -.4026635     .101768
       aged4 |  -.1160748   .1339034    -0.87   0.386    -.3785207    .1463711
       aged6 |  -.1653243   .1365332    -1.21   0.226    -.4329245     .102276
       aged7 |  -.2355365    .143577    -1.64   0.101    -.5169423    .0458693
       aged8 |  -.2810572   .1575993    -1.78   0.075    -.5899461    .0278318
       aged9 |  -.6922531   .1690787    -4.09   0.000    -1.023641   -.3608649
    bw1aged1 |  -.2634496   .1506558    -1.75   0.080    -.5587297    .0318304
    bw1aged2 |  -.1059969   .1427813    -0.74   0.458    -.3858431    .1738493
    bw1aged3 |  -.1189573   .1410978    -0.84   0.399     -.395504    .1575893
    bw1aged4 |    .058361   .1457749     0.40   0.689    -.2273525    .3440746
    bw1aged6 |   .1909798   .1484818     1.29   0.198    -.1000393    .4819988
    bw1aged7 |   .2117798    .154987     1.37   0.172    -.0919891    .5155486
    bw1aged8 |   .3350124    .167292     2.00   0.045     .0071262    .6628987
    bw1aged9 |   .7307429   .1758304     4.16   0.000     .3861217    1.075364
       _cons |   5.208518   .1060306    49.12   0.000     5.000702    5.416334
------------------------------------------------------------------------------

------------------------------------------------------------------------------
  Random-effects Parameters  |   Estimate   Std. Err.     [95% Conf. Interval]
-----------------------------+------------------------------------------------
cohort21: Unstructured       |
                    var(bw1) |   .0049087    .010795      .0000659    .3655149
                  var(_cons) |   .0480407   .0271812      .0158491     .145618
              cov(bw1,_cons) |  -.0119882    .015875     -.0431026    .0191262
-----------------------------+------------------------------------------------
               var(Residual) |   3.988915   .0379483      3.915227     4.06399
------------------------------------------------------------------------------
LR test vs. linear regression:       chi2(3) =    85.83   Prob > chi2 = 0.0000

Note: LR test is conservative and provided only for reference.

El diagrama de dispersión que produce se muestra a continuación. Hay nueve diagramas de dispersión, uno para cada categoría de mi edad variable.

enter image description here

EDIT 2:

. estat recovariance

Random-effects covariance matrix for level cohort21

             |       bw1      _cons 
-------------+----------------------
         bw1 |  .0049087            
       _cons | -.0119882   .0480407

Hay otra cosa que quiero añadir: Lo que me molesta es que, con respecto a la intersección de la pendiente de la covarianza / correlación, Joop J. Hox (2010, pág. 90) en su libro "Análisis Multinivel Técnicas y Aplicaciones, Segunda Edición", dijo que :

Es más fácil interpretar esta covarianza si se presenta como un correlación entre el intercepto y la pendiente de los residuos. ... En un modelo de sin otros predictores excepto la variable de tiempo, esta correlación puede ser interpretado como un simple correlación, pero en los modelos 5 y 6 es una correlación parcial, condicionada a la predictores en el modelo.

Por lo tanto, parece que no todo el mundo estaría de acuerdo con Snijders Y Bosker (1999, pág. 119), que creen que "la idea de una correlación no tiene sentido aquí, porque no es acotada entre [-1, 1].

4voto

P.Brian.Mackey Puntos 874

Me han enviado varios estudiosos (casi 30 personas) hace varias semanas. Algunos de ellos enviados a su correo (siempre colectivo de correos electrónicos). Eugene Demidenko fue el primero en responder :

cov/sqrt(var1*var2) es siempre dentro de [-1,1], independientemente de la interpretación: puede ser estimaciones de origen y la pendiente, dos pistas, etc. El hecho de que -1<=cov/sqrt(var1*var2)<=1 se sigue de la desigualdad de Cauchy y siempre es verdadero. Así que despedir a la Snijders Y Bosker declaración. Tal vez alguna otra pieza de información es la que falta?

Esto fue seguido por un correo electrónico de Thomas Snijders :

La información que falta es lo que fue en realidad escrito sobre esto en la página 122, 123, 124, 129 de Snijders Y Bosker (2ª edición 2012). Esto no es acerca de dos reivindicaciones de los cuales no más de uno puede ser cierto, se trata de dos interpretaciones distintas.

En la p. 123 una ecuación cuadrática de la varianza de la función se introduce, \sigma_0^2 + 2 \sigma_{01} * x + \sigma_1^2 * x^2 y el siguiente comentario: "Esta fórmula se puede utilizar sin la interpretación que \sigma_0^2 y \sigma_1^2 son de varianzas y \sigma_{01} una covarianza; estos parámetros pueden ser cualquier número. La fórmula sólo implica que la varianza residual es una función cuadrática de x.

Permítanme citar un párrafo completo de la p. 129, acerca de una ecuación cuadrática de la varianza de la función en el nivel dos; tenga en cuenta que UNO PODRÍA INTERPRETAR que \tau_0^2 y \tau_1^2 son el nivel dos desviaciones de la intercepto aleatorio y aleatorio de la pendiente, y \tau_{01} es su covarianza, pero esto es explícitamente pone detrás del horizonte:

"Los parámetros \tau_0^2, \tau_1^2, y \tau_{01} son, como en la sección anterior, no debe interpretarse a sí mismos como de las varianzas y la covarianza. La interpretación es por medio de la varianza de la función (8.7) [nota del t.s.: en el libro de este erróneamente se informó 8,8]. Por lo tanto, no es necesario que \tau_{01}^2 <= \tau_0^2 * \tau_1^2. Para decirlo de otra forma, "correlaciones" definido formalmente por \tau_{01}/(\tau_0 * \tau_1) puede ser mayor que 1 o menor que -1, incluso infinito, porque la idea de una correlación no tiene sentido aquí. Un ejemplo de esto es proporcionado por el lineal de la varianza de la función para la cual \tau_1^2 = 0 y sólo los parámetros \tau_0^2 y \tau_{01}."

La varianza de la función es una función cuadrática de x (la variable "con el azar pendiente"), y la varianza de los resultados es esto más el nivel 1 de la varianza. Como siempre que esto es positivo para todo x, el modelo de variación es positiva. (Un requisito es que la correspondiente matriz de covarianza es positiva definida.)

Algunos más a fondo de esto es la existencia de diferencias en la estimación de los parámetros de los algoritmos de software. En algunos multinivel (efectos aleatorios), el requisito de que las matrices de covarianza de los efectos aleatorios son positivos semi-definida en todos los niveles. En otro software, el requisito se hace sólo de que el resultado estimado de la matriz de covarianza de los datos observados es positiva semi-definida. Esto implica que la idea de azar coeficientes de las variables latentes es cedida, y el modelo especifica una cierta estructura de covarianza de los datos observados; ni más, ni menos; en caso de que la citada interpretación de Joop Hox no se aplica. Tenga en cuenta que Harvey Goldstein ya hace tiempo utilizado lineal de la variación de las funciones en el nivel uno, representado por una pendiente cero y la varianza distinto de cero pendiente-intersección de correlación en el nivel uno, que era y es llamado "complejo de variación"; véase, por ejemplo, http://www.bristol.ac.uk/media-library/sites/cmm/migrated/documents/modelling-complex-variation.pdf

Y luego, Joop Hox respondió :

En el software MLwiN en realidad, es posible estimar una covarianza plazo y al mismo tiempo limitar una de las desviaciones a cero, lo que haría que la "correlación" infinito. Y sí, algunos programas de software le permiten estimaciones tales como la negativa de varianzas (SEM de software por lo general lo permite). Así que mis declaraciones no eran del todo precisos. He referido a la "normalidad" no estructurados azar estructuras. Permítanme añadir que si cambiar la escala de la variable con el azar pendiente para tener un diferente punto cero, las varianzas y covarianzas en general el cambio. Así que la correlación sólo es interpretable si la variable de predicción tiene un fijo de punto cero, es decir, se mide en una escala de índices. Esto se aplica a la curva de crecimiento de los modelos, donde la correlación entre el estado inicial y la tasa de crecimiento se interpreta a veces. En ese caso el valor de cero debe ser el 'real' punto en el tiempo donde se inicia el proceso.

Y él envió otro correo :

De todos modos, creo que Tom la explicación que a continuación se ajusta el estilo de la Snijders/Bosker colaboración más que a mi más estilo informal. Me gustaría añadir a la página 90 una nota a pie de página que indica algo así como "se Nota que los valores de los parámetros en la parte aleatoria, son estimaciones. La interpretación de la normalización de covarianzas como ordinario correlaciones se supone que no hay limitaciones de las desviaciones y de que el software no permite la negativa de las estimaciones. Si la parte aleatoria, no es estructurado la interpretación de lo ordinario (co)varianzas generalmente es sostenible.".

Nota que escribí acerca de la correlación de interpretación en el longitudinal capítulo. En la curva de crecimiento de modelado es muy tentador interpretar esta correlación como un sustantivo resultado, y eso es peligroso porque el valor depende de la "métrica de tiempo". Si usted está interesado en que me recomiendan para ir a Lesa Hoffman sitiohttp://www.lesahoffman.com/).

Así que creo que en mi situación, donde he especificado un estructurado covarianza para los efectos aleatorios, que debo interpretar el intercepto-pendiente de la correlación como un simple correlación.

1voto

StasK Puntos 19497

Sólo puedo aplaudir su esfuerzo en ir a consultar con la gente en el campo. Me gustaría solo un pequeño comentario respecto a la utilidad de la correlación entre el intercepto y la pendiente. Skrondal y Rabe-Hesketh (2004) proporcionan un método simple, tonto ejemplo de cómo se puede manipular que la correlación por el cambio/centrado de la variable que entra en el modelo con una muestra aleatoria de la pendiente. Ver p. 54 -- de búsqueda "en la Figura 3.1" en Amazon vista previa. Vale la pena al menos un par de docenas de palabras.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X