Estoy trabajando en un proyecto donde se observa el comportamiento en una tarea (por ejemplo. tiempo de respuesta) y el modelo de este comportamiento como una función de varias manipulados experimentalmente las variables, así como de varios variable observada (participante de sexo, participante IQ, las respuestas en un cuestionario de seguimiento). Yo no tengo preocupaciones acerca de la multicolinealidad entre las variables experimentales porque eran específicamente manipulado para ser independiente, pero me preocupa que las variables observadas. Sin embargo, estoy seguro de cómo evaluar la independencia entre las variables observadas, en parte porque me parecen obtener resultados algo diferentes, dependiendo de cómo puedo configurar el assessent, y también porque no estoy muy familiarizado con la correlación en el contexto en el que una o ambas variables son dicotómicas.
Por ejemplo, aquí hay dos enfoques diferentes para determinar si el sexo es independiente de la CI. Yo no soy un fan de la hipótesis nula pruebas de significación, por lo que en ambos enfoques voy a construir dos modelos, uno con una relación y una sin, a continuación, calcular y AIC-corregido registro de razón de verosimilitud:
m1 = lm(IQ ~ 1)
m2 = lm(IQ ~ sex)
LLR1 = AIC(m1)-AIC(m2)
m3 = glm(sex~1,family='binomial')
m4 = glm(sex~IQ,family='binomial')
LLR2 = AIC(m3)-AIC(m4)
Sin embargo, estos enfoques producen algo diferentes respuestas; LLR1 es de alrededor de 7, lo que sugiere una fuerte evidencia en favor de una relación, mientras que LLR2 es de alrededor de 0.3, lo que sugiere una muy débil evidencia en favor de una relación.
Además, si intento para evaluar la independencia entre el sexo y la otra dicotómica de la variable observada, "yn", el resultado de la LLR igualmente depende de si puedo configurar los modelos para predecir el sexo de yn, o para predecir yn de sexo.
Cualquier sugerencia sobre el por qué de estas diferencias están surgiendo y cómo la mayoría de proceder razonablemente?