Mi aspecto de los modelos como:
lme1 = lme(y~X+Y+V, random=~1|Subject, data=mydata, method ="ML")
lme2 = lme(y~X+Y+V2+V3, random=~1|Subject, data=mydata, method ="ML")
lme3 = lme(y~X+Y+V4, random=~1|Subject, data=mydata, method ="ML")
donde X e y son factores, pero V, V2, V3 y V4 son variables continuas (modelada como covariables). Estoy usando Method ="ML"
en la esperanza de que me podría comparar la probabilidad de los valores a través de los modelos.
Mi pregunta de investigación tiene que ver con el hecho de V4 (en lme3) fue un mejor predictor de V2 y V3 juntos, V2+V3 fue mejor que la de V, etc. Lo que la bondad de fits medida es válida aquí? Puedo usar valores de AIC para la comparación de modelos de diferentes conjuntos de parámetros?
También he encontrado algunas referencias en computación $R^2$ para los modelos mixtos. En particular, estoy interesado en la prueba de razón de verosimilitud $R^2$ (Magee, 1990), que calcula el $R^2$ comparando cada uno de estos modelos para el modelo nulo. El uso de este método, me gustaría estar en la comparación de los tres de mis modelos para el mismo modelo nulo con sólo y~1
. Es, entonces, un enfoque válido para comparar el $R^2$s generado?
Yo no soy un especialista en estadística, pero me gustaría usar un válido (al menos justificables), la medida de mi análisis. Cualquier comentario sería muy apreciada.