Mi colega y yo estamos ajustando una serie de modelos de efectos mixtos lineales y no lineales en R. Se nos pide que realicemos una validación cruzada de los modelos ajustados para poder verificar que los efectos observados son relativamente generalizables. Esto es normalmente una tarea trivial, pero en nuestro caso, tenemos que dividir todos los datos en una parte de entrenamiento y una parte de prueba (para fines de CV) que no comparten niveles comunes. Por ejemplo,
Los datos de entrenamiento pueden basarse en los Grupos 1,2,3,4; El modelo ajustado se valida de forma cruzada con el Grupo 5.
Esto crea un problema, ya que los efectos aleatorios basados en el grupo estimados en los datos de entrenamiento no se aplican a los datos de prueba. Por lo tanto, no podemos CV el modelo.
¿Existe una solución relativamente sencilla para esto? ¿O alguien ha escrito ya un paquete para abordar este problema? Cualquier sugerencia es bienvenida.
Gracias.
3 votos
En la estimación de áreas pequeñas, se tiene el mismo problema con las áreas pequeñas "fuera de muestra". Lo que se suele hacer es estimar los efectos aleatorios fuera de la muestra en cero (su valor más probable, suponiendo que los efectos aleatorios se distribuyan normalmente). En efecto, se utiliza la parte "sintética" o fija del modelo sólo para la predicción.
0 votos
Probabilityislogic/ Ting Qian, estoy luchando con este problema ahora, y me gustaría ver cómo especificaste los efectos fuera de muestra como 0. ¿Es posible editar tu respuesta aquí y mostrar el código R?