Estoy leyendo el libro de Doug Bates papel teórico en el paquete lme4 de R para entender mejor los detalles de los modelos mixtos, y me encontré con un resultado intrigante que me gustaría entender mejor, sobre el uso de la máxima verosimilitud restringida (REML) para estimar la varianza.
En la sección 3.3 sobre el criterio REML, afirma que el uso de REML en la estimación de la varianza está estrechamente relacionado con el uso de una corrección de grados de libertad cuando se estima la varianza a partir de las desviaciones residuales en un modelo lineal ajustado. En particular, "aunque no suele derivarse de esta manera", la corrección de los grados de libertad puede derivarse de la estimación de la varianza mediante la optimización de un "criterio REML" (ecuación (28)). El criterio REML es esencialmente sólo la verosimilitud, pero los parámetros de ajuste lineal se han eliminado mediante la marginación (en lugar de establecerlos igual a la estimación del ajuste, lo que daría la varianza de la muestra sesgada).
Hice las cuentas y verificado el resultado reclamado para un modelo lineal simple con sólo efectos fijos. Lo que me cuesta es la interpretación. ¿Existe alguna perspectiva desde la que sea natural derivar una estimación de la varianza optimizando una verosimilitud en la que los parámetros de ajuste han sido marginados? Se siente como una especie de Bayesiano, como si estuviera pensando en la probabilidad como una posterior y marginando los parámetros de ajuste como si fueran variables aleatorias.
¿O la justificación es principalmente matemática: funciona en el caso lineal pero también es generalizable?