He aquí una respuesta rápida...
Ejemplo ilustrativo estándar
Dejemos que $y = (y_1, \dotsc, y_n)$ sea una muestra de una distribución normal $\mathrm{N}(\mu, \sigma^2$ ). Ambos $\mu$ y $\sigma^2$ son desconocidos. El estimador de máxima verosimilitud de $\sigma^2$ que se obtiene tomando la derivada de la log-verosimilitud con respecto a $\sigma^2$ e igualando a cero, es $$ \hat{\sigma}^2_{\textrm{ML}} = \frac{1}{n} \sum_{i=1}^n (y_i -\bar{y})^2 $$ donde $\bar{y} = \frac{1}{n} \sum_{i=1}^n y_i$ es el estimador de máxima verosimilitud de $\mu$ . Podemos demostrar que $$ \mathrm{E}(\hat{\sigma}^2_{\textrm{ML}}) = \frac{n-1}{n} \sigma^2. $$ [ Empieza por reescribir $\hat{\sigma}^2_{\textrm{ML}}$ como $\frac{1}{n} \sum_{i=1}^n \left((y_i - \mu) + (\mu - \bar{y})\right)^2$ ]. Así, $\hat{\sigma}^2_{\textrm{ML}}$ es parcial. Obsérvese que si hubiéramos sabido $\mu$ entonces la MLE para $\sigma^2$ habría sido imparcial. Por lo tanto, el problema con $\hat{\sigma}^2_{\textrm{ML}}$ parece estar relacionado con el hecho de que hemos sustituido $\bar{x}$ para la media desconocida en la estimación . La idea intuitiva de la estimación REML es terminar con una probabilidad que contenga toda la información sobre $\sigma^2$ pero ya no contiene la información sobre $\mu$ .
Más técnicamente, la probabilidad REML es una probabilidad de combinaciones lineales de los datos originales: en lugar de la probabilidad de $y$ consideramos la probabilidad de $Ky$ donde la matriz $K$ es tal que $\mathrm{E}[Ky] = 0$ .
La estimación REML se utiliza a menudo en el contexto más complicado de los modelos mixtos. Todos los libros sobre modelos mixtos tienen una sección en la que se explica con más detalle la estimación REML.
Editar
@Joe King: Aquí (y aquí para el contexto de la página web en inglés) es uno de mis libros favoritos sobre modelos mixtos que está totalmente disponible en línea. La sección 2.4.2 trata de la estimación de los componentes de la varianza. Disfrute de su lectura :-)
0 votos
Véase stats.stackexchange.com/questions/99895/
4 votos
He encontrado este documento ser una explicación realmente agradable proporcionada en un lenguaje menos formal. Véase la sección Máxima verosimilitud y problemas asociados .
0 votos
@RTbecard: Ungated link: researchgate.net/profile/Daniel-Mcneish/publication/