11 votos

¿Por qué la máxima verosimilitud restringida proporciona una estimación mejor (insesgada) de la varianza?

Estoy leyendo el libro de Doug Bates papel teórico en el paquete lme4 de R para entender mejor los detalles de los modelos mixtos, y me encontré con un resultado intrigante que me gustaría entender mejor, sobre el uso de la máxima verosimilitud restringida (REML) para estimar la varianza.

En la sección 3.3 sobre el criterio REML, afirma que el uso de REML en la estimación de la varianza está estrechamente relacionado con el uso de una corrección de grados de libertad cuando se estima la varianza a partir de las desviaciones residuales en un modelo lineal ajustado. En particular, "aunque no suele derivarse de esta manera", la corrección de los grados de libertad puede derivarse de la estimación de la varianza mediante la optimización de un "criterio REML" (ecuación (28)). El criterio REML es esencialmente sólo la verosimilitud, pero los parámetros de ajuste lineal se han eliminado mediante la marginación (en lugar de establecerlos igual a la estimación del ajuste, lo que daría la varianza de la muestra sesgada).

Hice las cuentas y verificado el resultado reclamado para un modelo lineal simple con sólo efectos fijos. Lo que me cuesta es la interpretación. ¿Existe alguna perspectiva desde la que sea natural derivar una estimación de la varianza optimizando una verosimilitud en la que los parámetros de ajuste han sido marginados? Se siente como una especie de Bayesiano, como si estuviera pensando en la probabilidad como una posterior y marginando los parámetros de ajuste como si fueran variables aleatorias.

¿O la justificación es principalmente matemática: funciona en el caso lineal pero también es generalizable?

4voto

fcop Puntos 2891

El sesgo de la varianza se debe a que la media se ha estimado a partir de los datos y, por lo tanto, la "dispersión de esos datos en torno a esta media estimada" (es decir, la varianza) es menor que la dispersión de los datos en torno a la media "verdadera". Véase también : Explicación intuitiva para dividir por $n-1$ al calcular la desviación estándar?

Los efectos fijos determinan el modelo "para la media", por lo tanto, si se puede encontrar una estimación de la varianza que se haya obtenido sin estimar la media a partir de los datos ("marginando los efectos fijos (es decir, la media)"), esta subestimación de la dispersión (es decir, de la varianza) se mitigará.

Esta es la comprensión "intuitiva" por la que las estimaciones REML eliminan el sesgo; se encuentra una estimación para la varianza sin utilizar la "media estimada".

1voto

Ben Ogorek Puntos 1040

Consulte el APÉNDICE: EL MÉTODO DE ESTIMACIÓN REML dentro de este Recurso relacionado con SAS del autor David Dickey.

" Siempre podemos encontrar (n-1) números Z con media 0 conocida y la misma suma de cuadrados y varianza teórica que los n valores de Y. Esto motiva la división de la suma de cuadrados Z por el número de Zs, que es n-1. "

Cuando estaba en la escuela de posgrado, el REML se presentaba como la mejor cosa desde el pan de molde. Desde el estudio de la lme4 paquete, aprendí que realmente no se generaliza tan bien y tal vez no es tan importante en el gran esquema de las cosas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X