1 votos

método de máxima verosimilitud para el modelo de efectos mixtos generalizados

Referencia: http://www.stat.wisc.edu/~bates/UseR2008/WorkshopD.pdf de la página 120.

Ahora quiero ajustar un modelo logístico mixto generalizado, donde $\beta$ es un efecto fijo, $\theta$ es el parámetro de covarianza de la varianza de los efectos aleatorios, $u$ son los efectos aleatorios, $\tilde{u}$ son los efectos aleatorios empíricos. La función de verosimilitud es $$L(\theta, \beta \mid y) = \int p(y \mid X,\beta, Z, u) \; p(u \mid \theta) \, du.$$

No entiendo cómo los efectos fijos $\beta$ y los parámetros de varianza de los efectos aleatorios $\theta$ son estimados. Según las diapositivas, primero utilizan el método de cuadrados iterativos reponderados penalizados para estimar $\tilde{u}(y|\theta,\beta)$ y luego utilizar la aproximación de Laplace y el método de máxima verosimilitud para la desviación máxima $d(\beta,\theta|y)$ . La desviación es una función de $y,\tilde{u}$ , entonces una función de $y,\beta,\theta$ .

Desde mi punto de vista, $\tilde{u}$ no es una forma cerrada. Cómo podemos mamimizar una función en la que la función incluye un algoritmo PIRLS?

3voto

user219012 Puntos 1

En general, la estimación clásica por máxima verosimilitud de los parámetros en los modelos de efectos mixtos lineales generalizados requiere una combinación de integración numérica y optimización numérica. La integración numérica es necesaria porque la integral en la especificación de la función de verosimilitud marginal, como escribiste arriba, no tiene una solución de forma cerrada.

Para esta integración numérica, la cuadratura gaussiana adaptativa se considera uno de los mejores enfoques para aproximar las integrales implicadas. La página web adaptativo parte de la regla tiene que ver con centrar y escalar adecuadamente las integradas. Este paso requiere localizar el modo de la probabilidad condicional $$L(u \mid y; \beta, \theta) = p(y \mid u, \beta) \; p(u \mid \theta).$$ En este paso se utiliza PIRLS. Entonces, cuando se ha aproximado la integral, se optimiza la log-verosimilitud marginal $\ell(\beta, \theta) = \sum_i \log L_i(\beta, \theta \mid y_i, X_i, Z_i)$ que escribiste arriba.

El grado de aproximación en la regla de cuadratura gaussiana adaptativa se controla mediante el número de puntos de cuadratura. La aproximación de Laplase equivale a 1 punto de cuadratura (y por eso a menudo no funciona tan bien, especialmente para datos binarios y datos de Poisson serán bajos recuentos esperados).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X