Deja, $$\mathbf y_i = \mathbf X_i\mathbf\beta + \mathbf Z_i\mathbf b_i+ \mathbf\epsilon_i,$$
donde
$\mathbf y_i\sim N(\mathbf X_i\mathbf\beta, \Sigma_i=\sigma^2\mathbf I_{n_i}+\mathbf Z_i \mathbf G\mathbf Z_i'),$
$\mathbf b_i\sim N(\mathbf 0, \mathbf G),$
$\mathbf\epsilon_i\sim N(\mathbf 0, \sigma^2\mathbf I_{n_i}),$
$\mathbf y_i$ es un vector de $n_i\times 1$ de respuesta para el individuo $i$ en $1,2,\ldots, n_i$ puntos temporales, $\mathbf X_i$ es una matriz de $n_i\times p$, $\mathbf \beta$ es un vector de $p\times 1$ de parámetros de efecto fijo, $\mathbf Z_i$ es una matriz de $n_i\times q$, $\mathbf b_i$ es un vector de $q\times 1$ de efectos aleatorios, $\mathbf \epsilon_i$ es un vector de $n_i\times 1$ de errores dentro, $\mathbf G$ es una matriz de covarianza de $q\times q$ entre-sujetos, $\sigma^2$ es un escalar.
Nótese que, $\mathbf X_i$, $\mathbf Z_i$, y $\mathbf G$ NO involucran $\sigma^2$.
Ahora tengo que encontrar la Estimación del Máximo Verosimilitud Restringido (REML) de $\sigma^2$, es decir,
$$\hat\sigma^2_R = \frac{1}{N_0-p}\sum_{i=1}^{N}(\mathbf y_i-\mathbf X_i\mathbf\beta)'(\mathbf I_{n_i}+\mathbf Z_i \mathbf G\mathbf Z_i')^{-1}(\mathbf y_i-\mathbf X_i\mathbf\beta),\ldots (1)$$
donde $N_0 = \sum_{i=1}^{N}n_i$.
Entonces primero escribí el Logaritmo de Verosimilitud Máximo Restringido:
$$l_R \propto -\frac{1}{2}\sum_{i=1}^{N}\log\det(\Sigma_i)-\frac{1}{2}\sum_{i=1}^{N}\log\det(\mathbf X_i'\Sigma_i^{-1}\mathbf X_i)-\frac{1}{2}\sum_{i=1}^{N}(\mathbf y_i-\mathbf X_i\mathbf\beta)'\Sigma_i^{-1}(\mathbf y_i-\mathbf X_i\mathbf\beta).$$
Luego tengo que diferenciar el logaritmo de la verosimilitud, $l_R$, con respecto a $\sigma^2$ y igualarlo a cero, es decir,
$-\frac{1}{2}\frac{\partial}{\partial\sigma^2}\{\sum_{i=1}^{N}\log\det(\Sigma_i)+\sum_{i=1}^{N}\log\det(\mathbf X_i'\Sigma_i^{-1}\mathbf X_i)+\sum_{i=1}^{N}(\mathbf y_i-\mathbf X_i\mathbf\beta)'\Sigma_i^{-1}(\mathbf y_i-\mathbf X_i\mathbf\beta)\}|_{\sigma^2=\hat\sigma^2_R}=0.$
Pero básicamente no puedo diferenciar,
$\frac{\partial}{\partial\sigma^2}\log\det(\Sigma_i)=\frac{\partial}{\partial\sigma^2}\log\det(\sigma^2\mathbf I_{n_i}+\mathbf Z_i \mathbf G\mathbf Z_i')$
$\frac{\partial}{\partial\sigma^2}\log\det(\mathbf X_i'\Sigma_i^{-1}\mathbf X_i)=\frac{\partial}{\partial\sigma^2}\log\det(\mathbf X_i'(\sigma^2\mathbf I_{n_i}+\mathbf Z_i \mathbf G\mathbf Z_i')^{-1}\mathbf X_i)$ y
$\frac{\partial}{\partial\sigma^2}\Sigma_i^{-1}= \frac{\partial}{\partial\sigma^2}(\sigma^2\mathbf I_{n_i}+\mathbf Z_i \mathbf G\mathbf Z_i')^{-1}$.
Aquí hay una respuesta para diferenciar esa derivada pero no puedo combinarla para obtener la estimación REML $\hat\sigma^2_R$ en la ecuación $(1)$.
¿Cómo puedo obtener la estimación REML $\hat\sigma^2_R$ en la ecuación $(1)$?
0 votos
Si todo lo que necesitas es la solución para un modelo particular, puedes utilizar el módulo de efectos aleatorios de AD Model Builders para codificar este modelo simple y resolver las estimaciones de parámetros incluyendo $\sigma_R$. La principal diferencia entre lo que estás esbozando aquí y ADMB es que ADMB utiliza la diferenciación automática para calcular numéricamente todas las derivadas necesarias para maximizar la verosimilitud.
0 votos
Recomiendo encarecidamente Componentes de Varianza de Searle et al. Se adentra en profundidad en cómo obtener derivadas.