Ok, esta es una pregunta bastante básica, pero estoy un poco confundido. En mi tesis escribo:
Los errores estándar se pueden encontrar calculando la inversa de la raíz cuadrada de los elementos diagonales de la matriz de información de Fisher (observada):
\begin{align*} s_{\hat{\mu},\hat{\sigma}^2}=\frac{1}{\sqrt{\mathbf{I}(\hat{\mu},\hat{\sigma}^2)}} \end{align*} Como el comando de optimización en R minimiza $-\log\mathcal{L}$ la matriz de información de Fisher (observada) se puede encontrar calculando la inversa del hessiano: \begin{align*} \mathbf{I}(\hat{\mu},\hat{\sigma}^2)=\mathbf{H}^{-1} \end{align*}
Mi pregunta principal: ¿Es correcto lo que digo? ?
Estoy un poco confundido, porque en este fuente en la página 7 dice:
la matriz de información es el negativo del valor esperado de la matriz hessiana
(Así que no hay inversa del hessiano).
Mientras que en este fuente en la página 7 (nota 5) dice:
La información observada de Fisher es igual a $(-H)^{-1}$ .
(Así que aquí está la inversa).
Soy consciente del signo menos y de cuándo usarlo y cuándo no, pero ¿por qué hay diferencia en tomar la inversa o no?