Estoy siguiendo Kashin la revisión de la EML
Supongamos que tenemos una simple distribución de Bernoulli y sabemos que su verdadero parámetro de $p_0$. El Fisher expected information
$I(p_0)$ es igual a la varianza de la puntuación esperada, cuando se evalúa a $p_0$.
Es también conocido que el MLE estimación $p_{mle}$ converge a $p_0$ como $N(p_0, I(p_0)^{-1})$. Así como MAYOR la información que obtiene, la varianza de la puntuación que se obtiene más GRANDE, pero nuestra confianza en el MLE se pone mejor! Esto no tiene sentido para mí de forma intuitiva:
En la de abajo los gráficos el eje X los valores de $p$, y tanto la log-verosimilitud $L$ y el puntaje $S$ se trazan para 2 muestras. En el gráfico de la izquierda tienen una mayor observado fisher información que en el derecho, por lo que sus curvaturas son más pronunciada y, de hecho, la puntuación cuando se evalúa a $p_0$ tiene una mayor varianza (en verde).
Así que ¿por qué es que estamos más seguros de que la Emv en el gráfico de la izquierda van a converger hacia la $p_0$? Podemos ver que su puntuación de variación en $p_0$ es mayor, lo que significa que están más lejos de la puntuación esperada $E(S(p_0)) = 0$.
Kashin tiene una prueba formal, nadie puede establecer una explicación intuitiva de este contra-intuitivo (al menos para mí) fenómeno?
NOTA: me doy cuenta de que la curvatura de la likelhoods de la izquierda es más pronunciado que los de la derecha, y entiendo que la intuición detrás de esta interpretación de la información - es la otra interpretación de la información - la puntuación de la varianza cuando se evaluó en el verdadero parámetro - lo que quiero entender.
Gracias!