deje $X_1, \dots, X_n$ ser IID variables aleatorias continua con densidad de $g(x|\theta_0)$, donde $\theta_0 \in \Theta \subset \mathbb{R}$ e $\Theta = \{ \theta_0, \theta_1, \dots, \theta_m \}$ (el parámetro espacio es finito, estamos en un caso muy simple).
Definimos la log-verosimilitud como
$$ \ell_n(\theta) : = \sum_{i= 1}^n \log g(X_i | \theta)$$
Supongamos que nos han demostrado que $\ell_n(\theta_0) - \ell_n(\theta) \rightarrow \infty$ casi seguramente. Se ha corregido un $\epsilon > 0$ existe un $n_0 \in \mathbb{N}$ s.la definición de t
$$A_j = \{ \ell_n(\theta_0) - \ell_n(\theta_j) > \epsilon , \ \forall{n} > n_0 \}$$ tenemos $P(A_j) > 1- \delta$ donde $\delta > 0$ es arbitraty. ( esto se puede hacer ya que sabemos que $\ell_n(\theta_0) - \ell_n(\theta) \rightarrow \infty$ casi seguramente).
Entonces tenemos que
$$ P \left( \bigcap_{j = 1}^m A_j \right) \ge 1- \sum_{j=1}^mP \left( A_j^c \right) \ge 1- m \delta $$
así pues, hemos demostrado que
$ P\{ \ell_n(\theta_0) - \ell_n(\theta_j) > \epsilon , \ \forall{j} \ne 0 , \ \forall{n} > n_0 \} \ge 1- m \delta \tag{1}$
es que, al parecer, de inmediato (y aquí está mi problema) que la máxima probabilidad del estimador $ \hat{\theta} : = \arg \max \ell_n(\theta)$ converge casi seguramente a $\theta_0$.
¿Por qué es este último paso "obvio"?
Mi intento:
En particular, $(1)$ implica que $ P\{ \ell_n(\theta_0) - \max_{\theta} \ell_n(\theta) > \epsilon , \ \forall{n} > n_0 \} \ge 1- m \delta$
y de alguna manera debemos conseguir que $\ell_n ( \hat{\theta}) $ converge casi seguramente a $\ell(\theta_0)$ que nos debe de dar ese $\hat{\theta} \rightarrow \theta_0$ .