Dejemos que $ \{ X_i \}_{i=1}^{T}$ sea una trayectoria de la cadena de Markov y que $P_{\theta}(X_1, ..., X_T)$ sea la probabilidad de observar la trayectoria cuando $\theta$ es el verdadero valor del parámetro (también conocido como la función de probabilidad para $\theta$ ). Utilizando la definición de probabilidad condicional, sabemos
$$ P_{\theta}(X_1, ..., X_T) = P_{\theta}(X_T | X_{T-1}, ..., X_1) \cdot P_{\theta}(X_1, ..., X_{T-1})$$
Como se trata de una cadena de Markov, sabemos que $P_{\theta}(X_T | X_{T-1}, ..., X_1) = P_{\theta}(X_T | X_{T-1} )$ Así que esto se simplifica a
$$ P_{\theta}(X_1, ..., X_T) = P_{\theta}(X_T | X_{T-1}) \cdot P_{\theta}(X_1, ..., X_{T-1})$$
Ahora bien, si se repite esta misma lógica $T$ veces, se obtiene
$$ P_{\theta}(X_1, ..., X_T) = \prod_{i=1}^{T} P_{\theta}(X_i | X_{i-1} ) $$
donde $X_0$ debe interpretarse como el estado inicial del proceso. Los términos del lado derecho son sólo elementos de la matriz de transición. Como era la log-verosimilitud que pediste, la respuesta final es:
$$ {\bf L}(\theta) = \sum_{i=1}^{T} \log \Big( P_{\theta}(X_i | X_{i-1} ) \Big) $$
Se trata de la probabilidad de una sola cadena de Markov; si su conjunto de datos incluye varias cadenas de Markov (independientes), la probabilidad completa será una suma de términos de esta forma.
0 votos
Ya has calculado la estimación de máxima verosimilitud de las probabilidades de transición y ahora quieres calcular la log-verosimilitud de qué exactamente?