Supongamos que $p=\begin{bmatrix} 0& 1\over 3 &0 &2\over 3 \\ 0.3& 0& 0.7 &0 \\ 0& 2\over 3&0 &1\over3 \\ 0.8& 0& 0.2& 0 \end{bmatrix}$es la probabilidad de transición de la matriz de Markov cadena con espacio de estado {1, 2, 3, 4}. Cómo conseguir la limitación de las probabilidades de la cadena de Markov. Creo que si más diferentes alternativas de respuesta y apporach sería mejor. De hecho, me sabe un poco acerca de la limitación de la probabilidad, pero no está seguro de cómo aplicar en esta pregunta. Paso claro para ilustrar cómo funciona o explicación sería apreciada y quiero aprender cómo otros interpretan el concepto de probabilidad
Respuesta
¿Demasiados anuncios?Para encontrar un invariante de la distribución para una cadena de Markov, que le dará información sobre el largo plazo de probabilidad, se pueden usar dos métodos. La solución de la "mano izquierda ecuaciones" para una irreducible y recurrente de la cadena de Markov: $$\pi_i = \displaystyle \sum_{j\in I} P_{ji} \pi_j$$
(Donde $I$ es el espacio de estado)le dará un invariante de la medida, y la restricción de
$$\displaystyle \sum_{j\in I} \pi_j = 1$$
le dará un invariante de la distribución. Estas ecuaciones dan a largo plazo de la proporción de tiempo empleado en cada estado$i$$\pi_i$. Este es invariante porque está diciendo: "la probabilidad de estar en un estado de $i$ es igual a la suma de las probabilidades de estar en cualquier otro estado $j$ ( $\pi_j$ ) y, a continuación, mover en el estado de $i$ ($P_{ji}$)
Cuando usted se siente más cómodo con la idea de invariantes de las distribuciones, usted puede ahorrar tiempo (como en este caso) mirando en el llamado "balance detallado de las ecuaciones", pero es más complicado, y he de ejecutar fuera de tiempo! Es mejor comenzar con lo básico, sin embargo, y buscar más información sobre el balance detallado un poco más tarde, si usted me pregunta.