Teniendo una cadena de markov definida con una matriz de transición conocida, en lugar de calcular las probabilidades del estado estacionario, me gustaría simularlas y estimarlas.
En primer lugar, según tengo entendido, hay un tiempo de transición/calentamiento que debemos tener en cuenta, por lo que debemos ejecutar nuestra cadena de Markov durante un tiempo suficientemente largo para estar en estado estacionario. ¿Alguna idea de cómo estimar esto?
En segundo lugar, incluso si descartamos las k observaciones iniciales, ¿cómo medimos realmente las probabilidades? Yo utilizaría los dos enfoques siguientes:
-
después del periodo transitorio inicial observar en qué estado estamos y registrarlo. Después de N ejecuciones, tome el promedio de cada ocurrencia de cada estado para obtener aproximaciones. Problemas: Demasiado ineficiente
-
Después del tiempo transitorio inicial, genere N transiciones de estado y cuente las ocurrencias (SIN REINICIAR). Tome el promedio. Problemas: Cada una de las N muestras no son independientes
Me preguntaba si podríais indicarme la dirección correcta y detectar algún fallo en mi lógica. Gracias de antemano por su ayuda.