12 votos

¿Cuál es la diferencia entre todos los tipos de cadenas de Markov?

He estado buscando un buen material para cubrir las cadenas de Markov pero todo me parece tan difícil... Después de leer sobre el tema, me di cuenta de que hay básicamente tres tipos de procesos: tiempo discreto, tiempo continuo y procesos de decisión de Markov. Comencé a leer Introducción a los Modelos de Probabilidad, Décima Edición, de Sheldon M. Ross, acerca de los procesos de tiempo discreto y luego, después de juzgarme introducido al tema traté de leer acerca de los procesos de tiempo continuo y me confundí. ¿Podría alguien darme una explicación sobre el tema (como el otro tema de las Cadenas de Markov: ¿Qué es una Cadena de Markov?), centrándose en las diferencias y al menos una aplicación simple?

También me gustaría que me sugiriera libros que no utilicen un lenguaje muy complicado para explicar el tema. El libro que he citado parece genial (aunque tengo muchas dudas sobre las fórmulas/pruebas y la notación matemática) pero hay demasiada gente que dice que el libro no explica el tema correctamente.

¡Muchas gracias!

0 votos

Las diferencias tienen que ver con cómo traducir el problema en un problema de cadena de Markov, y cómo traducir la respuesta de la cadena de Markov de nuevo en una solución al problema original. Pero el análisis de la cadena de Markov es el mismo en los tres casos. Esto es muy parecido a cómo pueden utilizarse los vectores propios/valores propios para resolver problemas de evolución en tiempo discreto y también problemas de evolución en tiempo continuo. Las únicas diferencias entre las dos aplicaciones es cómo ir y venir del problema original al entorno del álgebra lineal. ¿Tu problema es con las traslaciones o con las cadenas?

0 votos

Ahora me pregunto si he malinterpretado su pregunta. He dado una respuesta "general"; sin embargo, como pregunta Arturo Magidin, ¿tu problema es la traslación al entorno del álgebra lineal?

0 votos

Sí, tengo problemas con la traducción, pero creo que es por malinterpretar los conceptos básicos de las cadenas. De verdad, me aburren mucho los libros.

22voto

Martin OConnor Puntos 116

A Cadena de Markov es un proceso de Markov de valores discretos. Valores discretos significa que el espacio de estados de los posibles valores de la cadena de Markov es finito o contable. A Proceso de Markov es básicamente un proceso estocástico en el que la historia pasada del proceso es irrelevante si se conoce el estado actual del sistema. En otras palabras, toda la información sobre el pasado y el presente que sería útil para decir algo sobre el futuro está contenida en el estado actual.

A cadena de Markov en tiempo discreto es uno en el que el sistema evoluciona a través de pasos de tiempo discretos. Por tanto, los cambios en el sistema sólo pueden producirse en uno de esos valores temporales discretos. Un ejemplo es un juego de mesa como Toboganes y escaleras (aparentemente llamado "Snakes and Ladders" fuera de Estados Unidos) en el que las piezas se mueven por el tablero según la tirada de un dado. Si miras el tablero al principio del turno de alguien y te preguntas cómo será el tablero al principio del turno de la siguiente persona, no importa cómo han llegado las piezas a sus posiciones actuales (la historia pasada del sistema). Lo único que importa es que las piezas están donde están actualmente (el estado actual del sistema) y la próxima tirada de dado (el aspecto probabilístico). Esto es discreto porque los cambios en el estado del sistema sólo pueden ocurrir en el turno de alguien.

A cadena de Markov de tiempo continuo es aquella en la que los cambios en el sistema pueden producirse en cualquier momento a lo largo de un intervalo continuo. Un ejemplo es el número de coches que han visitado un autoservicio en un restaurante de comida rápida local durante el día. Un coche puede llegar en cualquier momento $t$ en lugar de a intervalos de tiempo discretos. Dado que las llegadas son básicamente independientes, si se conoce el número de coches que han pasado por el autoservicio a las 10:00 a.m., lo que ha ocurrido antes de las 10:00 a.m. no proporciona ninguna información adicional que sea útil para predecir el número de coches que habrán visitado el autoservicio, por ejemplo, al mediodía. (Esto es así bajo el supuesto habitual pero razonable de que las llegadas al autoservicio siguen una Proceso de Poisson .)

A Proceso de decisión de Markov es sólo una cadena de Markov que incluye un agente que toma decisiones que afectan a la evolución del sistema en el tiempo. (Así que no lo considero un tipo de cadena de Markov aparte, ya que la definición habitual de cadena de Markov no incluye a dicho agente). Un ejemplo (de tiempo continuo) sería el inventario de patatas fritas de un supermercado local. Si se conoce el nivel de inventario a las 10:00 horas y se intenta predecir el nivel de inventario a mediodía, los niveles de inventario anteriores a las 10:00 horas no dicen nada más allá de lo que ya se sabe sobre el nivel a las 10:00 horas. Por lo tanto, el nivel de inventario en cualquier momento $t$ no sólo depende de (el aspecto probabilístico de) que los clientes lleguen aleatoriamente y se lleven bolsas de la estantería, sino también de las decisiones (deterministas) del gerente. (Un ejemplo de proceso de decisión de Markov en tiempo discreto es el juego de mesa Parchís . La posición del tablero al comienzo del siguiente turno del jugador depende únicamente de la posición actual del tablero, de la tirada de dados del jugador actual (el aspecto de la cadena de Markov) y de la decisión del jugador actual sobre qué piezas mover en función de la tirada de dados (el aspecto del proceso de decisión).

0 votos

Gracias por su respuesta. Es lo que quería, pero veo que necesito releer algo más técnico o algo que me facilite esos libros técnicos.

1 votos

@IHawk: Si conociera otro buen texto sobre cadenas de Markov lo recomendaría, pero el de Ross Introducción a los modelos de probabilidad es el mejor que conozco.

0 votos

Quizá la descripción debería añadir que una cadena de Markov es un caso especial de proceso de Markov, en el sentido de que (normalmente) toma valores ("estados") en un espacio discreto (a menudo finito).

1voto

Ajinkya Puntos 61

La cadena de Markov es un tipo especial de proceso estocástico en el que el resultado de un xperimento depende únicamente del resultado del xperimento anterior. Se puede encontrar en las ciencias naturales y sociales, por ejemplo, un caminante aleatorio y el número de cada especie de un ecosistema en un año determinado.

2 votos

No creo que esta respuesta aporte nada nuevo a la respuesta ya existente, bastante extensa.

0voto

user87568 Puntos 36

Hay algunas fuentes excelentes en la web. OMI una de las mejores son los apuntes de David Anderson en la Universidad de Wisconsin, aunque pueden ser más avanzados de lo que buscas.

Te daré mi visión heurística de los procesos de Markov continuos frente a los discretos. Supongo, por tu mensaje, que estás familiarizado con el caso discreto. Para pasar al caso continuo, superpones un mecanismo que dicta cuándo cambia el proceso. Piensa que cada estado tiene su propio despertador, que se dispara con una distribución exponencial. Esta distribución es necesaria para preservar la propiedad de Markov. Cuando suena la alarma, el estado debe cambiar. El estado al que cambia está gobernado por una matriz de transición de Markov discreta con P(i,i)=0.(Para que el proceso deba cambiar de estado) Espero que esto ayude

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X