¿Cuál es la diferencia entre las cadenas de Markov y procesos de Markov?
Estoy leyendo información en conflicto: a veces, la definición se basa en si el espacio de estado es discreta o continua, y a veces se basa en si el tiempo es discreto continuo.
Diapositiva 20 de este documento:
Un proceso de Markov se llama una cadena de Markov si el espacio de estado es discreta, es decir, es finito o contable espacio es discreta, es decir, es finito o contable.
http://www.win.tue.nl/~iadan/que/h3.pdf :
Un proceso de Markov es el tiempo continuo de la versión de una cadena de Markov.
O uno puede utilizar la cadena de Markov y proceso de Markov como sinónimos, precisar si el parámetro de tiempo es continua o discreta, así como si el espacio de estado es continua o discreta.