Estoy tratando de entender procesos de Markov pero todavía estoy confundido por su definición. En particular, la página de la Wikipedia da este ejemplo de un no-Markov proceso. El ejemplo es el de tirar de las diferentes monedas de una bolsa al azar, y el artículo parece dar a entender que en cualquier momento se requiere información acerca de los estados para determinar el siguiente estado, no es un proceso de Markov.
¿Pero no es eso lo que de orden superior de las cadenas de Markov son? En el artículo de la Wikipedia, no han representado el proceso con un orden n de la cadena de Markov, donde n es el número de monedas en la bolsa? (Estoy seguro de que me he equivocado aquí, pero no puedo ver exactamente cómo).
Descargo de responsabilidad: pido Disculpas si esta pregunta está por debajo de la normal de calidad - es porque yo estudio ciencias de la computación, no de las matemáticas.
EDITAR
Sólo aclarando lo que mi confusión es. ¿Por qué no nos representan las monedas de ser eliminado de una bolsa con los estados, tales como:
- estados iniciales {coin1, coin2, ..., coinN}
- los estados en t=1 {coin1&coin2, coin1&coin3, ..., de la moneda(N-1) y de la moneda(N)}
...donde cada estado representa las monedas que han sido elegidos hasta ahora? Las probabilidades podrían ser asignados a estos estados que reflejen los estados anteriores, pero todavía sólo se necesita saber el estado actual con el fin de predecir la siguiente. Así que ¿por qué no sacar monedas de una bolsa de un proceso de Markov?