28 votos

De Markov del proceso frente de la cadena de markov vs proceso aleatorio vs proceso estocástico vs colección de variables aleatorias

Estoy tratando de entender cada uno de los términos anteriores, y estoy teniendo un montón de problemas para descifrar la diferencia entre ellos (nota, mi entrenamiento en matemáticas no es muy fuerte - así que por favor ir fácil en la jerga / expresión con un montón de puntos y flechas entre las letras).

De acuerdo a la wikipeda:
Una Cadena de Markov es un 'memoryless', 'azar'.
Un Proceso de Markov es un proceso estocástico', que exhibe el 'Markov propiedad".
La propiedad de Markov es el 'memorylessness' de un 'estocástica de la propiedad".
Un proceso Estocástico es un proceso aleatorio', que es una colección de variables aleatorias'.
Y por último, las variables aleatorias son los determinados por casualidad en lugar de otras variables --- que parece decir explícitamente que son memoryless.

Por lo tanto, parece que el proceso estocástico, proceso aleatorio, la cadena de markov, y el proceso de markov son todos exactamente lo mismo... que es una colección de variables aleatorias, que son la memoria-menos, lo que significa que tienen la propiedad de Markov.

Gah! Wikipedia matemáticas es brutal...

24voto

dtldarek Puntos 23441

La diferencia entre las cadenas de Markov y procesos de Markov es en el conjunto de índices, las cadenas tienen un tiempo discreto, los procesos tienen (en general) continua.

Las variables aleatorias son como Conejillos de indias, ni cerdo, ni de Guinea. Las variables aleatorias son funciones (que son deterministas, por definición). Están definidos en la probabilidad de espacio que más a menudo se denota todos los posibles resultados de su experimento/modelo. En las escuelas de su valor conjunto es casi siempre un subconjunto de a $\mathbb{R}$.

Las secuencias de variables aleatorias no necesita ser memoryless, por ejemplo, secuencias de variables aleatorias que denotan algunos acumulables en general no memoryless. Por otro lado, por ejemplo, secuencias de independientes idénticamente distribuidas al azar variables no dependen del tiempo, y por lo tanto tienen que ser memoryless. Esos dos ejemplos son algo así como los extremos, donde la variable siguiente en la secuencia depende sobre todo de la anterior (en el ejemplo anterior), o ninguno de ellos (en el último). La propiedad de Markov nos dice, que puede depender, pero si lo hacen, no es mucho (por ejemplo, en el caso de tiempo discreto, es decir, las cadenas de Markov, que significa que la próxima sólo depende de la corriente y nada más).

Espero que explica algo ;-)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X