1 votos

Propiedades de la probabilidad conjunta/condicional de las cadenas de Markov

He estado buscando un poco y no encuentro si este tipo de operaciones están permitidas ya que es como explotar la propiedad Markov.

Consideremos una cadena de Markov perteneciente a un espacio de estados $S = \{1,2,3\}$ con el objetivo de encontrar (donde $a,b,c \in S$ ): $$\mathbb{P}(X_1=a, X_2=b, X_3=c | X_0 = a)$$

Dado que no estoy muy seguro de cómo resolver la probabilidad conjunta a la izquierda de la probabilidad condicional lo reescribí utilizando la propiedad: $$\mathbb{P}(A|B) = \frac{\mathbb{P}(A,B)}{\mathbb{P}(B)}$$

Lo que resulta en: $$ \frac{ \mathbb{P}(X_1=a, X_2=b, X_3=c, X_0 = a) }{ \mathbb{P}(X_0 = a)} \quad \quad ,\left(\mathbb{P}(X_0=a) \neq 0\right) $$

A continuación, aplicando la regla de la cadena al numerador (y anulando así el término del denominador): $$ \mathbb{P}(X_1=a | X_2=b, X_3=c, X_0=a) \cdot \mathbb{P}(X_2=b | X_3=c, X_0=a) \cdot \mathbb{P}(X_3=c | X_0=a) $$

Entonces, por la propiedad de Markov, esto se convierte en: $$ \mathbb{P}(X_1=a | X_0=a) \cdot \mathbb{P}(X_2=b | X_0=a) \cdot \mathbb{P}(X_3=c | X_0=a) $$

Que luego puedo resolver.


Sin embargo, tenga en cuenta que: $$ \mathbb{P}(X,Y) = \mathbb{P}(Y,X) $$

Así que retrocediendo un par de pasos antes de aplicar la regla de la cadena podríamos reescribir la fracción como:

$$ \frac{ \mathbb{P}(X_3=c, X_2=b, X_1=a, X_0 = a) }{ \mathbb{P}(X_0 = a)} \quad \quad ,\left(\mathbb{P}(X_0=a) \neq 0\right) $$

A continuación, aplicando la regla de la cadena como se ha hecho anteriormente: $$ \mathbb{P}(X_3=c | X_2=b, X_1=a, X_0=a) \cdot \mathbb{P}(X_2=b | X_1=a, X_0=a) \cdot \mathbb{P}(X_1=a | X_0=a) $$

Del mismo modo, por la propiedad de Markov esto se convierte en: $$ \mathbb{P}(X_3=c | X_2=b) \cdot \mathbb{P}(X_2=b | X_1=a) \cdot \mathbb{P}(X_1=a | X_0=a) $$

Como antes, ahora puedo resolver esto (y mucho más fácil que la ecuación final de la primera sección).


Que es donde tengo muchas dudas sobre si ese tipo de operación está permitida, que yo sepa... ¿o son equivalentes?

Muchas gracias de antemano.

3voto

Aaron Puntos 36

La multiplicación escalar es conmutativa así que..:

$$ \mathbb{P}(X_1=a | X_0=a) \cdot \mathbb{P}(X_2=b | X_0=a) \cdot \mathbb{P}(X_3=c | X_0=a),$$

es igual a:

$$ \mathbb{P}(X_3=c | X_2=b) \cdot \mathbb{P}(X_2=b | X_1=a) \cdot \mathbb{P}(X_1=a | X_0=a).$$

Todo lo que has hecho aquí es derivar esta expresión por dos métodos diferentes (muy largos). En realidad, es mucho más sencillo obtener este resultado a partir de la regla de multiplicación de la probabilidad condicional, combinada con la propiedad de Markov:

$$\begin{aligned} \mathbb{P}(X_1=a, X_2=b, X_3=c | X_0 = a) &= \mathbb{P}(X_3=c | X_0 = a, X_1=a, X_2=b ) \\[6pt] &\quad \times \mathbb{P}(X_2=b | X_0 = a, X_1=a) \\[6pt] &\quad \times \mathbb{P}(X_1=a | X_0 = a) \\[6pt] &= \mathbb{P}(X_3=c | X_2=b ) \cdot \mathbb{P}(X_2=b | X_1=a) \\[6pt] &\quad \times \mathbb{P}(X_1=a | X_0 = a) \\[6pt] \end{aligned}$$

0voto

Mr. Mr. Puntos 987

Para la ecuación de la primera sección, no creo que se pueda utilizar la propiedad de Markov para simplificar P(X1=a|X2=b,X3=c,X0=a) a P(X1=a|X0=a) porque P(X2) depende de P(X1). Creo que el segundo parece correcto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X