4 votos

Markov y variables aleatorias independientes

Esto es parte de un ejercicio del libro de probabilidad de Durrett.

Consideremos la cadena de Markov en $\{1,2,\cdots,N\}$ con $p_{ij}=1/(i-1)$ cuando $j<i, p_{11}=1$ et $p_{ij}=0$ de lo contrario. Supongamos que empezamos en el punto $k$ . Dejamos que $I_j=1$ si $X_n$ visita $j$ . Entonces $I_1,I_2,\cdots,I_{k-1}$ son independientes.

No me parece obvio que $I_1,\cdots,I_{k-1}$ son independientes. Es posible demostrar la independencia si calculamos todos los $P(\cap_{j\in J\subset\{1,\cdots,k-1\}}I_j)$ pero este trabajo es largo y tedioso. Dado que la independencia se escribió como algo obvio en este ejercicio, supongo que hay una manera más fácil.

3voto

Did Puntos 1

Dejemos que $A_k$ denotan el conjunto de $\mathfrak a=(a_i)_{1\leqslant i\leqslant k}$ tal que $a_1=a_k=1$ et $a_i$ está en $\{0,1\}$ por cada $2\leqslant i\leqslant k-1$ . Para cada $\mathfrak a$ en $A_k$ , dejemos que $U(\mathfrak a)=\{2\leqslant i\leqslant k\mid a_i=1\}$ . Entonces $$ \mathrm P((I_i)_{1\leqslant i\leqslant k}=\mathfrak a)=\prod_{u\in U(\mathfrak a)}\frac1{u-1}=\prod_{i=2}^k\frac1{(i-1)^{a_i}}. $$ La forma de producto de la RHS garantiza que $(I_i)_{1\leqslant i\leqslant k}$ es independiente.

Además, para cada $1\leqslant i\leqslant k-1$ sumando el lado derecho de cada $\mathfrak a=(a_i)_{1\leqslant i\leqslant k}$ en $A_k$ tal que $a_i=\alpha$ con $\alpha$ en $\{0,1\}$ muestra que $$ \mathrm P(I_i=\alpha)=\frac1{k-1}\frac1{(i-1)^{\alpha}}\prod_{2\leqslant j\leqslant k-1}^{j\ne i}\left(1+\frac1{j-1}\right)=\frac1{(i-1)^{\alpha}}\frac{i-1}i, $$ por lo que $\mathrm P(I_i=1)=\dfrac1i$ et $\mathrm P(I_i=0)=\dfrac{i-1}i$ .

1voto

Krish Puntos 11

Para cualquier $j$ Obsérvese que $X_{3}|X_{2}=j-1,X_{1}=j$ tiene la misma distribución que $X_{2}|X_{2} \neq j-1, X_{1}=j$ . Desde $X_{2}=j-1$ iif $I_{j-1}=1$ por markovianidad concluyen que $I_{j-1}$ es independiente de $(I_{j-2},\ldots,I_{1})$ dado que $X_{1}=j$ .

Demostremos por inducción que $I_{j-1}$ independiente de $(I_{j-2},\ldots,I_{1})$ dado que $X_{1}=k$ .

I) $j=k$ se desprende directamente del primer párrafo.

II) Supongamos ahora que $I_{a-1}$ independiente de $(I_{a-2},\ldots,I_{1})$ para todos $a \geq j+1$ . Así, $(I_{k-1},\ldots,I_{j})$ es independiente de $(I_{j-1},\ldots,I_{1})$ . Por lo tanto, para demostrar que $I_{j-1}$ es independiente de $(I_{j-2},\ldots,I_{1})$ podemos condicionar a $(I_{k-1}=1,\ldots,I_{j}=1)$ . Esto es lo mismo que el acondicionamiento en $(X_{2}=k-1,\ldots,X_{k-j+1}=j)$ . Por markovianidad y homogeneidad temporal, $(X_{k-j+2}^{\infty}|X_{k-j+1}=j,\ldots,X_{1}=k)$ se distribuye de forma idéntica a $(X_{2}^{\infty}|X_{1}=j)$ . Utilizando el primer párrafo, sabemos que $I_{j-1}$ es independiente de $(I_{j-1},\ldots,I_{1})$ dado que $X_{1}=j$ . Por lo tanto, por la igualdad de las distribuciones, $I_{j-1}$ es independiente de $(I_{j-2},\ldots,I_{1})$ dado que $X_{1}=k$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X