4 votos

Ergodicity implica primer momento finito en cadenas de Markov de tiempo discreto?

Supongamos que $X(n)=(X_1(n),X_2(n))\in\mathbb{N}^2$ es un discreto tiempo homogéneo de la cadena de Markov con uniformemente acotada saltos (ver más abajo). Suponga que la cadena es ergodic y deje $\pi$ ser su invariante de la probabilidad de medir.

Si $Y$ es variable aleatoria distribuida como $\pi$, es cierto que $\mathbb{E}[Y]<\infty$? En otras palabras, estoy interesado en la comprensión de si ergodicity y uniformemente acotada saltos garantizar un finito primer momento.


Uniformemente acotado a los saltos. Me refiero a que existe cierta finito $c>0$ tal de que la transición a $x\mapsto x+(\Delta_1,\Delta_2)$ puede ocurrir sólo si $-c\le \Delta_1,\Delta_2<c$, para todos los $x$.

2voto

Misha Puntos 1723

Incluso en una dimensión, la respuesta es no: usted puede cocinar una ergodic de la cadena de Markov en $\mathbb N$ con una limitación arbitraria de distribución, incluso si usted requiere salta a estar delimitado por $\pm1$. Haga una pregunta acerca de 2D cadenas, pero podemos extender una 1D ejemplo a 2D en un número de maneras, tales como:

  • Doblar una 1D de la cadena de hacerlo en 2D, zigzagueando para cubrir todos los de $\mathbb N^2$.
  • De cada estado de la 2D de la cadena, elegir con probabilidad de $\frac12$ ya sea a pie, en el $x$ o de la $y$ dirección y siga la 1D de la cadena para cualquier dirección que usted elija.
  • Sólo integrar la 1D de la cadena como los estados $(x,1) \in \mathbb N^2$, de modo que los estados $(x,y)$ $y>1$ son inalcanzables. (Tienen que ir a $(x,y-1)$ con una probabilidad de $1$ si te gusta, por lo que los estados de la 1D de la cadena son los únicos recurrentes de los estados.)

Para obtener un ejemplo de cómo lograr una arbitraria distribución de probabilidad, tome la siguiente cadena de Markov. Aquí, cada estado bucles de nuevo a sí mismo, con lo que el resto de la probabilidad, y $C$ es el elegido para asegurarse de que las sobras de probabilidad es positiva ($C = \frac12$ va a hacer).

enter image description here

Esta cadena de Markov tiene la limitación de la distribución de $\pi_n = \frac6{\pi^2 n^2}$ debido a esto satisface el balance detallado de las ecuaciones $\pi_n p_{n,n+1} = \pi_{n+1} p_{n+1,n}$ todos los $n$. He aquí, entonces, el valor esperado es $$\sum_{n\ge 1}n \pi_n = \sum_{n \ge 1} \frac{6}{\pi^2n} = \infty.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X