6 votos

Teoría ergódica para procesos de markov.

Para un ergodic de la Cadena de Markov $$ \frac{1}{N}\sum_{i=1}^n f(X_i) \rightarrow E_\pi[f] $$ donde $\pi$ es el invariante de distribución. También estoy tratando con un Markovian proceso (un modelo de espacio de estado para ser específicos) y tengo una cantidad similar a la siguiente: $$ \frac{1}{T} \sum_{t=1}^T \log p(x_t \mid x_{t-1},\theta) $$ donde el espacio de estado del modelo que genera los datos es $x(0) \sim p(x_0)$ y el modelo de transición es $x_t \sim p(x_t \mid x_{t-1},\theta)$. Puedo aplicar el ergodic theory en esta configuración? Si es así, ¿qué sería de la anterior suma converge a?

En general, en lugar de $\frac{1}{T}\sum_{t=1}^T f(X_t)$ ¿qué sucede si he a $\frac{1}{T}\sum_{t=1}^T f(X_{t-L},\dots,X_t)$?

3voto

ykh Puntos 108

Decir que su espacio de estado es $\Omega$ y su proceso es $X_{t}$. Considere ahora un nuevo espacio de estado - $\Omega \times \Omega$. A continuación, $Y_{y} := (X_{t-1}, X_{t})$ es un proceso de Markov en $\Omega \times \Omega$. Ahora, usted puede utilizar el ergodic teorema, siempre y cuando se conozca el invariante de distribución de $Y_t$. Esta es una distribución de pares $(X_{t-1}, X_t)$ e se puede escribir como la distribución conjunta $\pi( x_{t-1}, x_t)$. Por las leyes de la probabilidad, $$ \pi( x_{t-1}, x_t ) = \pi (x_{t-1} ) p( x_t | x_{t-1} ). $$

Por lo tanto:

\begin{align} \lim _{T\to \infty} \frac{1}{T} \sum_{t=1}^{T} \log p(x_t | x_{t-1} ) &= \mathbb{E}_{\pi( x, y )} [ \log p( y | x ) ]\\ &= \sum_{(x,y) \in \Omega \times \Omega } \log p( y | x ) \pi(x,y) \\ &= \sum_{(x,y) \in \Omega \times \Omega } \log \frac{\pi(x,y)}{\pi(x)} \pi(x,y) \\ &= \sum_{(x,y) \in \Omega \times \Omega } \log \pi(x,y) \pi(x,y) -\log \pi(x) \pi(x,y) \\ &= \sum_{(x,y) \in \Omega \times \Omega } \log \pi(x,y) \pi(x,y) -\sum_{x \in \Omega } \log \pi(x) \pi(x) \text{ marginalized in } y \\ &= H(X_{t-1}) - H(X_{t-1},X_t) \\ &= H(X_{t-1}) - H(X_{t-1},X_t) \\ &= -H(X_t | X_{t-1} ). \end{align}

$H$ es la entropía de la función(al) y el $H(X|Y)$ es el condicional de la entropía. De acuerdo a Wikipedia: la entropía condicional (o equivocidad) cuantifica la cantidad de información necesaria para describir el resultado de una variable aleatoria Y dado que el valor de otra variable aleatoria X es conocido.

Entonces creo que tal vez usted debería considerar la posibilidad de la negativa de la cantidad anterior. Respecto a tu última pregunta, se puede aplicar el mismo truco de arriba a $(X_{t-L} ,..., x_{t})$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X