2 votos

¿Por qué $\alpha(x) \mathbb E^{x}[\tau_{x}]=\mathbb E^{\alpha}\left[1_{\{X_{0}=x\} }\tau_{x}\right]$

Dejemos que $\alpha$ sea la distribución estacionaria en el espacio de estados contable $E$ y que $x \in E$ .

Estoy luchando con un paso en la prueba que $\alpha(x) \mathbb E^{x}[\tau_{x}]=P^{\alpha}\left(\tau_{x}<\infty\right)$

Tenga en cuenta que $P^{\alpha}$ denota la distribución, con punto de partida según la distribución $\alpha$ , mientras que $P^{x}$ denota la distribución con inicio casi seguro en el estado $x$ .

Mi problema:

¿Por qué es

$\alpha(x) \mathbb E^{x}[\tau_{x}]=\mathbb E^{\alpha}\left[1_{\{X_{0}=x\} }\tau_{x}\right]$

Evidentemente, tiene algo que ver con la estacionalidad, pero no encuentro una justificación adecuada.

Cualquier ayuda es muy apreciada.

1voto

Reto Meier Puntos 55904

Si $\alpha(x)=0$ entonces ambos lados son 0 y la afirmación es trivial.

Si no, entonces $$\mathbb{E}^x[\tau_x] = \mathbb{E}^{\alpha}[\tau_x \mid X_0 = x] = \frac{\mathbb{E}^\alpha[1_{\{X_0 = x\}} \tau_x]}{\mathbb{P}^\alpha(X_0 = x)} = \frac{\mathbb{E}^\alpha[1_{\{X_0 = x\}} \tau_x]}{\alpha(x)}$$ por la propiedad de Markov, la definición de expectativa condicional y la definición de $\mathbb{P}^\alpha$ .

Sería cierto para cualquier distribución de probabilidad $\alpha$ no tiene por qué ser la distribución estacionaria.

Actualización. La afirmación de que $\mathbb{E}^x[\tau_x] = \mathbb{E}^{\alpha}[\tau_x \mid X_0 = x]$ es una consecuencia de la propiedad de Markov; pero requiere cierto trabajo (elemental pero tedioso) demostrarlo a partir de la definición original de la propiedad de Markov $$\mathbb{P}(X_{n+1}=x_{n+1}|X_{n}=x_{n},....,X_{0}=x_{0})=\mathbb{P}(X_{n+1}=x_{n+1}|X_{n}=x_{n}). \tag{MP}$$ En primer lugar, debemos tener clara la definición de $\mathbb{P}^\alpha$ y $\mathbb{P}^x$ . $\mathbb{P}^\alpha$ debe definirse como alguna medida de probabilidad en el espacio muestral $(\Omega, \mathcal{F})$ tal que:

  1. El proceso $(X_0, X_1, \dots)$ sigue siendo una cadena de Markov bajo $\mathbb{P}^\alpha$ es decir, (MP) es válido para $\mathbb{P}^\alpha$ siempre que $\mathbb{P}^\alpha(X_n = x_n, \dots, X_0 = x_0) > 0$ .

  2. El proceso $(X_0, X_1, \dots)$ tiene las mismas probabilidades de transición bajo $\mathbb{P}^\alpha$ como sigue $\mathbb{P}$ es decir, tenemos $\mathbb{P}^\alpha(X_{n+1} = z \mid X_n = y) = \mathbb{P}(X_{n+1} = z \mid X_n = y)$ siempre que $\mathbb{P}^\alpha(X_n = y) > 0$ .

  3. $\mathbb{P}^\alpha(X_0 = y) = \alpha(y)$ para todos $y \in E$ .

Nótese que todo esto tiene sentido para cualquier distribución de probabilidad $\alpha$ en $E$ , no necesariamente una distribución estacionaria. $\mathbb{P}^x$ se define de forma similar, excepto que en lugar de (3), tenemos $\mathbb{P}^x(X_0 = x) = 1$ .

Supongamos que $\alpha(x) > 0$ ya que de lo contrario, como se ha señalado, todo es trivial.

La idea básica es que el proceso $X_n$ tiene el mismo aspecto bajo $\mathbb{P}^\alpha$ condicionado a $X_0 = x$ como lo hace en $\mathbb{P}^x$ . Específicamente:

Lema 1. Por cada $x_1, \dots, x_n$ tenemos $$\mathbb{P}^\alpha(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) = \mathbb{P}^x(X_n = x_n, \dots, X_1 = x_1).$$

Prueba. Por inducción en $n$ . Para $n=1$ tenemos, a partir de (2) de la definición, $$\mathbb{P}^\alpha(X_1 = x_1 \mid X_0 = x) = \mathbb{P}(X_1 = x_1 \mid X_0 = x) = \mathbb{P}^x(X_1 = x_1 \mid X_0 = x) = \mathbb{P}^x(X_1 = x_1)$$ donde la última igualdad se debe a que $\mathbb{P}^x(X_0 = x) = 1$ . Para el paso inductivo, supongamos que el lema se cumple para $n$ . Ahora, por condicionamiento, tenemos

$$\begin{align} \mathbb{P}^\alpha(X_{n+1} = x_{n+1}, \dots, X_1 = x_1 \mid X_0 = x) &= \mathbb{P}^\alpha(X_{n+1} = x_{n+1} \mid X_n = x_n, \dots, X_0 = x) \cdot\mathbb{P}^\alpha(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) &&\text{conditioning} \\ &= \mathbb{P}^\alpha(X_{n+1} = x_{n+1} \mid X_n = x_n) \cdot \mathbb{P}^\alpha(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) && \text{Markov property} \\ &= \mathbb{P}^x(X_{n+1} = x_{n+1} \mid X_n = x_n) \cdot \mathbb{P}^x(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) && \text{def. 2 and induction hyp.} \\ &= \mathbb{P}^x(X_{n+1} = x_{n+1} \mid X_n = x_n, \dots, X_0 = x) \cdot\mathbb{P}^x(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) && \text{Markov property}\\ &= \mathbb{P}^x(X_{n+1} = x_{n+1}, \dots, X_1 = x_1 \mid X_0 = x) && \text{conditioning} \\ &= \mathbb{P}^x(X_{n+1} = x_{n+1}, \dots, X_1 = x_1) && (\mathbb{P}^x(X_0 = x) = 1) \end{align}$$ Dejo como ejercicio verificar que la afirmación sigue siendo válida en el caso de que alguno de los sucesos condicionados arriba tenga probabilidad cero.

Ahora usando esto, podemos mostrar:

Lema 2. Para cualquier $k$ y cualquier $y \in E$ tenemos $\mathbb{P}^\alpha(\tau_y = k \mid X_0 = x) = \mathbb{P}^x(\tau_y = k)$ .

Prueba . Tenga en cuenta que el evento $\{\tau_y = k\}$ es sólo el evento $\{X_k = y, X_{k-1} \ne y, \dots, X_1 \ne y\}$ Así que $$\begin{align*} \mathbb{P}^\alpha(\tau_y = k \mid X_0 = x) &= \mathbb{P}^\alpha(X_k = y, X_{k-1} \ne y, \dots, X_1 \ne y \mid X_0 = x) \\ &= \sum_{x_{k-1}, \dots, x_1 \in E \setminus \{y\}} \mathbb{P}^\alpha(X_k = y, X_{k-1} = x_{k-1}, \dots, X_1 = x_1 \mid X_0 = x) \\ &= \sum_{x_{k-1}, \dots, x_1 \in E \setminus \{y\}} \mathbb{P}^x(X_k = y, X_{k-1} = x_{k-1}, \dots, X_1 = x_1) \\ &= \mathbb{P}^x(\tau_y = k). \end{align*}$$

Por último, para demostrar la afirmación deseada, observamos $$\begin{align*}\mathbb{E}^\alpha[\tau_y \mid X_0 = x] &= \sum_{k=1}^\infty k \cdot\mathbb{P}^\alpha(\tau_y = k \mid X_0 = x) \\ &= \sum_{k=1}^\infty k \cdot\mathbb{P}^x(\tau_y = k) \\ &= \mathbb{E}^x[\tau_y]. \end{align*}$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X