Si $\alpha(x)=0$ entonces ambos lados son 0 y la afirmación es trivial.
Si no, entonces $$\mathbb{E}^x[\tau_x] = \mathbb{E}^{\alpha}[\tau_x \mid X_0 = x] = \frac{\mathbb{E}^\alpha[1_{\{X_0 = x\}} \tau_x]}{\mathbb{P}^\alpha(X_0 = x)} = \frac{\mathbb{E}^\alpha[1_{\{X_0 = x\}} \tau_x]}{\alpha(x)}$$ por la propiedad de Markov, la definición de expectativa condicional y la definición de $\mathbb{P}^\alpha$ .
Sería cierto para cualquier distribución de probabilidad $\alpha$ no tiene por qué ser la distribución estacionaria.
Actualización. La afirmación de que $\mathbb{E}^x[\tau_x] = \mathbb{E}^{\alpha}[\tau_x \mid X_0 = x]$ es una consecuencia de la propiedad de Markov; pero requiere cierto trabajo (elemental pero tedioso) demostrarlo a partir de la definición original de la propiedad de Markov $$\mathbb{P}(X_{n+1}=x_{n+1}|X_{n}=x_{n},....,X_{0}=x_{0})=\mathbb{P}(X_{n+1}=x_{n+1}|X_{n}=x_{n}). \tag{MP}$$ En primer lugar, debemos tener clara la definición de $\mathbb{P}^\alpha$ y $\mathbb{P}^x$ . $\mathbb{P}^\alpha$ debe definirse como alguna medida de probabilidad en el espacio muestral $(\Omega, \mathcal{F})$ tal que:
-
El proceso $(X_0, X_1, \dots)$ sigue siendo una cadena de Markov bajo $\mathbb{P}^\alpha$ es decir, (MP) es válido para $\mathbb{P}^\alpha$ siempre que $\mathbb{P}^\alpha(X_n = x_n, \dots, X_0 = x_0) > 0$ .
-
El proceso $(X_0, X_1, \dots)$ tiene las mismas probabilidades de transición bajo $\mathbb{P}^\alpha$ como sigue $\mathbb{P}$ es decir, tenemos $\mathbb{P}^\alpha(X_{n+1} = z \mid X_n = y) = \mathbb{P}(X_{n+1} = z \mid X_n = y)$ siempre que $\mathbb{P}^\alpha(X_n = y) > 0$ .
-
$\mathbb{P}^\alpha(X_0 = y) = \alpha(y)$ para todos $y \in E$ .
Nótese que todo esto tiene sentido para cualquier distribución de probabilidad $\alpha$ en $E$ , no necesariamente una distribución estacionaria. $\mathbb{P}^x$ se define de forma similar, excepto que en lugar de (3), tenemos $\mathbb{P}^x(X_0 = x) = 1$ .
Supongamos que $\alpha(x) > 0$ ya que de lo contrario, como se ha señalado, todo es trivial.
La idea básica es que el proceso $X_n$ tiene el mismo aspecto bajo $\mathbb{P}^\alpha$ condicionado a $X_0 = x$ como lo hace en $\mathbb{P}^x$ . Específicamente:
Lema 1. Por cada $x_1, \dots, x_n$ tenemos $$\mathbb{P}^\alpha(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) = \mathbb{P}^x(X_n = x_n, \dots, X_1 = x_1).$$
Prueba. Por inducción en $n$ . Para $n=1$ tenemos, a partir de (2) de la definición, $$\mathbb{P}^\alpha(X_1 = x_1 \mid X_0 = x) = \mathbb{P}(X_1 = x_1 \mid X_0 = x) = \mathbb{P}^x(X_1 = x_1 \mid X_0 = x) = \mathbb{P}^x(X_1 = x_1)$$ donde la última igualdad se debe a que $\mathbb{P}^x(X_0 = x) = 1$ . Para el paso inductivo, supongamos que el lema se cumple para $n$ . Ahora, por condicionamiento, tenemos
$$\begin{align} \mathbb{P}^\alpha(X_{n+1} = x_{n+1}, \dots, X_1 = x_1 \mid X_0 = x) &= \mathbb{P}^\alpha(X_{n+1} = x_{n+1} \mid X_n = x_n, \dots, X_0 = x) \cdot\mathbb{P}^\alpha(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) &&\text{conditioning} \\ &= \mathbb{P}^\alpha(X_{n+1} = x_{n+1} \mid X_n = x_n) \cdot \mathbb{P}^\alpha(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) && \text{Markov property} \\ &= \mathbb{P}^x(X_{n+1} = x_{n+1} \mid X_n = x_n) \cdot \mathbb{P}^x(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) && \text{def. 2 and induction hyp.} \\ &= \mathbb{P}^x(X_{n+1} = x_{n+1} \mid X_n = x_n, \dots, X_0 = x) \cdot\mathbb{P}^x(X_n = x_n, \dots, X_1 = x_1 \mid X_0 = x) && \text{Markov property}\\ &= \mathbb{P}^x(X_{n+1} = x_{n+1}, \dots, X_1 = x_1 \mid X_0 = x) && \text{conditioning} \\ &= \mathbb{P}^x(X_{n+1} = x_{n+1}, \dots, X_1 = x_1) && (\mathbb{P}^x(X_0 = x) = 1) \end{align}$$ Dejo como ejercicio verificar que la afirmación sigue siendo válida en el caso de que alguno de los sucesos condicionados arriba tenga probabilidad cero.
Ahora usando esto, podemos mostrar:
Lema 2. Para cualquier $k$ y cualquier $y \in E$ tenemos $\mathbb{P}^\alpha(\tau_y = k \mid X_0 = x) = \mathbb{P}^x(\tau_y = k)$ .
Prueba . Tenga en cuenta que el evento $\{\tau_y = k\}$ es sólo el evento $\{X_k = y, X_{k-1} \ne y, \dots, X_1 \ne y\}$ Así que $$\begin{align*} \mathbb{P}^\alpha(\tau_y = k \mid X_0 = x) &= \mathbb{P}^\alpha(X_k = y, X_{k-1} \ne y, \dots, X_1 \ne y \mid X_0 = x) \\ &= \sum_{x_{k-1}, \dots, x_1 \in E \setminus \{y\}} \mathbb{P}^\alpha(X_k = y, X_{k-1} = x_{k-1}, \dots, X_1 = x_1 \mid X_0 = x) \\ &= \sum_{x_{k-1}, \dots, x_1 \in E \setminus \{y\}} \mathbb{P}^x(X_k = y, X_{k-1} = x_{k-1}, \dots, X_1 = x_1) \\ &= \mathbb{P}^x(\tau_y = k). \end{align*}$$
Por último, para demostrar la afirmación deseada, observamos $$\begin{align*}\mathbb{E}^\alpha[\tau_y \mid X_0 = x] &= \sum_{k=1}^\infty k \cdot\mathbb{P}^\alpha(\tau_y = k \mid X_0 = x) \\ &= \sum_{k=1}^\infty k \cdot\mathbb{P}^x(\tau_y = k) \\ &= \mathbb{E}^x[\tau_y]. \end{align*}$$