Estoy leyendo el periódico Sobre la iteración de mejora hacia delante para problemas de parada por Albrecht Irle:
Consideramos un proceso de Markov homogéneo discreto $(Z_{n})$ con respecto a la filtración subyacente. El espacio de estados medible $(S, \mathcal{S})$ es finito. Sea $g: S \rightarrow \mathbb{R}$ ser mensurables y $\alpha \in (0,1]$ . Examinamos el problema de la parada óptima para $$X_{n}=\alpha^ng\left(Z_{n}\right)$$
Sea
- $P_{z}, E_{z}$ denotan $P(\cdot \mid Z_{0}=z), E(\cdot \mid Z_{0}=z)$ respectivamente.
- $E_{z} X_{\tau}$ existen para todas las reglas de parada $\tau$ y todos $z \in S$ .
- $p_{z y}=P(Z_{1}=y \mid Z_{0}=z)$ para todos $y, z \in S$ .
- $\tau_{n}(B)=\inf \left\{j \geq n \mid Z_{j} \in B\right\}$ para un $B \in \mathcal{S}$ .
- $h_{i}(B)(z)=E_{z} \alpha^{\tau_{i}(B)} g\left(Z_{\tau_{i}(B)}\right)$ para $z \in S$ y $i \in \{0,1\}$ .
A continuación, el autor presenta una proposición y su demostración:
Estoy tratando de entender cómo conseguir $$\forall z \in S \setminus B:h(z)=\color{blue}{\alpha} \sum_{y} p_{z y} h(y)$$ Tenemos \begin{aligned} h_{0}(B)(z) &= E_z \left [ \alpha^{\tau_{0}(B)} g\left(Z_{\tau_{0}(B)}\right) \right ]\\ &= \sum _{k=0}^\infty \alpha^{k} g\left(Z_{k}\right) P_z\left [ \tau_{0}(B) = k \right ]\\ &= \sum _{k=0}^\infty \alpha^{k} g\left(Z_{k}\right) \sum_y P_z\left [ \tau_{0}(B) = k,X_1=y \right ] \\ &= \sum _{k=0}^\infty \alpha^{k} g\left(Z_{k}\right) \sum_y P_z\left [ \tau_{0}(B) = k \mid X_1=y \right ] P_z [X_1=y]\\ &= \sum _{k=0}^\infty \alpha^{k} g\left(Z_{k}\right) \sum_y P_y\left [ \tau_{0}(B) = k \right ] p_{zy}\\ &= \sum_y \left [ \sum _{k=0}^\infty \alpha^{k} g\left(Z_{k}\right) P_y\left [ \tau_{0}(B) = k \right ] \right ] p_{zy}\\ &= \sum_y E_y \left [ \alpha^{\tau_{0}(B)} g\left(Z_{\tau_{0}(B)}\right) \right ] p_{zy}\\ &= \sum_y h_{0}(B)(y) p_{zy} \end{aligned}
En mi intento, no pude ver cómo la constante $\color{blue}{\alpha}$ aparece. ¿Podría explicar con más detalle este punto?