En primer lugar, cuando decimos que $X_n \sim \text{Unif}(0,X_{n-1})$ ¿Qué significa "rigurosamente"? ¿Significa que por cada $\omega \in \Omega$ , $X_n(\omega)\sim \text{Unif}(0,X_{n-1}(\omega))$ ? Esto no tiene mucho sentido ya que $X_n(\omega)$ es un número y no una variable aleatoria. ¿O significa que para cada $\omega \in \Omega$ hay algún auxiliar $X'_n \sim \text{Unif}(0,X_{n-1}(\omega))$ y luego $X_n(\omega) = X'_n(\omega)$ ? Una vez aclarado esto, tengo otra pregunta:
Digamos que tenemos $X_n \sim \text{Unif}(0,X_{n-1})$ donde $X_0=1$ . Me han dicho que definir $\mathcal A_n = \sigma[X_0, \ldots, X_{n}]$ , $$\mathbb E(X_{n+1}|\mathcal A_n) = \mathbb E(X_{n+1}|X_n) = \mathbb E[\text{Unif}(0,X_{n})] = \frac{0+X_{n}}{2}$$ Del mismo modo, para $Z_{n+1} \sim \text{Poisson}(Z_n)$ y $\mathcal A_n$ definido de forma similar al caso anterior, me han dicho que $$\mathbb E(Z_{n+1}|\mathcal A_n) = \mathbb E[\text{Poisson}(Z_{n})] = Z_n$$ y también para $Y_{n+1} \sim2 \text{Binom}(Y_n, p)$ $$\mathbb E(Y_{n+1}|\mathcal A_n) = 2\mathbb E[\text{Binom}(Y_{n}, p)] = 2Y_n p$$
Preguntas: ¿Cuáles son las pruebas de estas tres afirmaciones (utilizando el enfoque moderno de la teoría de la probabilidad y propiedades de la expectativa condicional como las enumeradas aquí )? ¿Es este tipo de patrón generalmente cierto para variables aleatorias definidas entre sí de esta manera?
La única fórmula de las expectativas condicionales que creo que se aplicaría aquí es que $\mathbb E(Y|\mathcal D) =_\text{a.s.} \mathbb E[Y]$ si $\mathcal F(Y)$ y $\cal D$ son independientes. Sin embargo, en el caso anterior no creo que los campos sigma sean independientes, así que no sé cómo demostrar las bonitas ecuaciones anteriores.