1 votos

¿Esperanza condicional de una gaussiana dada una v.r.?

Sea $X$ sea una variable aleatoria gaussiana estándar y $B$ una variable aleatoria estándar de Bernoulli. Sea $Y = B \cdot X$ .

Informática $E(Y\mid X)$ es bastante sencillo. Simplemente sustituyo $Y = B \cdot X$ y aplicar la independencia de $X$ y $B$ , obteniendo $\frac{X}{2}$ .

Pero cómo calcular $E(X\mid Y)$ ?

2voto

psychotik Puntos 171

La respuesta es $E(X\mid Y)=Y$ . Aquí tienes dos soluciones, dependiendo del nivel de teoría de la probabilidad que estés estudiando.


1 st Camino. Sabemos que $E(X\mid Y)=u(Y)$ donde $u(y)=E(X\mid Y=y)$ . Por tanto, sólo necesitamos determinar la función $u(y)$ . Pero

  1. Si $y = 0$ entonces $$E(X\mid Y=0)=E(X\mid B=0\text{ or } X=0).$$ Desde $P(B=0)=\frac{1}{2}$ y $P(X=0)=0$ podemos despreciar la contribución de la condición $X=0$ y escribe $$=E(X\mid B=0)=E(X)=0$$ donde el segundo paso se deduce de la independencia.

  2. Si $y \neq 0$ entonces $$E(X\mid Y=y)=E(X\mid B=1\text{ and }X=y)=E(X\mid X=y)=y,$$ donde el segundo paso se deduce de nuevo de la independencia.

En total, obtenemos $u(y)=y$ y por lo tanto

$$E(X\mid Y)=Y.$$


2 nd Camino. Sabemos que $E(X\mid Y)$ es el $P$ -a.s. variable aleatoria única $Z$ que es $\sigma(Y)$ -y satisface

$$ E(X\mathbf{1}_A) = E(Z\mathbf{1}_A), \qquad \forall A \in \sigma(Y). \tag{*}$$

Ahora afirmamos que

$$E(X\mid Y)=Y, \qquad P\text{-a.s.}$$

Esto equivale a demostrar que $\text{(*)}$ se mantiene con la elección $Z = Y$ . Dado que los acontecimientos de la forma $\{Y\leq y\}$ genera $\sigma(Y)$ basta con comprobar $\text{(*)}$ sólo para esta forma de eventos por el Teorema de la clase monótona . Ahora,

  1. Si $y < 0$ entonces $\{Y \leq y\} = \{B=1, X\leq y\}$ y por lo tanto $$ X\mathbf{1}_{\{Y\leq y\}} = BX\mathbf{1}_{\{Y\leq y\}} = Y\mathbf{1}_{\{Y\leq y\}} .$$ Esto demuestra que $$ E[X\mathbf{1}_{\{Y\leq y\}}] = E[Y\mathbf{1}_{\{Y\leq y\}}]. $$

  2. Si $y \geq 0$ entonces $\{Y \leq y\} = \{B=1, X\leq y\} \cup \{B = 0\}$ y así, $$ X\mathbf{1}_{\{Y\leq y\}} = X\mathbf{1}_{\{B=1, X\leq y\}} + X\mathbf{1}_{\{B = 0\}} .$$ Al igual que antes, el primer término puede tratarse como \begin{align*} X\mathbf{1}_{\{B=1, X\leq y\}} &= BX\mathbf{1}_{\{B=1, X\leq y\}} \\ &= Y\mathbf{1}_{\{B=1, X\leq y\}} \\ &= Y\mathbf{1}_{\{B=1, X\leq y\}} + Y\mathbf{1}_{\{B=0\}} \\ &= Y\mathbf{1}_{\{Y \leq y\}}, \end{align*} donde el tercer paso se deduce de $ Y\mathbf{1}_{\{B=0\}} = 0 $ . A la luz de esto, obtenemos \begin{align*} E[X\mathbf{1}_{\{Y\leq y\}}] &= E[Y\mathbf{1}_{\{Y \leq y\}}] + E[X\mathbf{1}_{\{B=0\}}] \\ &= E[Y\mathbf{1}_{\{Y \leq y\}}] + E[X]P(B = 0) \\ &= E[Y\mathbf{1}_{\{Y \leq y\}}]. \end{align*}

Por lo tanto, se llega a la conclusión deseada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X