3 votos

Detalle en Expectativa condicional sobre más de una variable aleatoria

Tengo $E(X|Y,Z)=0$ , $X$ independiente de $Y$ y de $Z$ y quiero concluir que $E(X)=0$ ( $X,Y,Z$ son variables aleatorias de valor real). Vale parece bastante obvio, pero si intento hacer una argumentación estricta me falta un paso.

Intenté enfocar esto desde ambos lados:

  • De la independencia se deduce que $X$ es independiente de $\sigma(Y) \cup \sigma(Z)$ .

  • La primera expresión es, más exactamente $=E(X| \sigma(Y,Z))$ . $\sigma(Y,Z)=\sigma(\sigma(Y) \cup \sigma(Z))$ .

Se sabe que, en general $\sigma(\mathcal{A} \cup \mathcal{B}) \neq \mathcal{A} \cup \mathcal{B} (*)$ para $\sigma$ -algebras $\mathcal{A}, \mathcal{B}$ . Pregunta: ¿Cómo puedo concluir $E(X)=0$ de todos modos ?

Tal vez para variables aleatorias independientes la igualdad $(*)$ ¿se mantiene? ¿O tal vez exista una expresión alternativa más conveniente para las expectativas condicionales de más de una variable aleatoria?

3voto

Grant Puntos 116

Desarrollando el comentario de Didier Piau. Ni siquiera hace falta una independencia, ya que se trata simplemente de una "regla de la torre": $$ \mathsf E[\mathsf E[X|\mathcal F]] = \mathsf EX $$ bajo algunas condiciones de integrabilidad. En tu caso simple por la definición de la expectativa condicional tienes $$ \mathsf E[\eta\cdot \mathbf 1_A] = \mathsf E[X \mathbf 1_A] $$ si $A\in \sigma(Y,Z)$ . Aquí $\eta = \mathsf E [X|Y,Z]$ .

Usted sabe por la definición de $\sigma$ -que $\Omega\in \sigma(Y,Z)$ así que $\mathbf 1_\Omega = 1$ y tienes $$ 0 = \mathsf E[\eta] = \mathsf E[X] $$

Editado: respondiendo a tu último comentario. En primer lugar, un ejemplo que justifica tu intuición. Sea $$ X = \begin{cases}1,\quad p=0.5,\\ 0,\quad p = 0.5.\end{cases} $$ y $A\subset\Omega = \{X = 0\}$ , $\mathsf P(A) = 0.5$ . Por la definición de expectativa condicional tenemos $$ \mathsf E[X|A] = \int\limits_\Omega X(\omega)\mathsf P(d\omega|A) = \frac{1}{\mathsf P(A)}\int\limits_A X(\omega)\mathsf P(d\omega) = 0 $$ mientras que $\mathsf E[X] = 0.5$ .

Por otro lado, consideremos la variable aleatoria $\xi = \mathbf 1_A$ . Claramente, $\mathcal F_\xi = \{\emptyset,A,A^c,\Omega\}$ y te gustaría tener el mismo resultado que antes. Pero hay una pequeña diferencia. $$ \mathsf E[X\mid\mathcal F_\xi] = 1-\xi $$ y no podemos decir que $1-\xi = 0 \quad\mathsf P$ -a.s. Así no tienes eso $\mathsf E[X] = \mathsf E[X\mid\mathcal F_\xi] = 0$ .

A grandes rasgos, la condición $\mathsf E[X\mid \mathcal F_\xi] = 0$ dice que mantendrá independientemente del valor de $\xi$ - por lo que en todos los casos que puedan caracterizarse por $\xi$ .

0voto

Michael Hardy Puntos 128804

Véase ley de la expectativa total : $$ E(E(X \mid Y)) = E(X). $$ Así que ya está.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X