2 votos

¿Ley de la expectativa total?

Aparentemente $E[X] = E[E[X\mid Y]]$ pero no entiendo lo que esto significa realmente. He mirado en https://en.wikipedia.org/wiki/Law_of_total_expectation pero necesito otra explicación.

¿No es lo mismo que $E[X] = E[X\mid Y]$ ? ¿Por qué el extra $E[ \cdot ]$ ? Y, en última instancia, ¿por qué el $Y$ ni siquiera parece importar si decimos que $X$ depende de $Y$ ?

4voto

Michael Hardy Puntos 128804

$\newcommand{\E}{\operatorname{E}}$ La variable aleatoria $X$ tiene una distribución de probabilidad condicional dado el suceso $Y=y$ para cada valor $y$ que la variable aleatoria $Y$ puede tomar. Por lo tanto, también tiene un valor esperado condicional $\E(X\mid Y=y)$ . Este valor esperado condicional depende, por supuesto, de $y$ por lo que podemos escribir $\E(X\mid Y=y) = g(y)$ .

En $g(Y)$ es una variable aleatoria, y la denotamos $\E(X\mid Y)$ .

Como ejemplo concreto, supongamos que en una urna hay cinco canicas rojas y tres canicas verdes, y usted extrae dos de ellas sin reemplazarlas. Sea $Y$ el número de canicas rojas en la primera extracción (ya sea $0$ o $1$ ) y $X$ en el segundo. Entonces $$ Y = \begin{cases} 0 & \text{with probability } \dfrac 3 8, \\[6pt] 1 & \text{with probability } \dfrac 5 8. \end{cases} $$

\begin{align} \E(X\mid Y=0) & = \frac 5 7. \\[10pt] \E(X\mid Y=1) & = \frac 4 7. \end{align} Por lo tanto $$ \E(X\mid Y) = \begin{cases} \dfrac 5 7 & \text{with probability } \dfrac 3 8, \\[6pt] \dfrac 4 7 & \text{with probability } \dfrac 5 8. \end{cases} $$ Eso es lo que $\E(X\mid Y)$ significa. Y con esa distribución de probabilidad de la variable aleatoria $\E(X\mid Y)$ puede encontrar $\E(\E(X\mid Y))$ .

0voto

smcc Puntos 2884

Un ejemplo concreto:

Supongamos que $X$ puede tomar los valores $0$ o $1$ . Supongamos que $Y$ puede tomar los valores $a$ o $b$ cada una con probabilidad $1/2$ . Supongamos que $Y=a$ entonces la probabilidad $X=0$ es $1$ mientras que si $Y=b$ entonces la probabilidad $X=0$ es $0$ . Entonces $E[X\mid Y=a]=0$ mientras que $E[X\mid Y=b]=1$ . Entonces $$E[X]=E[E[X\mid Y]]=\frac{1}{2}E[X\mid Y=a]+\frac{1}{2}E[X\mid Y=b]=\frac{1}{2}0+\frac{1}{2}1=\frac{1}{2}.$$

Puede ver que $Y$ "desaparece" porque cuando se toma la expectativa de $E[X\mid Y]$ sólo estás ponderando las expectativas condicionales de $X$ dado cada $Y$ por la probabilidad de que ese valor de $Y$ .

0voto

Mark Fischler Puntos 11615

Consideremos un par de variantes $(X,Y)$ variante definida por el proceso siguiente:

Tira un dado de seis caras; anota el resultado $Y$ . Entonces rueda $X$ dados de seis caras y llamar a la suma de los puntos $X$ .

Ahora $E[X\mid Y]$ vendrá dada por $\frac72 Y$ ; por ejemplo, si el $Y$ rollo era un $2$ entonces tirando dos dados se obtiene un valor esperado de $7$ para $X$ -- esto es $E[X\mid Y=2]$ . Si $Y$ es otra cosa, $k$ entonces $E[X\mid Y=k]$ será diferente.

¿Cómo calcularíamos el $E[X]$ ? Bien, $\frac16$ del tiempo $Y$ será $1$ y luego $E[X]$ sería $\frac72$ para esos casos. Y $\frac16$ del tiempo $Y$ será $2$ y luego $E[X]$ sería $7$ para esos casos. etc. Sumándolos, lo que has hecho es tomar la expectativa (sobre los posibles valores de $Y$ de la expectativa de $X$ dado cada valor de $Y$ . Y eso es lo que dice su declaración.

BTW, la respuesta a este sencillo problema es $\frac{49}{4}$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X