3 votos

Valor esperado de $g(X)$ .

Si $\mathrm{E}(X) = \sum_{x\in I} x\,\mathrm{P}(X=x)$ ¿Cómo puedo deducir que $E(g(X)) = \sum_{x\in ?} g(x)\,\mathrm{P}(X=x)$ ? No veo por qué no lo es $E(g(X)) = \sum_{g(x)\in ?} g(x)\,\mathrm{P}(X=g(x))$ en su lugar.

¿Son simplemente definiciones, o hay alguna lógica detrás de esta notación?

3voto

par Puntos 5570

Siguiendo su línea de razonamiento, tendríamos que en realidad tienen $$ E\left[g(X)\right]=\sum_{x}g(x)P(g(X)=g(x)). $$ Supongamos que $g$ es inyectiva. Entonces, $g(X)=g(x)$ si y sólo si $X=x$ , y lo anterior se convierte en $$ E\left[g(X)\right]=\sum_{x}g(x)P(X=x). $$ Se puede hacer un argumento similar en el caso de que $g$ no es inyectiva.

3voto

William Krinsman Puntos 174

En general, partimos de las expectativas de sumas de variables aleatorias indicadoras, que se definen como:

$\Sigma_x x P(\{\omega: X(\omega)=x\})$

como usted ha señalado correctamente.

Entonces, para una variable aleatoria tan simple, si tomamos $g(X)$ tenemos:

$P(\{\omega: g(X)(\omega)=y\}=P(\bigcup_{x:g(x)=y} \{\omega: X(\omega)=x\})=\sum_{x:g(x)=y} P(\{\omega: X(\omega)=x\}$

Por lo tanto,

$E[g(X)]=\Sigma_y y P(\{\omega: g(X)(\omega)=y\} =\Sigma_y y(\sum_{x:g(x)=y} P(\{\omega: X(\omega)=x\})$

y luego mediante la factorización de los términos:

$=\Sigma_x g(x) P(\{\omega: X(\omega)=x\})$ .

Espero que eso ayude.

3voto

Awad Maharoof Puntos 256

enter image description here He creado una pequeña ilustración con la expectativa (no es un juego de palabras) de que pueda ayudar a algunos alumnos.

HTH

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X