Si $X$ y $Y$ son variables aleatorias independientes, ¿son ciertas las siguientes afirmaciones
$$E(e^{X+Y} ) = E(e^X)\times E(e^Y)$$ y $$E(X^2\times Y^2) = E(X^2)\times E(Y^2),$$
donde $E(\cdot)$ = ¿expectativa?
Si $X$ y $Y$ son variables aleatorias independientes, ¿son ciertas las siguientes afirmaciones
$$E(e^{X+Y} ) = E(e^X)\times E(e^Y)$$ y $$E(X^2\times Y^2) = E(X^2)\times E(Y^2),$$
donde $E(\cdot)$ = ¿expectativa?
Sí, porque $E(PQ)=E(P)E(Q)$ cuando las variables aleatorias $P$ y $Q$ son independientes. En cada caso se pueden definir simplemente nuevas variables aleatorias que sean funciones de la primera.
$P=e^X, Q=e^Y \implies PQ=e^X e^Y= e^{X+Y}$
$P=X^2, Q=Y^2$
Si $X$ y $Y$ son independientes, ¿cómo sabes que $X^2$ y $Y^2$ son independientes?
Esto se puede ver de dos maneras.
En primer lugar, y en esto me basaba más arriba, se puede apelar a nuestra comprensión cotidiana de cómo funciona el mundo. Por ejemplo $X$ y $Y$ sean los resultados de lanzar dos dados. $X$ y $Y$ son independientes. Ahora, digamos que elevamos al cuadrado cada resultado. Está claro que no hemos introducido ninguna dependencia al hacer esto, así que $P=X^2$ y $Q=Y^2$ son independientes.
En segundo lugar, se puede profundizar en las matemáticas subyacentes. El resultado general es Respuesta de JohnK y una instancia específica de eso se justifica en Respuesta de korrok .
Expectativa de dos variables aleatorias $X$ , $Y$ se define como la suma de los productos de los valores de esas variables aleatorias por sus probabilidades conjuntas. Para las variables aleatorias continuas es
$$\mathrm{E}(XY)=\int\int xy \; f_{XY}(x,y) \;\mathrm{d}x\mathrm{d}y $$
donde las integrales son sobre el rango que $X$ y $Y$ puede tomar, y $f_{XY}$ es la densidad de probabilidad conjunta de $X$ y $Y$ .
En el caso más general de $\alpha(x)$ como alguna función de $x$ y $\beta(y)$ como alguna función de $y$ (usted tenía $\alpha = \beta = x\mapsto x^2$ ), la expectativa de su producto se define de forma similar.
$$\mathrm{E}(\alpha(X)\beta(Y))=\int\int \alpha(x)\beta(y) \; f_{XY}(x,y) \;\mathrm{d}x\mathrm{d}y $$
Porque $X$ y $Y$ son independientes, se puede factorizar la densidad de probabilidad $f_{XY}$ en el producto de la densidad de probabilidad $f_X(x)$ para $X$ y la densidad de probabilidad $f_Y(y)$ para $Y$ es decir: $f_{XY} = f_X(x)f_Y(y)$ . Así que
$$\mathrm{E}(\alpha(X)\beta(Y))=\int\int \alpha(x)\beta(y) \; f_X(x)f_Y(y)\;\mathrm{d}x\mathrm{d}y $$
Reordenando el integrando vemos que el integrando es el producto de términos que sólo dependen de $x$ y términos que sólo dependen de $y$ por lo que la propia integral se puede dividir en dos. Cada una de esas dos integrales es la definición de una expectativa. $$\begin{align} \mathrm{E}(\alpha(X)\beta(Y)) &= \int\int \alpha(x)f_X(x) \; \beta(y)f_Y(y)\;\mathrm{d}x\mathrm{d}y \\ &= \int \alpha(x)f_X(x) \;\mathrm{d}x \int\beta(y)f_Y(y)\;\mathrm{d}y \\ &= \mathrm{E}( \alpha(X))\mathrm{E}(\beta(Y)) \end{align}$$
¿Podría indicar un recurso para encontrar más detalles sobre este paso? "... el integrando es el producto de términos que sólo dependen de $x$ y términos que sólo dependen de $y$ para que la propia integral se pueda dividir en dos". Gracias de antemano.
Me limitaré a considerar el caso de las variables aleatorias continuas con densidades, lo que debería darte suficiente para el caso general. Si $X$ y $Y$ son variables aleatorias independientes con densidades $f_1$ y $f_2$ entonces su densidad conjunta puede escribirse como un producto:
$f_{X,Y}(x,y) = f_1(x)\cdot f_2(y)$
En ese caso,
$E[X^2\cdot Y^2] = \int\int x^2y^2f_{X,Y}(x,y)\hspace{1pt}dx\hspace{1pt}dy = \int x^2y^2f_1(x)f_2(y)\hspace{1pt}dx\hspace{1pt}dy$ .
¿Ves a dónde ir desde aquí?
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
0 votos
¿Cómo se define para usted la independencia?