Alguien puede definir la independencia de dos variables aleatorias con este producto "regla", o hay contraejemplos?
Respuesta
¿Demasiados anuncios?La independencia implica uncorrelation
Decimos que dos variables aleatorias son no correlacionados si $E[XY] = E[X]E[Y]$.
Si $X$ $Y$ son independientes y discreto (esto también puede ser extendido para variables aleatorias continuas), entonces
$$p_{X,Y}(x,y) = p_X(x)p_Y(y)\qquad \forall (x,y)$$
El uso de este en la definición de $E[XY]$ y haciendo algunos reordenamientos de los términos, hemos
\begin{align} E[XY] &= \sum_x\sum_y xyp_{X,Y}(x,y)\\ &= \sum_xxp_X(x)\sum_yyp_Y(y)\\ &= E[X]E[Y] \end{align}
Por lo tanto, si $X$ $Y$ son independientes, entonces ellos no están correlacionados.
$\\$
Uncorrelation no implica la independencia (en general)
En general$^1$, es falso decir que si $X$ $Y$ están correlacionadas, entonces son independientes. Veamos un contraejemplo. Deje $X$ $Y$ ser variables al azar, tomando valores en $\{(0,1), (1,0), (-1,0), (0,-1)\}$, con igual probabilidad $0.25$. A continuación, $XY = 0$ con una probabilidad de $1$, y por lo tanto $E[XY] = 0$.
Por otro lado,
$\displaystyle p_X(x) = \left\{ \begin{array}{ll} \frac{1}{4} & x=-1\\ \frac{1}{2} & x=0\\ \frac{1}{4} & x=1\\ \end{array} \right. $ $\hspace{1cm}$ and $\hspace{1cm}$ $p_Y(y) = \left\{ \begin{array}{ll} \frac{1}{4} & y=-1\\ \frac{1}{2} & y=0\\ \frac{1}{4} & y=1\\ \end{array} \right. $
lo que implica que $E[X]=E[Y]=0$. A continuación, $E[XY] = E[X]E[Y]$ y el azar de las variables están correlacionadas.
Sin embargo,
$$p_X(1)p_Y(1) = \frac{1}{4}\frac{1}{4} \neq p_{X,Y}(1,1) = 0$$
lo que muestra que $X$ $Y$ no son independientes.
Podemos llegar a la conclusión de que la independencia es una suficiente pero no necesaria condición para uncorrelation.
$^1$ Las dos únicas excepciones soy consciente de que son conjuntamente Gaussiano variables y dos variables aleatorias de Bernoulli...cualquier otro?