24 votos

Para que las distribuciones no uncorrelatedness implica la independencia?

Un honrado por el tiempo de recordatorio en la estadística es "uncorrelatedness ¿ no implica la independencia". Generalmente este recordatorio se complementa con la barrera psicológica de los calmantes (y científicamente correcto) declaración "cuando, sin embargo, las dos variables conjuntamente normalmente distribuidas, entonces uncorrelatedness no implica la independencia".

Puedo aumentar el recuento de feliz excepciones de uno a dos: cuando las dos variables son de Bernoulli-distribuido , a continuación, de nuevo, uncorrelatedness implica la independencia. Si $X$ $Y$ son dos Bermoulli rv, $X \sim B(q_x),\; Y \sim B(q_y)$, por lo que tenemos $P(X=1) = E(X) = q_x$, y de forma análoga para $Y$, su covarianza es

$$\operatorname{Cov}(X,Y)= E(XY) - E(X)E(Y) = \sum_{S_{XY}}p(x,y)xy - q_xq_y $$

$$ = P(X=1,Y=1) - q_xq_y = P(X=1\mid Y=1)P(Y=1)-q_xq_y$$

$$= \Big(P(X=1\mid Y=1)-q_x\Big)q_y $$

Para uncorrelatedness requerimos de la covarianza a ser cero, por lo que

$$\operatorname{Cov}(X,Y) = 0 \Rightarrow P(X=1\mid Y=1) = P(X=1)$$

$$\Rightarrow P(X=1,Y=1) = P(X=1)P(Y=1) $$

que es la condición que también es necesaria para las variables independientes.

Así que mi pregunta es: ¿sabe usted de alguna de las otras distribuciones (continua o discreta) para que uncorrelatedness implica la independencia?

Significado: Suponga que dos variables aleatorias $X,Y$ que han marginales de las distribuciones que pertenecen a la misma distribución (tal vez con diferentes valores para los parámetros de la distribución de los involucrados), pero digamos que con el mismo apoyo, por ejemplo. dos exponenciales, dos triangulars, etc. No todas las soluciones de la ecuación de $\operatorname{Cov}(X,Y) = 0$ son tales que también implica la independencia, en virtud de la forma/propiedades de la distribución de las funciones involucradas? Este es el caso de la Normal marginales (teniendo en cuenta también que tienen una distribución normal bivariante), así como con la de Bernoulli marginales - ¿hay otros casos?

La motivación aquí es que por lo general es más fácil comprobar si la covarianza es cero, en comparación con el de comprobar si la independencia se mantiene. Así que si, dado el teórico de distribución, mediante la comprobación de la covarianza también la comprobación de la independencia (como es el caso con el de Bernoulli o caso normal), entonces esto sería una cosa útil para saber.
Si nos dan dos muestras de dos r.v, que han normales marginales, sabemos que estadísticamente puede concluir, a partir de las muestras de que su covarianza es cero, también podemos decir que son independientes (pero sólo porque tienen normal marginales). Sería útil saber si se podría concluir de la misma manera, en los casos donde los dos rv había marginales que pertenecía a alguna otra distribución.

16voto

Silverfish Puntos 6909

"Sin embargo, si las dos variables están distribuidos normalmente, luego uncorrelatedness no implica la independencia" es una falacia muy común.

Que sólo se aplica si son conjuntamente distribuidos normalmente.

El contraejemplo he visto más a menudo es normal $X \sim N(0,1)$ e independiente Rademacher $Y$ (por lo que es 1 o -1 con probabilidad 0.5 cada uno); a continuación, $Z=XY$ también es normal (claro desde la consideración de su función de distribución), $\operatorname{Cov}(X,Z)=0$ (el problema aquí es mostrar a $\mathbb{E}(XZ)=0$ por ejemplo, por iteración expectativa en $Y$, y tomando nota de que $XZ$ $X^2$ o $-X^2$ con una probabilidad de 0.5 cada uno) y es claro que las variables son dependientes (por ejemplo, si sé que $X>2$ entonces $Z>2$ o $Z<-2$, por lo que la información sobre $X$ me da información acerca de $Z$).

También vale la pena teniendo en cuenta que las distribuciones marginales no únicamente determinan la distribución conjunta. Tomar cualquiera de los dos reales de RVs $X$ $Y$ con marginal de Cdf $F_X(x)$$G_Y(y)$. Entonces para cualquier $\alpha<1$ la función de:

$$H_{X,Y}(x,y)=F_X(x)G_Y(y)\left(1+\alpha\big(1-F_X(x)\big)\big(1-F_Y(y)\big)\right)$$

será un bivariante CDF. (Para obtener el marginal $F_X(x)$ $H_{X,Y}(x,y)$ el límite de $y$ va al infinito, donde $F_Y(y)=1$. Viceversa para $Y$.) Claramente por la selección de los diferentes valores de$\alpha$, se pueden obtener diferentes distribuciones conjuntas!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X