81 votos

¿Covarianza e independencia?

He leído en mi libro de texto que $\text{cov}(X,Y)=0$ no garantiza que X e Y sean independientes. Pero si son independientes, su covarianza debe ser 0. Todavía no se me ha ocurrido ningún ejemplo adecuado; ¿podría alguien aportar uno?

13 votos

También puede disfrutar de una rápida revisión de Cuarteto de Anscombe que ilustra algunas de las muchas formas diferentes en que una covarianza particular no nula puede ser realizada por un conjunto de datos bivariados.

7 votos

Lo que hay que tener en cuenta es que la medida de covarianza es una medida de linealidad.. Calcular la covarianza es responder a la pregunta "¿Forman los datos un patrón lineal?". Si los datos siguen un patrón lineal, son por tanto dependientes. PERO, ésta es sólo una de las formas en que los datos pueden ser dependientes. Es como preguntar: "¿Conduzco de forma temeraria?". Una pregunta podría ser: "¿Va usted a 25 mph por encima del límite de velocidad? Pero esa no es la única forma de conducir de forma temeraria. Otra pregunta podría ser "¿Está usted borracho?", etc. Hay más de una forma de conducir de forma temeraria.

0 votos

La llamada medida de linealidad da una estructura a la relación. Lo importante es que la relación puede ser no lineal, lo que no es raro. Generalmente, la covarianza no es cero, es hipotética. La covarianza indica la magnitud y no una relación,

78voto

user5289 Puntos 1342

Un ejemplo fácil: Sea $X$ sea una variable aleatoria que sea $-1$ o $+1$ con una probabilidad de 0,5. Entonces dejemos que $Y$ sea una variable aleatoria tal que $Y=0$ si $X=-1$ y $Y$ es al azar $-1$ o $+1$ con una probabilidad de 0,5 si $X=1$ .

Claramente $X$ y $Y$ son muy dependientes (ya que conocer $Y$ me permite conocer perfectamente $X$ ), pero su covarianza es cero: Ambos tienen media cero, y

$$\eqalign{ \mathbb{E}[XY] &=&(-1) &\cdot &0 &\cdot &P(X=-1) \\ &+& 1 &\cdot &1 &\cdot &P(X=1,Y=1) \\ &+& 1 &\cdot &(-1)&\cdot &P(X=1,Y=-1) \\ &=&0. }$$

O más generalmente, tomar cualquier distribución $P(X)$ y cualquier $P(Y|X)$ tal que $P(Y=a|X) = P(Y=-a|X)$ para todos $X$ (es decir, una distribución conjunta que es simétrica alrededor del $x$ eje), y siempre tendrá covarianza cero. Pero tendrá la no independencia siempre que $P(Y|X) \neq P(Y)$ es decir, los condicionales no son todos iguales al marginal. O lo mismo para la simetría en torno al $y$ eje.

54voto

Marc-Andre R. Puntos 789

Este es el ejemplo que siempre doy a los alumnos. Tomemos una variable aleatoria $X$ con $E[X]=0$ y $E[X^3]=0$ Por ejemplo, una variable aleatoria normal con media cero. Tome $Y=X^2$ . Está claro que $X$ y $Y$ están relacionados, pero

$$Cov(X,Y)=E[XY]-E[X]\cdot E[Y]=E[X^3]=0.$$

0 votos

A mí también me gusta ese ejemplo. Como caso particular, un N(0,1) rv y un chi2(1) rv no están correlacionados.

8 votos

+1 pero como un pequeño detalle, tienes que asumir que $E[X^3] = 0$ por separado (no se deduce del supuesto de simetría de la distribución ni de $E[X] = 0$ ), para que no tengamos problemas como $E[X^3]$ que resulta ser de la forma $\infty - \infty$ . Y me inquieta la afirmación de @ocram de que " a N(0,1) rv y a chi2(1) rv no están correlacionados". (énfasis añadido) Sí, $X \sim N(0,1)$ y $X^2 \sim \chi^2(1)$ no están correlacionados, pero no cualquier $N(0,1)$ y $\chi^2(1)$ variables aleatorias.

0 votos

@DilipSarwate, gracias, he editado mi respuesta en consecuencia. Cuando la escribí pensé en las variables normales, para ellas el tercer momento cero se deriva de la media cero.

30voto

Juriy Puntos 133

La imagen siguiente (fuente Wikipedia ) tiene una serie de ejemplos en la tercera fila, en particular el primero y el cuarto ejemplo tienen una fuerte relación de dependencia, pero 0 correlación (y 0 covarianza).

enter image description here

18voto

Eero Puntos 1612

Algunos otros ejemplos, considere los puntos de datos que forman un círculo o una elipse, la covarianza es 0, pero conociendo x se reduce y a 2 valores. O datos en un cuadrado o rectángulo. También los datos que forman una X o una V o un ^ o < o > darán todos covarianza 0, pero no son independientes. Si y = sin(x) (o cos) y x cubre un múltiplo entero de periodos entonces cov será igual a 0, pero conociendo x sabes y o al menos |y| en los casos de elipse, x, < y >.

1 votos

Ese si debería ser "si x cubre un múltiplo entero de periodos que comienzan en un pico o en un valle", o más generalmente: "Si x cubre un intervalo en el que y es simétrico"

0 votos

¿podría explicar por qué la covarianza es cero para un círculo?

1 votos

@user1993, Mira la fórmula de la covarianza (o correlación). Luego piensa en el círculo/elipse. Restando las medias se obtiene un círculo centrado en (0,0), así que para cada punto del círculo puedes reflejar el punto alrededor del eje x, el eje y, y ambos ejes para encontrar un total de 4 puntos que contribuirán todos al mismo valor absoluto exacto a la covarianza, pero 2 serán positivos y 2 serán negativos dando una suma de 0. Haz esto para todos los puntos del círculo y estarás sumando un montón de 0's dando una covarianza total de 0.

1voto

Lycanthropeus Puntos 13

Inspirado por Respuesta de mpiktas .

Considere $X$ sea una variable aleatoria uniformemente distribuida, es decir $X \sim U(-1,1) $ . Aquí, $$E[X] = (b+a)/2 = 0.$$ $$E[X^2] = \int_{-1}^{1} x^2 dx = 2/3$$ $$E[X^3] = \int_{-1}^{1} x^3 dx = 0$$

Desde $Cov(X, Y) = E[XY] - E[X] \cdot E[Y]$ , $$ Cov(X^2, X) = E[X^3] - E[X] \cdot E[X^2] \\ = 0 - 0 \cdot 2/3= 0 $$ Claramente $X$ y $X^2$ no son independientes. Pero su covarianza se calcula como cero. Como se ha encontrado un contraejemplo, la proposición es falsa en general.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X