78 votos

Si A y B están correlacionados con C, ¿por qué A y B no están necesariamente correlacionados?

Sé que empíricamente es así. Acabo de desarrollar modelos que se encuentran con este enigma. También sospecho que no es necesariamente una respuesta de sí/no. Me refiero a que si tanto A como B están correlacionados con C, esto puede tener alguna implicación respecto a la correlación entre A y B. Pero, esta implicación puede ser débil. Puede ser sólo una dirección de signo y nada más.

Esto es lo que quiero decir... Digamos que tanto A como B tienen una correlación de 0,5 con C. Dado esto, la correlación entre A y B bien podría ser de 1,0. Creo que también podría ser de 0,5 o incluso menor. Pero creo que es poco probable que sea negativa. ¿Está usted de acuerdo?

Además, ¿hay alguna implicación si se considera el Coeficiente de Correlación de Pearson estándar o en cambio el Coeficiente de Correlación de Spearman (rango)? Mis observaciones empíricas recientes se asociaron con el Coeficiente de Correlación de Spearman.

111voto

JC. Puntos 168

Ahora mismo estoy en un viaje anual de pesca. Existe una correlación entre la hora del día en que pesco y la cantidad de peces que atrapo. También existe una correlación entre el tamaño del cebo que utilizo y la cantidad de peces que capturo. No hay correlación entre el tamaño del cebo y la hora del día.

67voto

jldugger Puntos 7490

Dado que la correlación es una propiedad matemática de las distribuciones multivariantes, se puede obtener cierta información mediante cálculos, independientemente de la génesis estadística de esas distribuciones.

Para el Correlaciones de Pearson Considera que variables multinormales $X$ , $Y$ , $Z$ . Son útiles para trabajar porque cualquier matriz definida no negativa es en realidad la matriz de covarianza de algunas distribuciones multinormales, resolviendo así la cuestión de la existencia. Si nos ceñimos a las matrices con $1$ en la diagonal, las entradas fuera de la diagonal de la matriz de covarianza serán sus correlaciones. Escribiendo la correlación de $X$ y $Y$ como $\rho$ la correlación de $Y$ y $Z$ como $\tau$ y la correlación de $X$ y $Z$ como $\sigma$ calculamos que

  • $1 + 2 \rho \sigma \tau - \left(\rho^2 + \sigma^2 + \tau^2\right) \ge 0$ (porque es el determinante de la matriz de correlación y no puede ser negativo).

  • Cuando $\sigma = 0$ esto implica que $\rho^2 + \tau^2 \le 1$ . Por decirlo de otro modo: cuando ambos $\rho$ y $\tau$ son de gran magnitud, $X$ y $Z$ debe tienen una correlación no nula.

  • Si $\rho^2 = \tau^2 = 1/2$ entonces cualquier valor no negativo de $\sigma$ (entre $0$ y $1$ por supuesto) es posible.

  • Cuando $\rho^2 + \tau^2 \lt 1$ Los valores negativos de $\sigma$ son admisibles. Por ejemplo, cuando $\rho = \tau = 1/2$ , $\sigma$ puede estar entre $-1/2$ y $1$ .

Estas consideraciones implican que, efectivamente, hay algunas limitaciones en las correlaciones mutuas. Las restricciones (que dependen sólo de la definición no negativa de la matriz de correlación, no de las distribuciones reales de las variables) pueden ser más estrictas dependiendo de las hipótesis sobre las distribuciones univariantes. Por ejemplo, es fácil ver (y demostrar) que cuando las distribuciones de $X$ y $Y$ no están en la misma familia de escala de localización, sus correlaciones deben ser estrictamente menos de $1$ en tamaño. (Prueba: una correlación de $\pm 1$ implica $X$ y $Y$ están relacionados linealmente a.s.)

En cuanto a Correlaciones de rango de Spearman Vamos a considerar tres observaciones trivariadas $(1,1,2)$ , $(2,3,1)$ y $(3,2,3)$ de $(X, Y, Z)$ . Sus correlaciones de rango mutuo son $1/2$ , $1/2$ y $-1/2$ . Por lo tanto, incluso el signo de la correlación de rangos de $Y$ y $Z$ puede ser la inversa de los signos de las correlaciones de $X$ y $Y$ y $X$ y $Z$ .

25voto

ER17 Puntos 1

Como complemento a la respuesta de Whuber: La fórmula presentada

$1 + 2 \rho \sigma \tau - \left(\rho^2 + \sigma^2 + \tau^2\right) \ge 0$ .

puede transformarse en la siguiente desigualdad (Olkin, 1981):

$\sigma\tau - \sqrt{(1-\sigma^2)(1-\tau^2)} \le \rho \le \sigma\tau + \sqrt{(1-\sigma^2)(1-\tau^2)}$

A representación gráfica de los límites superior e inferior para $\rho$ parece:

enter image description here


Olkin, I. (1981). Range restrictions for product-moment correlation matrices. Psychometrika, 46, 469-472. doi:10.1007/BF02293804

22voto

Dwight T Puntos 544

La correlación es el coseno del ángulo entre dos vectores. En la situación descrita, (A,B,C) es un triple de observaciones, realizadas n veces, siendo cada observación un número real. La correlación entre A y B es el coseno del ángulo entre $V_A=A-E(A)$ y $V_B=B-E(B)$ medido en un espacio euclidiano de n dimensiones. Así que nuestra situación se reduce a considerar 3 vectores $V_A$ , $V_B$ y $V_C$ en un espacio de n dimensiones. Tenemos 3 pares de vectores y, por tanto, 3 ángulos. Si dos de los ángulos son pequeños (alta correlación), el tercero también será pequeño. Pero decir "correlacionado" no es una gran restricción: significa que el ángulo está entre 0 y $\pi/2$ . En general, esto no supone ninguna restricción en el tercer ángulo. Dicho de otro modo, empezar con cualquier ángulo menor que $\pi$ entre $V_A$ y $V_B$ (cualquier correlación excepto -1). Sea $V_C$ bisecan el ángulo entre $V_A$ y $V_B$ . Entonces C estará correlacionado con A y B.

19voto

Zizzencs Puntos 1358

Creo que es mejor preguntar "¿por qué DEBERÍAN estar correlacionados?" o, tal vez, "¿por qué deberían tener alguna correlación en particular?".

El siguiente código R muestra un caso en el que x1 y x2 están correlacionados con Y, pero tienen 0 correlación entre sí

    x1 <- rnorm(100)
    x2  <- rnorm(100)
    y <- 3*x1 + 2*x2 + rnorm(100, 0, .3)

    cor(x1,y)
    cor(x2,y)
    cor(x1,x2)

La correlación con $Y$ puede hacerse más fuerte reduciendo el 0,3 a 0,1 o lo que sea

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X