13 votos

¿Está definida toda matriz de correlación positiva?

Estoy hablando aquí acerca de las matrices de correlaciones de Pearson.

A menudo he oído decir que todas las matrices de correlación debe ser positivo semidefinite. Mi entendimiento es que positiva definida matrices deben tener autovalores $> 0$, mientras que los positivos semidefinite matrices deben tener autovalores $\ge 0$. Esto me hace pensar que mi pregunta puede reformularse como "Es posible que las matrices de correlación para tener un autovalor $= 0$?"

Es posible que una matriz de correlación (generados a partir de datos empíricos, sin datos perdidos), para tener un autovalor $= 0$, o un autovalor $< 0$? Lo que si fue una matriz de correlación de la población en su lugar?

He leído en la respuesta a esta pregunta acerca de las matrices de covarianza que

Considerar tres variables, $X$, $Y$ y $Z = X+Y$. Su covarianza de la matriz, $M$, no es positiva definida, ya que hay un vector $z$ ($= (1, 1, -1)'$) for which $z'Mz$ no es positiva.

Sin embargo, si en lugar de una matriz de covarianza tengo que hacer los cálculos en una matriz de correlación, a continuación, $z'Mz$ sale como positivo. Por lo tanto, creo que tal vez la situación es diferente para la correlación y la covarianza de las matrices.

Mi razón de preguntar es que se me hizo más en stackoverflow, en relación a una pregunta que le hice allí.

17voto

Mark L. Stone Puntos 2037

Matrices de correlación no necesita ser positiva definida.

Considere la posibilidad de un escalar de variable aleatoria X que no sea cero, la varianza. A continuación, la matriz de correlación de X con el mismo, es la matriz de todos, lo cual es positivo semi-definitivo, pero no positiva definida.

Como por ejemplo de correlación, considere los datos de la muestra de la anterior, con la primera observación 1 y 1, y la segunda observación 2 y 2. Esto se traduce en la muestra de correlación la matriz de todo, así que no es positiva definida.

Una muestra de la matriz de correlación, si calculadas en aritmética exacta (es decir, sin error de redondeo) no puede tener autovalores negativos.

7voto

zowens Puntos 1417

Las respuestas por @yoki y @MarkLStone (+1) tanto el punto de que una población de la matriz de correlación puede tener cero autovalores si las variables están relacionadas linealmente (como por ejemplo, $X_1 = X_2$ en el ejemplo de @MarkLStone y $X_1 = 2X_2$ en el ejemplo de @yoki).

Además de eso, una muestra de la matriz de correlación necesariamente tienen cero autovalores si $n<p$, es decir, si el tamaño de la muestra es menor que el número de variables. En este caso, la covarianza y la correlación de matrices ambos estarán en la mayoría de los de la fila $n-1$, por lo que habrá al menos $p-n+1$ cero autovalores. Vea por Qué es un ejemplo de una matriz de covarianza singular cuando el tamaño de la muestra es menor que el número de variables? y por Qué es el rango de la matriz de covarianza en la mayoría de las $n-1$?

4voto

David Puntos 1

Considere la posibilidad de $X$ a ser una r.v. con media 0 y varianza 1. Deje $Y=2X$, y calcular la matriz de covarianza de $(X,Y)$. Desde $2X=Y$, $E[Y^2]=4E[X^2]=\sigma_Y^2$, y $E[XY]=2E[X^2]$. Debido a la cero significa que la configuración, el segundo de los momentos son iguales para el adecuado covarianzas, por ejemplo: $\mbox{Cov}(X,Y)=E[XY]-EXEY=E[XY]$.

Por lo que la matriz de covarianza será: $$ \Lambda = \left(\array{1 & 2 \\ 2 & 4 }\right),$$ tener un autovalor cero. La matriz de correlación será: $$ \Lambda = \left(\array{1 & 1 \\ 1 & 1 }\right),$$ having a zero eigenvalue as well. Due to the linear correspondence between $X$ and $$ Y es fácil ver por qué tenemos esta matriz de correlación - la diagonal siempre será 1, y el fuera de la diagonal es de 1 debido a la relación lineal.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X