En es de hecho algo. Para averiguarlo, tenemos que examinar lo que sabemos sobre la correlación en sí.
-
La matriz de correlaciones de una variable aleatoria vectorial $\mathbf{X}=(X_1,X_2,\ldots,X_p)$ es la matriz de varianza-covarianza, o simplemente "varianza", de la versión estandarizada de $\mathbf{X}$ . Es decir, cada $X_i$ se sustituye por su versión recentrada y reescalada.
-
La covarianza de $X_i$ y $X_j$ es la expectativa del producto de sus versiones centradas. Es decir, escribir $X^\prime_i = X_i - E[X_i]$ y $X^\prime_j = X_j - E[X_j]$ tenemos
$$\operatorname{Cov}(X_i,X_j) = E[X^\prime_i X^\prime_j].$$
-
La varianza de $\mathbf{X}$ que escribiré $\operatorname{Var}(\mathbf{X})$ no es un número único. Es la matriz de valores $$\operatorname{Var}(\mathbf{X})_{ij}=\operatorname{Cov}(X_i,X_j).$$
-
La forma de pensar en la covarianza para la generalización pretendida es considerarla una tensor . Eso significa que es toda una colección de cantidades $v_{ij}$ indexado por $i$ y $j$ que van desde $1$ a través de $p$ cuyos valores cambian de una forma predecible particularmente sencilla cuando $\mathbf{X}$ sufre una transformación lineal. En concreto $\mathbf{Y}=(Y_1,Y_2,\ldots,Y_q)$ sea otra variable aleatoria vectorial definida por
$$Y_i = \sum_{j=1}^p a_i^{\,j}X_j.$$
Las constantes $a_i^{\,j}$ ( $i$ y $j$ son índices -- $j$ no es una potencia) forman una $q\times p$ matriz $\mathbb{A} = (a_i^{\,j})$ , $j=1,\ldots, p$ y $i=1,\ldots, q$ . La linealidad de la expectativa implica
$$\operatorname{Var}(\mathbf Y)_{ij} = \sum a_i^{\,k}a_j^{\,l}\operatorname{Var}(\mathbf X)_{kl} .$$
En notación matricial,
$$\operatorname{Var}(\mathbf Y) = \mathbb{A}\operatorname{Var}(\mathbf X) \mathbb{A}^\prime .$$
-
Todos los componentes de $\operatorname{Var}(\mathbf{X})$ en realidad son varianzas univariantes, debido a la Polarización Identidad
$$4\operatorname{Cov}(X_i,X_j) = \operatorname{Var}(X_i+X_j) - \operatorname{Var}(X_i-X_j).$$
Esto nos dice que si entiendes las varianzas de las variables aleatorias univariantes, ya entiendes las covarianzas de las variables bivariantes: son "sólo" combinaciones lineales de varianzas.
La expresión de la pregunta es perfectamente análoga: las variables $X_i$ se han normalizado como en $(1)$ . Podemos entender lo que representa considerando lo que significa para cualquier variable, estandarizada o no. Sustituiríamos cada $X_i$ por su versión centrada, como en $(2)$ y forman cantidades que tienen tres índices,
$$\mu_3(\mathbf{X})_{ijk} = E[X_i^\prime X_j^\prime X_k^\prime].$$
Estos son los momentos centrales (multivariantes) de grado $3$ . Como en $(4)$ forman un tensor: cuando $\mathbf{Y} = \mathbb{A}\mathbf{X}$ entonces
$$\mu_3(\mathbf{Y})_{ijk} = \sum_{l,m,n} a_i^{\,l}a_j^{\,m}a_k^{\,n} \mu_3(\mathbf{X})_{lmn}.$$
Los índices de esta suma triple abarcan todas las combinaciones de números enteros de $1$ a través de $p$ .
El análogo de la identidad de polarización es
$$\eqalign{&24\mu_3(\mathbf{X})_{ijk} = \\ &\mu_3(X_i+X_j+X_k) - \mu_3(X_i-X_j+X_k) - \mu_3(X_i+X_j-X_k) + \mu_3(X_i-X_j-X_k).}$$
A la derecha, $\mu_3$ se refiere al tercer momento central (univariante): el valor esperado del cubo de la variable centrada. Cuando las variables están estandarizadas, este momento suele denominarse el asimetría . En consecuencia, podemos pensar en $\mu_3(\mathbf{X})$ como el asimetría multivariante de $\mathbf{X}$ . Es un tensor de rango tres (es decir, con tres índices) cuyos valores son combinaciones lineales de las asimetrías de varias sumas y diferencias del $X_i$ . Si buscáramos interpretaciones, entonces, pensaríamos que estos componentes miden en $p$ dimensiones lo que mide la asimetría en una dimensión. En muchos casos,
-
Los primeros momentos miden la ubicación de una distribución;
-
Los segundos momentos (la matriz de varianza-covarianza) miden su difundir ;
-
Los segundos momentos estandarizados (las correlaciones) indican cómo varía el diferencial en $p$ -espacio dimensional; y
-
Los momentos tercero y cuarto normalizados se toman para medir la forma de una distribución en relación con su dispersión.
Para profundizar en lo que puede significar una "forma" multidimensional, observe que podemos entender el análisis de componentes principales (ACP) como un mecanismo para reducir cualquier distribución multivariante a una versión estándar situada en el origen y con la misma dispersión en todas las direcciones. Después de realizar el PCA, entonces, $\mu_3$ proporcionarían los indicadores más sencillos de la forma multidimensional de la distribución. Estas ideas se aplican igual de bien a los datos que a las variables aleatorias, porque los datos siempre pueden analizarse en términos de su distribución empírica.
Referencia
Alan Stuart y J. Keith Ord, Teoría avanzada de la estadística de Kendall Quinta edición, volumen 1: Teoría de la distribución ; Capítulo 3, Momentos y cumulantes . Oxford University Press (1987).
Apéndice: Prueba de la identidad de polarización
Sea $x_1,\ldots, x_n$ sean variables algebraicas. Existen $2^n$ formas de sumar y restar todos $n$ de ellos. Cuando elevamos cada una de estas sumas y diferencias al $n^\text{th}$ potencia, elegir un signo adecuado para cada uno de esos resultados, y sumarlos, obtendremos un múltiplo de $x_1x_2\cdots x_n$ .
Más formalmente, dejemos que $S=\{1,-1\}^n$ sea el conjunto de todos los $n$ -tuplas de $\pm 1$ de modo que cualquier elemento $s\in S$ es un vector $s=(s_1,s_2,\ldots,s_n)$ cuyos coeficientes son todos $\pm 1$ . La reclamación es
$$2^n n!\, x_1x_2\cdots x_n = \sum_{s\in S} \color{red}{s_1s_2\cdots s_n}(s_1x_1+s_2x_2+\cdots+s_nx_n)^n.\tag{1}$$
En efecto, el Teorema del Multinomio establece que el coeficiente del monomio $x_1^{i_1}x_2^{i_2}\cdots x_n^{i_n}$ (donde el $i_j$ son enteros no negativos que suman $n$ ) en la expansión de cualquier término del lado derecho es
$$\binom{n}{i_1,i_2,\ldots,i_n}s_1^{i_1}s_2^{i_2}\cdots s_n^{i_n}.$$
En la suma $(1)$ los coeficientes que implican $x_1^{i_1}$ aparecen en pares en los que uno de cada par implica el caso $s_1=1$ con coeficiente proporcional a $ \color{red}{s_1}$ veces $s_1^{i_1}$ igual a $1$ y el otro de cada par implica el caso $s_1=-1$ con coeficiente proporcional a $\color{red}{-1}$ veces $(-1)^{i_1}$ igual a $(-1)^{i_1+1}$ . Se cancelan en la suma siempre que $i_1+1$ es impar. El mismo argumento se aplica a $i_2, \ldots, i_n$ . En consecuencia, los únicos monomios que aparecen con coeficientes distintos de cero deben tener potencias Impares de todos el $x_i$ . El único monomio de este tipo es $x_1x_2\cdots x_n$ . Aparece con coeficiente $\binom{n}{1,1,\ldots,1}=n!$ en todos $2^n$ términos de la suma. En consecuencia, su coeficiente es $2^nn!$ , QED .
Necesitamos tomar sólo la mitad de cada par asociado con $x_1$ es decir, podemos restringir el lado derecho de $(1)$ a los términos con $s_1=1$ y reducimos a la mitad el coeficiente del lado izquierdo a $2^{n-1}n!$ . Eso da precisamente las dos versiones de la Identidad de Polarización citadas en esta respuesta para los casos $n=2$ y $n=3$ : $2^{2-1}2! = 4$ y $2^{3-1}3!=24$ .
Por supuesto, la Identidad de Polarización para variables algebraicas la implica inmediatamente para variables aleatorias: dejemos que cada $x_i$ sea una variable aleatoria $X_i$ . Se toman las expectativas de ambos lados. El resultado se deduce por linealidad de la expectativa.