Tal vez por la simplificación de la notación que puede llevar a cabo las ideas esenciales. Resulta que no necesitamos involucrar a las expectativas o complicadas fórmulas, porque todo lo que es puramente algebraico.
La expresión algebraica de la naturaleza de los objetos matemáticos
La pregunta se refiere a las relaciones entre (1) la matriz de covarianza de un conjunto finito de variables aleatorias $X_1, \ldots, X_n$ y (2) lineal de las relaciones entre esas variables, consideradas como vectores.
El espacio vectorial en cuestión es el conjunto de todos finito de varianza de las variables aleatorias (en cualquier espacio de probabilidad $(\Omega,\mathbb P)$) modulo el subespacio de casi seguramente variables constantes, denotado $\mathcal{L}^2(\Omega,\mathbb P)/\mathbb R.$ (es decir, se consideran dos variables aleatorias $X$ $Y$ a ser el mismo vector cuando no existe la posibilidad de que $X-Y$ diferencia de sus expectativas.) Estamos tratando sólo con el finito-dimensional espacio vectorial $V$ generado por el $X_i,$ que es lo que hace de esta una expresión algebraica problema en lugar de una analítica.
Lo que necesita saber acerca de las desviaciones
$V$ es más que un espacio vectorial: es una cuadrático módulo, ya que viene equipado con la varianza. Todo lo que necesitamos saber acerca de las varianzas de dos cosas:
La varianza es una función con valores escalares $Q$ con la propiedad de que $Q(aX)=a^2Q(X)$ para todos los vectores $X.$
La varianza es no degenerada.
El segundo necesita alguna explicación. $Q$ determina un "producto escalar", que es una bilineal simétrica forma dada por la
$$X\cdot Y = \frac{1}{4}\left(Q(X+Y) - Q(X-Y)\right).$$
(Esto por supuesto no es nada distinto de la covarianza de las variables$X$$Y.$) Vectores $X$ $Y$ son ortogonales cuando su producto escalar es $0.$ El complemento ortogonal de cualquier conjunto de vectores $\mathcal A \subset V$ consta de todos los vectores ortogonales a cada elemento de a $\mathcal A,$ escrito
$$\mathcal{A}^0 = \{v\in V\mid a . v = 0\text{ for all }v \in V\}.$$
Claramente, es un espacio vectorial. Cuando $V^0 = \{0\}$, $Q$ es no degenerada.
Me permite demostrar que la varianza es, de hecho, no degenerada, aunque pueda parecer obvio. Supongamos $X$ es un elemento distinto de cero de a $V^0.$ Esto significa $X\cdot Y = 0$ todos los $Y\in V;$, equivalentemente,
$$Q(X+Y) = Q(X-Y)$$
para todos los vectores $Y.$ de los que tomaron $Y=X$ da
$$4 Q(X) = Q(2X) = Q(X+X) = Q(X-X) = Q(0) = 0$$
y por lo tanto $Q(X)=0.$ sin Embargo, sabemos (usando la Desigualdad de Chebyshev, tal vez) que las únicas variables aleatorias con cero varianza son casi seguramente constante, que se identifica con el vector cero en $V,$ QED.
La interpretación de las preguntas
Volviendo a la pregunta, en la parte anterior de la notación de la matriz de covarianza de las variables aleatorias es simplemente una matriz regular de todos sus productos de puntos,
$$T = (X_i\cdot X_j).$$
Hay una buena manera de pensar acerca de la $T$: define una transformación lineal en $\mathbb{R}^n$ en la forma habitual, mediante el envío de cualquier vector $x=(x_1, \ldots, x_n)\in\mathbb{R}^n$ en el vector $T(x)=y=(y_1, \ldots, x_n)$ cuyas $i^\text{th}$ componente está dado por la regla de la multiplicación de la matriz
$$y_i = \sum_{j=1}^n (X_i\cdot X_j)x_j.$$
El núcleo de esta transformación lineal es el subespacio envía a cero:
$$\operatorname{Ker}(T) = \{x\in \mathbb{R}^n\mid T(x)=0\}.$$
La ecuación anterior implica que, al $x\in \operatorname{Ker}(T),$ por cada $i$
$$0 = y_i = \sum_{j=1}^n (X_i\cdot X_j)x_j = X_i \cdot \left(\sum_j x_j X_j\right).$$
Como esto es cierto para todos los $i,$ se mantiene para todos los vectores que se extendió por el $X_i$: es decir, $V$ sí. En consecuencia, cuando se $x\in\operatorname{Ker}(T),$ el vector dado por $\sum_j x_j X_j$ se encuentra en $V^0.$ Debido a que la varianza es no degenerada, esto significa $\sum_j x_j X_j = 0.$, $x$ describe una dependencia lineal entre la $n$ original de variables aleatorias.
Usted puede fácilmente comprobar que esta cadena de razonamiento es reversible:
Lineal de las dependencias entre las $X_j$ como vectores están en una correspondencia uno a uno con los elementos del núcleo de $T.$
(Recuerde que esta declaración todavía considera el $X_j$ como se define a un constante cambio en la ubicación, es decir, como elementos de $\mathcal{L}^2(\Omega,\mathbb P)/\mathbb R$ - en lugar de simplemente como variables aleatorias.)
Finalmente, por definición, un autovalor de a $T$ es cualquier escalar $\lambda$ para el cual existe un vector distinto de cero $x$ $T(x) = \lambda x.$ Al $\lambda=0$ es un valor propio, el espacio de vectores propios asociados es (obviamente) el núcleo de $T.$
Resumen
Hemos llegado a la respuesta a las preguntas: el conjunto de los lineales de las dependencias de las variables aleatorias, qua elementos de $\mathcal{L}^2(\Omega,\mathbb P)/\mathbb R,$ corresponde uno a uno con el núcleo de su matriz de covarianza $T.$ Esto es así porque la varianza es una degenerada de una forma cuadrática. El núcleo también es el subespacio propio asociado con el autovalor cero (o simplemente el subespacio cero cuando no hay autovalor cero).
Referencia
Me han adoptado la notación y algo de la lengua del Capítulo IV en
Jean-Pierre Serre, Un Curso De Aritmética. Springer-Verlag, 1973.