Lo que se quiere decir es simplemente que para variables gaussianas: dependencia = dependencia lineal. En otras palabras, toda la información sobre la dependencia entre dos variables gaussianas está en su covarianza o correlación.
A su vez, si conoces la matriz de covarianza, entonces tienes las varianzas y correlaciones entre cada elemento $X_i$ y los demás: $\rho(X_j, X_j), j \neq i$.
Por último, si tienes variables gaussianas centradas y conoces sus varianzas y correlaciones, puedes escribirlas usando gaussianas independientes que te darán la expresión del valor condicional de una dada las demás.
Tomemos dos gaussianas estándar por ejemplo $(X_1, X_2)$ con una correlación $\rho$. Si quieres la distribución de $X_2 | X_1$ por ejemplo, tienes que:
-
escribir $X_2 = \rho X_1 + \sqrt{1 - \rho^2} X_0$ , con $X_0$ una gaussiana estándar independiente de $X_1$.
-
concluir que $X_2 | X_1$ es gaussiana con media $\rho X_1$ y varianza $1 - \rho^2$.
Esto se extiende a una inversión de la descomposición de Cholesky (también conocida como matriz raíz cuadrada de la matriz de covarianza) en dimensiones superiores.