Lo que se quiere decir es simplemente que para variables gaussianas: dependencia = dependencia lineal. En otras palabras, toda la información sobre la dependencia entre dos variables gaussianas está en su covarianza o correlación.
A su vez, si conoces la matriz de covarianza, entonces tienes las varianzas y correlaciones entre cada elemento XiXi y los demás: ρ(Xj,Xj),j≠iρ(Xj,Xj),j≠i.
Por último, si tienes variables gaussianas centradas y conoces sus varianzas y correlaciones, puedes escribirlas usando gaussianas independientes que te darán la expresión del valor condicional de una dada las demás.
Tomemos dos gaussianas estándar por ejemplo (X1,X2)(X1,X2) con una correlación ρρ. Si quieres la distribución de X2|X1X2|X1 por ejemplo, tienes que:
-
escribir X2=ρX1+√1−ρ2X0X2=ρX1+√1−ρ2X0 , con X0X0 una gaussiana estándar independiente de X1X1.
-
concluir que X2|X1X2|X1 es gaussiana con media ρX1ρX1 y varianza 1−ρ21−ρ2.
Esto se extiende a una inversión de la descomposición de Cholesky (también conocida como matriz raíz cuadrada de la matriz de covarianza) en dimensiones superiores.