¡Hola a todos y feliz año nuevo! Que todas vuestras esperanzas y aspiraciones se hagan realidad y que las fuerzas del mal se vean confundidas y desorientadas de camino a vuestra casa.
Con eso fuera del camino...
Estoy intentando escribir un código informático que obtenga un vector $\mu \in R^n $ y la matriz $\Sigma \in \mathbb R^{n \times n}$ y genera muestras aleatorias de la distribución normal multivariante con media $\mu$ y la covarianza $\Sigma$ .
El problema : Sólo se me permite utilizar el programa para tomar muestras del solo distribución normal variable con media $0$ y la varianza $1$ : $N(0, 1)$ .
La solución propuesta : Definir un vector de ceros (inicialmente) $v \in \mathbb R^n$ , ahora para todos $i$ de $1$ à $n$ , extraer de una dist. normal de una sola variable: $v_i \overset{}{\sim} N(0, 1)$ .
Ahora haz una descomposición de Cholesky en $\Sigma$ : $\Sigma = LL^T$ .
Ahora finalmente el vector aleatorio que queremos que se distribuya de la gaussiana multivariante es $Lv + \mu$ .
Mi pregunta es ¿Por qué? No entiendo la intuición, si fuera una distribución unidimensional $N(\mu, \sigma^2)$ entonces entiendo por qué $\sigma ^2 v + \mu$ es una buena idea, ¿por qué Cholesky? ¿No querríamos $\Sigma v + \mu$ ?
1 votos
Hay un fallo en su comprensión: En el caso unidimensional nuestra muestra aleatoria es $\sigma v+\mu$ no $\sigma^2v + \mu$ . En el caso multivariante $\Sigma$ desempeña el papel de $\sigma^2$ .
0 votos
Aun así, ¿por qué la "raíz" de la covarianza sería cholesky? Puedo ver por qué parece similar, pero creo que exige una explicación. ¿Y si hay otra matriz $A$ que no es $L$ tal que $AA^T = \Sigma$ ? ¿Por qué no sería un buen ajuste en lugar de $L$ ?