Vamos aleatorios vectoriales $x = (x_1,...,x_n)$ seguir multivariante distribución normal con media de $m$ y matriz de covarianza $S$. Si $S$ es simétrica y definida positiva (que es el caso habitual), entonces uno puede generar muestras aleatorias de $x$ por el primer muestreo indepently $r_1,...,r_n$ de la normal estándar y, a continuación, utilizando la fórmula $m + Lr$ donde $L$ es el Cholesky menor factor para $S=LL^T$$r = (r_1,...,r_n)^T$.
¿Qué pasa si uno quiere que las muestras de singular Gaussiano es decir $S$ todavía es simétrica pero no más positiva definida (sólo positiva semi-definido). Podemos suponer también que las desviaciones (diagonal elementos de $S$) son estrictamente positivos. A continuación, algunos elementos de la $x$ debe tener relación lineal y la distribución en realidad se encuentra en menor espacio tridimensional con la dimensión de $<n$, ¿verdad?
Es obvio que si, por ejemplo,$n=2, m = \begin{bmatrix} 0 \\ 0 \end{bmatrix}, S = \begin{bmatrix} 1 & 1 \\ 1 & 1\end{bmatrix}$, entonces uno puede generar $x_1 \sim N(0,1)$ y establezca $x_2=x_1$ ya que están totalmente correlacionados. Sin embargo, hay una buena métodos para la generación de muestras para el caso general,$n>2$? Supongo que uno debe ser capaz de identificar las dimensiones inferiores subespacio, a continuación, pasar a ese espacio en donde uno será válido matriz de covarianza, a continuación, muestra de ello y, finalmente, deducir los valores de la linealmente dependiente de las variables de este menor dimensiones de la muestra. Pero ¿cuál es la mejor manera para que en la práctica? Puede que alguien me señale a los libros o artículos que se ocupan del tema; yo no podía encontrar uno.