Le site artículo de wikipedia sobre las matrices de covarianza responde a eso (el extracto que sigue está tomado textualmente de ese artículo):
A partir de la identidad anterior, dejemos que $\mathbf{b}$ ser un $(p \times 1)$ vector de valor real, entonces: $$\operatorname{var}(\mathbf{b}^{\rm T}\mathbf{X}) = \mathbf{b}^{\rm T} \operatorname{var}(\mathbf{X}) \mathbf{b},$$ que siempre debe ser no negativa, ya que es la varianza de una variable aleatoria de valor real, y de la simetría de la definición de la matriz de covarianza se deduce que sólo una matriz semidefinida positiva puede ser una matriz de covarianza. La respuesta a la pregunta inversa, si cada matriz semidefinida positiva simétrica es una matriz de covarianza, es "sí". Para ver esto, supongamos $\mathbf{M}$ es un $p\times p$ matriz semidefinida positiva. Del caso de dimensión finita del teorema espectral, se deduce que $\mathbf{M}$ tiene una raíz cuadrada simétrica no negativa, que se puede denotar por $\mathbf{M}^{1/2}$ . Sea $\mathbf{X}$ sea cualquier $p\times 1$ variable aleatoria vectorial de columna cuya matriz de covarianza es la $p\times p$ matriz de identidad. Entonces: $$\operatorname{var}(\mathbf{M}^{1/2}\mathbf{X}) = \mathbf{M}^{1/2} (\operatorname{var}(\mathbf{X})) \mathbf{M}^{1/2} = \mathbf{M}.$$