Me gustaría señalar que existe una conexión entre el determinante de la matriz de covarianza de los puntos de datos (con distribución gaussiana) y la entropía diferencial de la distribución.
Para decirlo con otras palabras: Digamos que tienes un conjunto (grande) de puntos del que supones que tiene una distribución gaussiana. Si calcula el determinante de la matriz de covarianza de la muestra, entonces mide (indirectamente) la entropía diferencial de la distribución hasta factores constantes y un logaritmo. Véase, por ejemplo Distribución normal multivariante .
La entropía diferencial de una densidad gaussiana se define como
$$H[p] = \frac{k}{2}(1 + \ln(2\pi)) + \frac{1}{2} \ln \vert \Sigma \vert\;,$$
donde $k$ es la dimensionalidad de su espacio, es decir, en su caso $k=3$ .
Creo que $\Sigma$ es semidefinido positivo, lo que significa que $\vert \Sigma \vert \geq 0$ . Al menos yo no he visto $\vert \Sigma \vert < 0$ .
El mayor $\vert \Sigma \vert$ cuanto más dispersos estén sus puntos de datos. Si $\vert \Sigma \vert = 0$ significa que los puntos de datos no "ocupan todo el espacio", es decir, que se encuentran, por ejemplo, en una línea o un plano dentro de $\mathbb{R}^3$ . En algún lugar he leído, que $\vert \Sigma \vert$ también se llama varianza generalizada. Alexander Vigodner tiene razón, capta el volumen de su nube de datos.
Dado que una matriz de covarianza de la muestra se define algo así como $$\Sigma = \frac{1}{N-1} \sum_{i=1}^N (\vec{x}_i - \vec{\mu})(\vec{x}_i - \vec{\mu})^T\; $$ se deduce que no capta ninguna información sobre la media. Puede comprobarlo fácilmente añadiendo un gran desplazamiento vectorial constante a sus datos; $\vert \Sigma \vert$ no debería cambiar.
No quiero entrar mucho en detalles, pero también hay una conexión con PCA . Dado que los valores propios $\lambda_1, \lambda_2, \lambda_3$ de $\Sigma$ corresponden a las varianzas a lo largo del eje de componentes principales de sus puntos de datos, $\vert \Sigma \vert$ captura su producto, porque por definición el determinante de una matriz es igual al producto de sus valores propios.
Tenga en cuenta que el mayor valor propio corresponde a la máxima varianza con respecto a sus datos (dirección dada por el correspondiente vector propio, véase PCA).