En $n$ -de Bernoulli puede expresarse en términos de una distribución $n$ por $n$ matriz $\Sigma$ que es una matriz análoga a la matriz de covarianza de la distribución gaussiana, pero no necesariamente una matriz simétrica. Por ejemplo, los elementos diagonales de $\Sigma$ representan probabilidades para un solo elemento $p(X_i=1) = \Sigma_{ii} = \mu_i$ . Las probabilidades de los pares de elementos vienen dadas por el determinante de la submatriz de $\Sigma$ : \begin{align*} p(X_i=1, X_j=1)=\det \begin{bmatrix} \Sigma_{ii} & \Sigma_{ij} \\ \Sigma_{ji} & \Sigma_{jj} \end{bmatrix} . \. En otras palabras, la covarianza entre $X_i$ y $X_j$ se expresa como un producto de elementos no diagonales de la siguiente manera, \begin{align*} \mathrm{Cov}[X_i, X_j]=\mathrm{E}[(X_i-\mu_i)(X_j-\mu_j)] = -\Sigma_{ij} \Sigma_{ji}. \end{align*} Por lo tanto, la covarianza por sí sola no puede determinar unívocamente los elementos no diagonales de $\Sigma$ . Sin embargo, los parámetros del modelo de una distribución que tiene una media y una covarianza dadas pueden obtenerse por el principio de maximización de la entropía.
Creo que la distribución anterior es una distribución canónica para variables aleatorias binarias multivariantes en el sentido de que comparte propiedades similares a la distribución gaussiana multivariante. Véase el siguiente artículo para más detalles:
T. Arai, " Distribución de probabilidad binaria multivariante en el formalismo de Grassmann ", Physical Review E 103, 062104, 2021.