Supongamos que tenemos tres continuas o discretas variables, X, Y y Z, para lo cual se desea calcular la Información Mutua (MI) y Condicionales Información Mutua (CMI). Las fórmulas para el cálculo de este a través de la Entropía de Shannon (H) de las distribuciones para ellos sería:
MI(X;Y) = H(X)+H(Y)-H(X,Y)
MI(X;Z) = H(X)+H(Z)-H(X,Z)
CMI(X;Y|Z) = H(X,Z)+H(Y,Z)-H(X,Y,Z)-H(Z)
Mi pregunta es si son cantidades directamente comparables? En una operación como:
CMI(X;Y|Z)-MI(X;Y)+MI(X;Z)
Si ellos no son directamente comparables, este puede ser convertida en la siguiente fórmula?
CMI(X;Y|Z)-MI(X;Y)+MI(X;Z) = H(X,Z)+H(Y,Z)-H(X,Y,Z)-H(Z)-H(X)-H(Y)+H(X,Y)+H(X)+H(Z)-H(X,Z)
Que simplifica en:
CMI(X;Y|Z)-MI(X;Y)+MI(X;Z) = H(X,Y)+H(Y,Z)-H(X,Y,Z)-H(Y)
Lo que nos lleva a la siguiente conclusión:
CMI(X;Y|Z)-MI(X;Y)+MI(X;Z) = CMI(X;Z|Y)
Gracias por cualquier consejo!