La información mutua cero también puede interpretarse como independencia. El conjunto de supuestos concluye que: \begin{align*} P((X,Y)\in\{(0,0),(0,1)\}\big| B=0)&= P((X,Y)\in\{(0,0),(0,1)\}\big| B=1)\\ P((X,Y)\in\{(1,0),(1,1)\}\big| B=0)&= P((X,Y)\in\{(1,0),(1,1)\}\big| B=1)\\ P((X,Y)\in\{(0,0),(1,0)\}\big| B=0)&= P((X,Y)\in\{(0,0),(1,0)\}\big| B=1)\\ P((X,Y)\in\{(0,1),(1,1)\}\big| B=0)&= P((X,Y)\in\{(0,1),(1,1)\}\big| B=1)\\ P((X,Y)\in\{(0,0),(1,1)\}\big| B=0)&= P((X,Y)\in\{(0,0),(1,1)\}\big| B=1)\\ P((X,Y)\in\{(0,1),(1,0)\}\big| B=0)&= P((X,Y)\in\{(0,1),(1,0)\}\big| B=1). \end{align*} Sea $$U_i=[P((X,Y)=(0,0)|B=i),P((X,Y)=(0,1)|B=i),P((X,Y)=(1,0)|B=i),P((X,Y)=(1,1)|B=i)]^T.$$ Entonces, eliminando las ecuaciones redundantes, obtenemos \begin{align*} \begin{bmatrix} 1& 1&0&0\\ 0& 0&1&1\\ 0& 1&0&1\\ 0& 1&1&0 \end{bmatrix} \cdot U_0= \begin{bmatrix} 1& 1&0&0\\ 0& 0&1&1\\ 0& 1&0&1\\ 0& 1&1&0 \end{bmatrix} \cdot U_1, \fin lo que se traduce en $U_0=U_1$ . O en otras palabras $$\forall b,x,y:~P((X,Y)=(x,y)\big| B=0)=P((X,Y)=(x,y)\big| B=1),$$ que concluye la independencia y $I(X,Y;B)=0$ .