2 votos

Contenido informativo de dos bits

Sea $X \in\{0,1\}$ y $Y \in\{0,1\} $ sean dos bits distribuidos uniformemente. Sea $B$ sea una variable aleatoria arbitraria tal que $I(X:B)=0$ , $I(Y:B)=0$ y $I(X \oplus Y:B)=0$ entonces, ¿es cierto que $I(X,Y:B)=0$ ?

( $I(X:Y)$ es la información mutua de Shannon).

2voto

Mini Puntos 31

La información mutua cero también puede interpretarse como independencia. El conjunto de supuestos concluye que: \begin{align*} P((X,Y)\in\{(0,0),(0,1)\}\big| B=0)&= P((X,Y)\in\{(0,0),(0,1)\}\big| B=1)\\ P((X,Y)\in\{(1,0),(1,1)\}\big| B=0)&= P((X,Y)\in\{(1,0),(1,1)\}\big| B=1)\\ P((X,Y)\in\{(0,0),(1,0)\}\big| B=0)&= P((X,Y)\in\{(0,0),(1,0)\}\big| B=1)\\ P((X,Y)\in\{(0,1),(1,1)\}\big| B=0)&= P((X,Y)\in\{(0,1),(1,1)\}\big| B=1)\\ P((X,Y)\in\{(0,0),(1,1)\}\big| B=0)&= P((X,Y)\in\{(0,0),(1,1)\}\big| B=1)\\ P((X,Y)\in\{(0,1),(1,0)\}\big| B=0)&= P((X,Y)\in\{(0,1),(1,0)\}\big| B=1). \end{align*} Sea $$U_i=[P((X,Y)=(0,0)|B=i),P((X,Y)=(0,1)|B=i),P((X,Y)=(1,0)|B=i),P((X,Y)=(1,1)|B=i)]^T.$$ Entonces, eliminando las ecuaciones redundantes, obtenemos \begin{align*} \begin{bmatrix} 1& 1&0&0\\ 0& 0&1&1\\ 0& 1&0&1\\ 0& 1&1&0 \end{bmatrix} \cdot U_0= \begin{bmatrix} 1& 1&0&0\\ 0& 0&1&1\\ 0& 1&0&1\\ 0& 1&1&0 \end{bmatrix} \cdot U_1, \fin lo que se traduce en $U_0=U_1$ . O en otras palabras $$\forall b,x,y:~P((X,Y)=(x,y)\big| B=0)=P((X,Y)=(x,y)\big| B=1),$$ que concluye la independencia y $I(X,Y;B)=0$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X