1 votos

¿La información mutua I(X, Y) >= I(f(X), f(Y)) para f determinista?

Tengo la intuición de que aplicar una función determinista a un par de variables aleatorias no puede aumentar su información mutua, porque la función solo puede disminuir las entropías de cada una de ellas.

Me gustaría saber si esto es cierto y demostrarlo.

Hasta ahora he estado intentando expandir la definición de información mutua para llegar a la desigualdad sin éxito.

1voto

Vitaly Zdanevich Puntos 95

Sí, tu intuición es correcta. Consulta esta fuente, Propiedad 4. Se sigue de la propiedad de la cadena de Markov, es decir, Si tenemos una cadena de Markov en la forma siguiente: $$X\rightarrow Y\rightarrow Z$$ entonces, $$I(X; Z)\leq I(X;Y)$$

Esto se puede especializar a $Z=f(Y)$. La misma propiedad se puede aplicar también para la otra variable aleatoria, $X$, y obtienes $$I(X;Y)\geq I(f(X);g(Y))$$ en general, y si dejamos que $f=g$ obtienes lo que preguntas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X