Deje $X$ $Y$ ser las variables estocásticas en, respectivamente, $n$ $m$ $m>n$ y una distribución de probabilidad conjunta $p(x,y)$. La información mutua es $$ I(X ;Y) = H(X) + H(Y) - H(X,Y) $$ donde $H(X)$ indica que la entropía de Shannon de la marginal de $p$ $X$ $H(X,Y)$ es la de Shannon, la entropía de la distribución conjunta $p$.
Es posible comprimir $Y$ el tamaño de $X$, mientras que la preservación de la información mutua? Es decir, ¿existe una matriz estocástica $T: \mathbb{R}^m \rightarrow \mathbb{R}^n$ que envía a $p$$(I_n\otimes T)p$, de tal manera que $$ I(X;Y) = I(X;Y^\prime) $$
Intuitivamente esto tiene sentido, dado que la cantidad máxima de información que se puede compartir, depende de la dimensión más pequeña de las dos. Sin embargo yo no podía encontrar cualquier resultado como este.