Dado un vector de probabilidad $v=(v_1,\ldots,v_n)$ avec $1\geq v_i\geq 0$ y $\sum_{i=1}^n v_i=1$ su entropía puede definirse como $$ H(v):=-\sum_{i=1}^nv_i\log v_i $$ Me pregunto qué se sabe de las transformaciones que dejan inalterada la entropía del vector. Es decir, dado $v$ un mapa $T:\mathbb R^n \to \mathbb R^n$ que lleva vectores de probabilidad a vectores de probabilidad y verifica $H(v)=H(T(v))$ .
Una permutación sería trivial. Para el vector extremo $(0,\ldots ,1,\ldots,0)$ esta sería la única solución. Sin embargo, en general, hay infinidad de transformaciones válidas. ¿Se sabe algo sobre la estructura de estos mapas?