Sabemos que $l_i=\log \frac{1}{p_i}$ es la solución al problema de compresión de la fuente de Shannon: $\arg \min_{\{l_i\}} \sum p_i l_i$ donde la minimización es sobre todas las posibles asignaciones de longitud de código $\{l_i\}$ satisfaciendo la desigualdad de Kraft $\sum 2^{-l_i}\le 1$ .
También $H(p)=\log \frac{1}{p}$ es aditivo en el siguiente sentido. Si $E$ y $F$ son dos eventos independientes con probabilidades $p$ y $q$ respectivamente, entonces $H(pq)=H(p)+H(q)$ .
Por lo que sé, principalmente por estas dos razones $H(p)=\log \frac{1}{p}$ se considera una medida de la información contenida en un evento aleatorio $E$ con probabilidad $p>0$ .
Por otro lado, si promediamos las longitudes exponenciales, $\sum p_i2^{tl_i}, t>0$ con las mismas restricciones de desigualdad de Kraft, la solución óptima es $l_i=\log \frac{1}{p_i'}$ donde $p_i'=\frac{p_i^{\alpha}}{\sum_k p_k^{\alpha}}, \alpha=\frac{1}{1+t}$ llamado el problema de Campbell.
Ahora $H_{\alpha}(p_i)=\log \frac{1}{p_i'}$ también es aditivo en el sentido de que $H_{\alpha}(p_i p_j)=H_{\alpha}(p_i)+H_{\alpha}(p_j)$ . Además $H_{\alpha}(1)=0$ como en el caso de la medida de Shannon.
También hay que tener en cuenta que, cuando $\alpha=1$ , $H_1(p_i)=\log \frac{1}{p_i}$ recuperamos la medida de Shannon.
Mi pregunta es si estas razones son suficientes para llamar $H_{\alpha}(p_i)=\log \frac{1}{p_i'}$ ¿una medida (generalizada) de información?
No sé si la dependencia de la medida de la información de un evento también de las probabilidades de los otros eventos tiene sentido.