Cuando nos cuantificar la información, utilizamos $I(x)=-\log{P(x)}$ donde $P(x)$ es la probabilidad de algún evento $x$. La explicación que yo siempre tengo, y estaba satisfecho con, hasta ahora, es que para dos eventos independientes, para encontrar la probabilidad de que ambos se multiplican, y nos gustaría intuitivamente desea que la información de cada evento para sumar para el total de la información. Así que tenemos $I(x \cdot y) = I(x) + I(y)$. La clase de logaritmos $k \log(x)$ para algunas constantes $k$ satisfacer esta identidad, y elegimos $k=-1$ hacer de la información una medida positiva.
Pero me pregunto si los logaritmos son más que una elección sensata. Son la única opción? Yo no puedo pensar de otra clase de funciones que satisfacen la identidad básica. Incluso en Shannon original del documento sobre la teoría de la información, que no dice es la única opción, justificó su decisión diciendo que los registros se ajusta a lo que esperan y son fáciles de trabajar. ¿Hay más?