La entropía parece ser una de esas ideas que es fácil equivocarse. A menudo veo que la entropía se describe a grandes rasgos como la "información media" o la cantidad de "incertidumbre" en un proceso. A mí me parecen ideas contradictorias.
Si $H(X) = \sum_x p(x) \log_2 \frac{1}{ p(x)}$ es la entropía de la varialbe aleatoria $X$ con una distribución de probabilidad (discreta) $p$ entonces entiendo que el término $\log_2 \frac{1}{ p(x)}$ puede considerarse como "información". Por lo tanto, tiene sentido ver $H(X)$ precisamente como la expectativa de la información, es decir, la cantidad de información que se espera aprender, en promedio.
Entonces, ¿cómo entra en juego la incertidumbre? Si $H(X)$ es grande, lo que implica que esa cantidad media de información es "grande", ¿cómo puede ser también grande la incertidumbre? ¿Una mayor información media no significaría menos ¿Incertidumbre? ¿Cómo conciliar estas dos nociones?