En Elements of Information Theory de Thomas y Cover, la entropía de una variable aleatoria se define como $$H(X) = \sum_x p(x) \log p(x)$$ donde las unidades son bits si la base logarítmica es 2 y nats si la base logarítmica es $e$ .
¿Por qué necesitamos unidades aquí? Sobre todo porque $p(x)$ no tiene unidades.