25 votos

Entropía de una distribución uniforme

La entropía de una distribución uniforme es $ln(b-a)$. Con $a=0$ y $b=1$, esto se reduce a cero. ¿Cómo es que no hay incertidumbre?

42voto

Smiley Sam Puntos 1587

La entropía continua no tiene exactamente el mismo significado que la entropía discreta. Por ejemplo, también podríamos tomar $a = 0$ y $b = 1/2$, dando una entropía de $-\ln(2) < 0$, mientras que en el caso discreto la entropía siempre es no negativa. Ten en cuenta que gran parte de la diferencia proviene del hecho de que una función de densidad de probabilidad (pdf) puede ser mayor que uno, en un conjunto de medida (tamaño) menor que 1, de manera que la integral sea 1.

Consulta la entrada de WolframAlpha sobre ello: Entropía Diferencial. Además, aquí está la entrada de Wikipedia al respecto: Entropía Diferencial.

Compara esto con la distribución discreta: Supongamos que tenemos $P(X = x_n) = 1/N$ donde X toma los valores $\{ x_1, ..., x_N \}$. Esto da una entropía $$H(X) = -\sum_{n=1}^N P(X=X_n) \log_2 P(X = X_n) = -\sum_{n=1}^N {1 \over N} \log_2 {1 \over N} = N \cdot {1 \over N} \log_2 N = \log_2 N.$$

Ten en cuenta que este es en realidad el valor máximo para la entropía - esto se puede demostrar utilizando Desigualdad de Gibbs, o simplemente encontrando el máximo de la función $f(x) = -x \ln x$ (por ejemplo, diferenciando y resolviendo $f'(x) = 0$), y observando que $$\log_2 x = {\ln x \over \ln 2}.$$

¡Espero que esto ayude! ¡Si lo hace, recuerda darle un voto arriba! ;)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X