23 votos

Entropía de una distribución binomial

¿Cómo se obtiene la forma funcional de la entropía de una distribución binomial? ¿Utilizamos la aproximación de Stirling?

Según Wikipedia la entropía es:

$$\frac1 2 \log_2 \big( 2\pi e\, np(1-p) \big) + O \left( \frac{1}{n} \right)$$

Hasta ahora, todos mis intentos han sido inútiles, por lo que agradecería enormemente que alguien pudiera guiarme o proporcionarme algunas pistas para el cálculo.

3 votos

Un comentario: la entropía de la distribución normal con varianza $\sigma^2$ es ${1 \over 2} \log (2\pi e \sigma^2)$ que puede calcularse mediante una integración bastante sencilla. Tal vez utilizando la aproximación de Stirling se pueda reducir el cálculo de la entropía del binomio a esta misma integral más algunos términos de error. (En realidad no he intentado hacer esto).

21voto

user26872 Puntos 11194

Esta respuesta sigue más o menos la sugerencia de @MichaelLugo en los comentarios.

Nos interesa la suma $$H = -\sum_{k=0}^n {n\choose k}p^k(1-p)^{n-k} \log_2\left[{n\choose k}p^k(1-p)^{n-k} \right].$$ Para $n$ grande podemos utilizar el Teorema de Moivre-Laplace , $$H \simeq -\int_{-\infty}^\infty dx \, \frac{1}{\sqrt{2\pi}\sigma} \exp\left[-\frac{(x-\mu)^2}{2\sigma^2}\right] \log_2\left\{\frac{1}{\sqrt{2\pi}\sigma} \exp\left[-\frac{(x-\mu)^2}{2\sigma^2}\right] \right\},$$ donde $\mu = n p$ y $\sigma^2 = n p(1-p)$ . Así, $$\begin{eqnarray*} H &\simeq& \int_{-\infty}^\infty dx \, \frac{1}{\sqrt{2\pi}\sigma} \exp\left[-\frac{(x-\mu)^2}{2\sigma^2}\right] \left[\log_2(\sqrt{2\pi}\sigma) + \frac{(x-\mu)^2}{2\sigma^2} \log_2 e \right] \\ &=& \log_2(\sqrt{2\pi}\sigma) + \frac{\sigma^2}{2\sigma^2} \log_2 e \\ &=& \frac{1}{2} \log_2 (2\pi e\sigma^2) \end{eqnarray*}$$ y así $$H \simeq \frac{1}{2} \log_2 \left[2\pi e n p(1-p)\right].$$ Se pueden encontrar términos de orden superior, esencialmente derivando una versión más cuidadosa (y menos simple) de de-Moivre-Laplace.

0 votos

¿Cómo se realiza la integración en el penúltimo paso?

0 votos

@ThomasAhle: Aquí estamos preguntando por los momentos centrales cero y segundo de la distribución normal. Pero $E(1) = 1$ y $E((X-\mu)^2) = \sigma^2$ . Si le interesa más pensar en trucos para evaluar integrales gaussianas, vea aquí por ejemplo. ¡Salud!

2 votos

@user26872 ¿hay algún análogo para la distribución multinomial? Gracias de antemano.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X