Tenemos un generador de números aleatorios que genera independiente de bits aleatorios con una probabilidad de $P(x=1) = P$$P(x=0)=1-P$.
Dado $N$ aleatoria de bits independientes, estimamos $P$$\hat{P} = N_1/(N_0+N_1)$. donde $N_0$ es el número de $0$'s y $N_1$ número de $1$'s. El valor esperado de $\hat{P}$ puede ser simplemente demostrado ser $P$.
una. ¿Cuál es el valor esperado para la estimación de la entropía se define de la siguiente manera: $\hat{H}=-[ \hat{P} \log(\hat{P}) + (1-\hat{P}) \log(1-\hat{P}) ]$
b. Si tomamos $M$ conjuntos independientes de $N$ bits aleatorios como el anterior y cada vez que la estimación de la entropía mediante la ecuación anterior, ¿Cuál es el valor esperado para los más pequeños estimado de entropía entre los $M$ juegos ?
gracias, MG
P. S. Si la solución a la integral general de P es demasiado complicado, una solución para el caso especial en $P=1/2$ se agradece también.