Para una distribución de probabilidad discreta, la entropía se define como: $$H(p) = \sum_i p(x_i) \log(p(x_i))$$ Estoy tratando de utilizar la entropía como una medida de la "plana / ruidosos" frente a "pico" es una distribución, donde los pequeños de la entropía corresponde a más "peakedness". Quiero usar un valor límite umbral para decidir que las distribuciones son "pico" y que son "planas". El problema con este enfoque es que para el "mismo" en forma de distribuciones, la entropía es diferente para diferentes tamaños de muestra! como un ejemplo sencillo tomar la distribución uniforme - es la entropía es: $$p_i = \frac{1}{n}\ \ \to \ \ H = \log n$$ Para empeorar las cosas, no parece ser una regla general para obtener más complejas distribuciones.
Entonces, la pregunta es:
¿Cómo debo normalizar la entropía lo que obtengo el mismo "a escala de la entropía" para la "misma" distribuciones independientemente del tamaño de la muestra?