De La Wikipedia:
Deje $X$ ser una variable aleatoria con una función de densidad de probabilidad $f$ cuyo apoyo es un conjunto $\mathbb{X}$. El diferencial de la entropía $h(f)$ se define como $$ h(f) = -\int_\mathbb{X} f(x)\log f(x)\,dx \quad \text{es decir,} \quad \mathrm{E}_f(-\log f(X)). $$
El discreto entropía de un discretas de probabilidad de medida se define también como $\mathrm{E}_p (-\log p(X))$ donde $p$ es la masa de probabilidad de la función, que puede ser visto como la función de densidad con respecto a la cuenta de la medida en el espacio muestral discreto.
Estoy en lo cierto que el concepto de entropía depende de la medida subyacente de la muestra en el espacio, puesto que el integrando es la función de densidad wrt alguna medida subyacente?
Si sí, ¿cuál es la medida subyacente en el espacio muestral de un diferencial de entropía que Wiki se refiere en la cita anterior?
¿Cuál es el/algo de estructura general(s) definido en el espacio muestral para que sea significativa para hablar de la entropía, más de $\mathbb{R}^n$ con medida de Lebesgue de ser la medida subyacente?
Gracias y saludos!