6 votos

¿Está aprendiendo "Entropía de Shannon" incorrectamente máquina utilizada en la literatura relacionada?

Cuando la lectura de documentos en la máquina de aprendizaje, he encontrado que los autores suelen hacer referencia a la "entropía de Shannon". Curiosamente, muchas veces, la ecuación dada sería:

$$H(p) = -\sum\limits_{i = 1}^n p_i \ln(p_i)$$

Por ejemplo, ver:

https://arxiv.org/pdf/1502.00326.pdf

https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-121.pdf

Hay un montón más

El problema es que para cualquiera que haya tomado un curso en teoría de la información, el término logarítmico en la definición de entropía es la base de $2$, no en base a $e$. Por lo que se refiere a algunos más como la entropía de Gibbs en lugar de la entropía de Shannon.

Mientras que la definición que figura en este documento es correcta para mí: http://www.fizyka.umk.pl/publications/kmk/08-Entropie.pdf

Ha alguien más notó este fenómeno? Podría ser un problema si uno utiliza la entropía de Gibbs en lugar de la entropía de Shannon?

10voto

Aksakal Puntos 11351

No es un problema. De hecho Shannon mismo sugirió que las otras unidades que podrían ser utilizados, consulte en su artículo "Una Teoría Matemática de la Comunicación" de la primera ecuación de (parte inferior de la página 1). He aquí una cita de la ponencia:

En el trabajo analítico, donde la integración y la diferenciación son los involucrados la base e es útil a veces. Las unidades resultantes de la información serán llamados unidades naturales. Cambio de la base a a la base b meramente requiere una multiplicación por $\log_b a$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X