25 votos

¿Es la desviación estándar lo mismo que la entropía?

Sabemos que la desviación estándar (SD) representa el nivel de dispersión de una distribución. Por lo tanto, una distribución con solo un valor (por ejemplo, 1,1,1,1) tiene SD igual a cero. De manera similar, esta distribución requiere poca información para ser definida. Por otro lado, una distribución con una SD alta requiere muchos bits de información para ser definida, por lo tanto podemos decir que su nivel de entropía es alto.

http://upload.wikimedia.org/wikipedia/commons/thumb/f/f9/Comparison_standard_deviations.svg/612px-Comparison_standard_deviations.svg.png

Entonces mi pregunta: ¿La SD es lo mismo que la entropía?

Si no, ¿qué relación existe entre estas dos medidas?

29voto

bea Puntos 16

No son iguales. Si tienes una distribución bimodal con dos picos y permites que la separación entre ellos varíe, la desviación estándar aumentaría a medida que la distancia entre los picos aumenta. Sin embargo, la entropía $$H(f) = -\int f(x) \log f(x) dx$$ no se preocupa por dónde están los picos, por lo que la entropía sería la misma.

13voto

palehorse Puntos 8268

Más contraejemplos:

  1. Sea X una variable aleatoria discreta que toma dos valores $(-a,a)$ con igual probabilidad. Entonces la varianza $\sigma_X^2=a^2$ aumenta con $a$, pero la entropía es constante $H(X)=1$ bit.

  2. Sea $X$ una variable aleatoria discreta que toma valores en $1 \cdots N$ con alguna distribución arbitraria no uniforme $p(X)$. Si permutamos los valores de $p(X)$, la varianza cambiará (disminuirá si movemos los valores más grandes hacia el centro), pero la entropía es constante.

  3. Sea $X$ una variable aleatoria continua con distribución uniforme en el intervalo $[-1,1]$ $p(X)=1/2$. Modifiquémoslo para que su probabilidad (en el mismo soporte) sea mayor hacia los extremos: digamos, $p(Y)=|Y|$. Entonces $\sigma^2_Y > \sigma_X^2$ pero $H(Y)< H(X)$ (la distribución uniforme maximiza la entropía para un soporte compacto fijo).

10voto

user87400 Puntos 120

Entropía y desviación estándar ciertamente no son lo mismo, pero la Entropía en la mayoría de los casos (si no en todos) depende de la Desviación Estándar de la distribución. Dos ejemplos:

Para la distribución Exponencial con función de densidad $$\lambda e^{-\lambda x},\;\; x\ge 0,\, SD=1/\lambda$$ tenemos

$$H(X) = 1-\ln\lambda = 1+\ln SD$$

Por lo tanto, a medida que aumenta la SD, también lo hace la Entropía (aquí diferencial).

Para la distribución Normal, con función de densidad $$\frac{1}{\sigma\sqrt{2\pi}}\, e^{-\frac{(x - \mu)^2}{2 \sigma^2}}, \;\; SD = \sigma$$ tenemos

$$H(X) = \frac12 \ln(2 \pi e \, \sigma^2) = \frac12 \ln(2 \pi e) +\ln SD$$ por lo que nuevamente la Entropía diferencial aumenta con la SD.

(Nota que la Entropía diferencial puede ser negativa).

0voto

gjmb Puntos 1

La desviación estándar y la entropía no son lo mismo, pero una transformación de la desviación estándar, el coeficiente de variación ($CV_Y := \frac{\sigma_Y}{\mu_Y}$), forma parte de la familia de medidas de desigualdad de entropía generalizada de un solo parámetro (o, técnicamente, una transformación del CV forma parte de la familia de entropía). Hubo una literatura vibrante sobre esto en la econometría británica en los años 80; los documentos estándar son de Shorrocks (1980, 1982, 1983), pero el libro de Cowell (varias ediciones), La medición de la desigualdad, es una buena fuente.

Generalmente, si $\theta$ es nuestro parámetro, podemos escribir una fórmula para la entropía ... (Cowell tiene una discusión muy buena sobre el significado de $\theta$ que evitaré aquí)

$$ \begin{align*} E_\theta = \frac{1}{\theta(\theta-1)} \frac{1}{N} \sum_{i=1}^N \left\{ \frac{y_i}{\mu_Y}\right\}^\theta - 1, \theta \notin \{0, 1\} \end{align*} $$

Para $\theta=2$, esto es igual a la mitad del cuadrado del $CV$ menos uno (algunas personas llaman a este cuadrado la relative varianza, aunque no lo veo a menudo; el famoso libro de Kish sobre métodos de muestreo lo hace).

$$ \begin{align*} E_2 &= \frac{1}{2} \frac{1}{N} \sum_{i=1}^N \left\{ \frac{y_i}{\mu_Y} \right\}^2 -1 \cr &= \frac{1}{2} \frac{1}{N} \sum_{i=1}^N \left\{ \frac{y_i-\mu_Y}{\mu_Y} \right\}^2 - \frac{1}{2} \cr &= \frac{1}{2} [CV]^2 - \frac{1}{2} \end{align*} $$

Para pasar de la línea dos a la línea tres, observe que para completar el cuadrado, tenemos que sumar $\frac{1}{2}\frac{1}{N} \sum_i 2\frac{Y_i \mu_Y}{\mu_Y^2} = \frac{1}{2}\frac{1}{N\mu_Y} 2N \mu_Y = 1$ y restar $\frac{1}{2}\frac{1}{N} \sum_i (\frac{\mu_Y}{\mu_Y})^2 = \frac{1}{2} \frac{1}{N} N = \frac{1}{2}$.[^1]

Para obtener la fórmula de entropía más familiar, necesitamos usar la regla de L'Hôpital para $\theta = 1$.

$$ \begin{align*} \lim_{\theta \rightarrow 1} E_1 &= \frac{\text{d} E_1}{\text{d}\theta}|_{\theta = 1} \cr &= \left\{ \frac{1}{N(2\theta-1)} \sum_{i=1}^N \left\{ \frac{y_i}{\mu_Y} \right\}^\theta \ln\frac{y_i}{\mu_Y} \right\}|_{\theta=1} \cr &= \frac{1}{N} \sum_{i=1}^N \frac{y_i}{\mu_Y} \ln\frac{y_i}{\mu_Y} \cr \end{align*} $$

Finalmente, si simplemente movemos el $N$ dentro de la suma y lo consideramos como un coeficiente en la media, entonces ese término se convierte en la parte de la persona $i$ en el ingreso total.

$$ \begin{align*} E_1 &= \sum_{i=1}^N \frac{y_i}{N\mu_Y} \ln\frac{y_i}{\mu_Y} \cr &= \sum_{i=1}^N \frac{y_i}{N\mu_Y} \ln\frac{y_i}{\mu_Y} \cr \end{align*} $$

Si llamas a eso la "probabilidad de que un dólar de ingreso nacional pertenezca a $i$", entonces tenemos, finalmente, la fórmula estándar de entropía:

$$ \begin{align*} E_1 &= \sum_{i=1}^N \pi_i \ln \pi_i = -H(Y) \cr \end{align*} $$

Entonces, TL;DR, la fórmula de entropía generalizada te permite recuperar una transformación simple de la desviación estándar así como la fórmula de entropía "regular" (con una interpretación ligeramente modificada).

[1]: He visto este hecho reportado como "la entropía de grado dos es la mitad de la relative varianza", pero el álgebra y las simulaciones (ver abajo para el código de Stata) me hacen pensar que le falta la resta de $\frac{1}{2}$ (en el código de Stata, uso el denominador no corregido para la varianza para que coincida con la fórmula de entropía).

sysuse auto, clear
qui sum price, d
local cv = r(sd)/r(mean)
local halfrelvar = 0.5*(`cv'^2 * (r(N)-1)/r(N))
gen meansqprice = (price/r(mean))^2
qui sum meansqprice, d
local e2 = (1/2)*(1/(r(N)-1))*(r(N)-1)*r(mean)
local ent = `e2' - 0.5
di "La entropía de grado dos menos 0.5 es `ent'" 
di "La mitad de la relative varianza es `halfrelvar'"

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X