La entropía (auto de información) de un discreto de la variable aleatoria X se calcula como:
$$ H(x)=E(-log[P(X)]) $$
Lo que hace el-log[P(X)] significa? Parece ser algo así como ""el auto de la información de cada uno de los resultados posibles de la variable aleatoria X".
Y para qué los utilizamos registro de función para calcular?
AGREGAR 1
Bien, a continuación es mi razonamiento:
La raíz de la motivación es la cuantificación o medición de la incertidumbre contenida en una variable aleatoria.
Intuitivamente, las personas tienden a estar de acuerdo que hay alguna conexión entre la incertidumbre y la probabilidad. Y todavía de manera intuitiva, la gente estará de acuerdo en que:
- la mayor probabilidad de un resultado, menos incertidumbre que tiene.
- por lo tanto, menor la probabilidad de un resultado, mayor es la incertidumbre que tiene.
Entonces, yo creo que si queremos medir la incertidumbre de un resultado de una variable aleatoria, la función de la medida debe satisfacer:
- el valor de la incertidumbre de medida debe ser positiva (instinto humano al contar)
- el valor de esta medida de la incertidumbre de un resultado debe ser monótona decreciente en función de la probabilidad de ese resultado.
- de los resultados de los experimentos independientes, la incertidumbre debe ser aditivos. Que es para P(a)*P(B), la incertidumbre total debe ser la suma de a y B. (Esto es algo instintivo, también.)
Entonces me vienen a la elección de -log[p(i)] como medida de la incertidumbre de cada resultado posible, o de auto-información de cada uno de los resultados.
Entonces yo trato a la entropía como el promedio ponderado de la auto-información de todos los resultados posibles.
Acabo de leer el libro <Teoría de la Información, la Inferencia y el Aprendizaje de los Algoritmos> por MacKay. El autor, de hecho, da una explicación similar a la mía. Y que nombre es el contenido de la información de cada uno de los resultados. No es difícil ver que la entropía describe mejor una variable aleatoria que el contenido de la información.
Y es una coincidencia que la fórmula que intuitivamente encontrado para medir el promedio de contenido de la información de una variable aleatoria tiene una forma similar a la de la entropía en termodinámica. Así viene el nombre de entropía de información...
Por CIERTO, quiero citar unas palabras de Einstein...
"No es tan importante cuando uno se establece. Lo mejor es siga sus instintos sin demasiada reflexión."
--Einstein a Max Born, 3 de Marzo de 1920. AEA 8-146
AGREGAR 2
Después de mi anterior razonamiento, he intentado derivar el cálculo de la entropía de un continuo de la variable aleatoria Y en una similar manera. Pero estaba bloqueada. Los detalles a continuación.
Sea Y p.d.f: $$f(y)$$
Entonces, si estamos estrictamente siga mi anterior razonamiento, deberíamos recoger un pequeño intervalo de I, y la probabilidad de Y en el intervalo I está dada por: $$P(y\ within\ I)=\int_If(y)dy$$Then the measure of uncertainty for Y to fall in interval I should be: $$m(y\ within\ I) = -log\int_If(y)dy$$ Then, to get the entropy, we should get the expectation/average of this measure m, which is essentially: $$E[m(y\ within\ I)]$$ y puede ampliarse de la siguiente manera:
$$ \int{P(y\ en\ I)*m(y\ en\ I)}dI =\int{(\int_I{f(y)dy}*{(-log\int_If(y)dy)})dI} $$
Me encontré atrapado aquí, porque el intervalo I no está estrictamente definido.
Entonces me encuentro a partir de aquí la definición oficial de la entropía de una variable aleatoria continua:
$$ H(Y)=-\int{f(y)log[f(y)]dy} $$
El p.d.f. $f(y)$ puede ser, ciertamente,$> 1$, por lo que el $H(Y)$ puede ser negativo, mientras que en discretos escenario, el $H(X)$ es siempre no negativo.
No puedo explicar el por qué de esta in-consistencia que está sucediendo. Por ahora, sólo puedo considerar como una dificultad filosófica con respecto a la continuidad y discreto.
Algunos de mi sentimiento personal (puede omitirse):
En el discreto escenario, el hormigón contables resultado de proporcionar la punto de apoyo para llevar a cabo nuestro cálculo. Pero en el continuo escenario, no existe el ready-made punto de apoyo (a menos que podamos de alguna manera hacer uno). Sin ese punto de apoyo, se siente como acabamos de seguir cayendo hacia el infinito vacío de la mente.
Alguien podría arrojar algo de luz?