4 votos

Definición de la entropía

Tengo una pregunta sobre la definición de entropía por valor esperado de la variable aleatoria log1p(X) :

H(X)=Elog1p(X) ,

donde X se extrae de acuerdo con la función de masa de probabilidad de p(x) .

El problema es que sigo sin entender dos cosas:

1) Cómo se obtuvo esta fórmula a partir de la fórmula original de la entropía

H(X)=xXp(x)logp(x) .

2) Incluso sin saber cómo derivar la segunda fórmula, ¿cuál es el significado de p(X) ? ¿Puede mostrar cómo encontrar una entropía para los dados justos con un lanzamiento por la segunda fórmula.

Le agradecemos su ayuda.

3voto

Nate Puntos 154

1) Supongamos X es una variable aleatoria que sólo toma un número finito de valores, digamos: x1 con probabilidad p1 , x2 con probabilidad p2,,xn con probabilidad pn .

¿Cuál es la expectativa de X ? Pues muy fácil, E(X)=i=1nxipi. ¿Qué ocurre con la variable aleatoria X2 ? Bien, E(X2)=i=1nxi2pi .

Lo mismo ocurre con la variable aleatoria p(X) . Puedes pensar en ello como tomar el valor pi siempre que X toma el valor xi . Por lo tanto, su expectativa es E(p(X))=i=1npi2 .

Por último, la variable aleatoria log(1p(X))=log(p(X)) tiene expectativa E[log(1p(X))]=E[log(p(X))]=i=1n(log(pi))pi=i=1npilog(pi)

2) Por ejemplo, para los dados justos, p(1)=p(2)==p(6)=1/6 Por lo tanto H(X)=616log(16)=log(6)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X