8 votos

La intuición de la teoría de la información.

Estoy leyendo el libro "Elementos de la Teoría de la Información" por la Cubierta y Thomas y estoy teniendo problemas para entender conceptualmente los diferentes ideas.

Por ejemplo, yo sé que $H(X)$ puede ser interpretada como el promedio de duración de la codificación. Pero, ¿qué $H(Y|X)$ intuitivamente significa?

Y ¿cuál es la información mutua? He leído cosas como "es la reducción en la incertidumbre de una variable aleatoria debido al conocimiento de los otros". Esto no significa nada para mí, como no me ayuda a explicar en palabras qué $I(X;Y) = H(Y) - H(Y|X)$. O explicar la regla de la cadena para el intercambio de información.

También he encontrado el procesamiento de Datos de la desigualdad se explica como algo que puede ser utilizado para mostrar que no hay una astuta manipulación de los datos puede mejorar las inferencias que se pueden hacer a partir de los datos. Si $X\to Y\to Z$$I(X;Y)\ge I(X;Z)$. Si tuviera que explicar este resultado a alguien en palabras y explicar por qué debe ser intuitivamente cierto que yo tendría absolutamente ninguna idea de qué decir. Incluso explicando cómo "procesamiento de datos" está relacionado con una de las cadenas de markov y la información mutua habría desconcertado a mí.

Me puedo imaginar la explicación de un resultado en topología algebraica a alguien ya que por lo general hay una intuitiva imagen geométrica que puede ser dibujado. Pero con la teoría de la información, si yo tuviera que explicar un resultado a alguien en nivel comparable a una imagen que yo no sería capaz.

Cuando hago problemas abstractos manipulaciones simbólicas y de ensayo y error. Estoy en busca de una explicación (no estas bla da información acerca de bla explicaciones) de los diferentes términos que hará que las soluciones a los problemas que aparecen en una manera significativa.

Ahora mismo me siento como alguien tratando de hacer topología algebraica puramente simbólico, sin pensar en imágenes geométricas.

Hay un libro que va a ayudar a mi maldición?

5voto

Avi Puntos 21

Creo que el enfoque en esta primera parte de su pregunta podría ser un buen punto de partida.

Si estamos tratando con un proceso dado,$X$, entonces nos gustaría comprender mejor y que la caracterizan. La información mutua es una medida de la reducción de la incertidumbre de nuestro conocimiento del proceso de $X$ cuando un segundo proceso, digamos,$Y$, está disponible. Si $X$ $Y$ son independientes, entonces saber $Y$ nos daría ninguna información adicional en $X$, y la no reducción de la incertidumbre que se producen. Por el contrario, si $X$ $Y$ están de alguna manera relacionados, entonces la información de $Y$ es útil para "definir mejor" el proceso original $X$.

La información mutua formalizado las declaraciones anteriores: $I(X,Y)=0$ si $X$ $Y$ son independientes, en este caso, $H(X|Y)=H(X)$. No tenemos ninguna mejora en el conocimiento de las $X$.

Si $X$ $Y$ no son independientes, entonces la $I(X,Y)>0$ por la desigualdad de Jensen: tenemos una reducción de la incertidumbre y el conocimiento de $Y$ es útil para entender mejor a $X$.

En este marco la "absoluta" de la incertidumbre de un proceso determinado, digamos,$X$, se denota por su entropía $H(X)$. Si este concepto no suena tan claro, me permito sugerir la lectura de la página de la wiki sobre el auto de la información y la "surprisal":

http://en.wikipedia.org/wiki/Surprisal

Tenga en cuenta que la información mutua es no un pie en el más puro sentido matemático: es una medida de la "distancia", o una distancia, como la función. Si desea definir la distancia entre los procesos de $X$ $Y$ usted necesita para introducir la Variación de la información.

Este último hecho puede ser un poco "inquietante/molesto": ¿por qué me supongo que para hablar de distancias cuando puedo usar funciones que no son las distancias a sí mismos? Un tema relacionado es dada por el uso de las divergencias (que están relacionados con la información mutua) frente a distancias en la información de la geometría.

La Cubierta y Thomas libro es un muy buen libro de texto. Si usted está interesado en la geometría detrás de la teoría de la información se puede leer "los Métodos de Información de la Geometría" por Amari y Nagaoka.

Si usted está interesado en las aplicaciones de entropías y reducción de la incertidumbre, ¿por qué no consultar el libro "Inroduction a la Agrupación de Gran tamaño y de Datos de Alta dimensión" por Kogan? Capítulos 6-7-8 proporcionar aplicaciones útiles.

2voto

mawaldne Puntos 1122

Puesto que usted tiene una comprensión intuitiva de la entropía basado en el teorema de la compresión, usted debe mirar en la parte operativa significado de la información mutua, que es el teorema de codificación de canal. Se dice que si usted tiene un canal ruidoso con una distribución conjunta $p(X,Y)$, entonces se puede transmitir información codificada en $X$ a una parte receptora con acceso a $Y$ a una tasa de $I(X;Y)$ bits por símbolo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X