15 votos

Información mutua como probabilidad

Podría ser la información mutua sobre la entropía conjunta: $$ 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1$$

definirse como: "La probabilidad de transmitir una información de X a Y"?

Siento ser tan ingenuo, pero nunca he estudiado teoría de la información, y sólo intento comprender algunos conceptos al respecto.

1 votos

¡Bienvenido a CV, luca maggi! ¡Qué encantadora primera pregunta!

11voto

Dipstick Puntos 4869

La medida que describe se denomina Ratio de calidad de la información [IQR] (Wijaya, Sarno y Zulaika, 2017). IQR es información mutua $I(X,Y)$ dividido por la "incertidumbre total" (entropía conjunta) $H(X,Y)$ (fuente de la imagen: Wijaya, Sarno y Zulaika, 2017).

enter image description here

Como describen Wijaya, Sarno y Zulaika (2017),

el rango de IQR es $[0,1]$ . El mayor valor (IQR=1) puede alcanzarse si la DWT puede reconstruir perfectamente una señal sin pérdida de información. En caso contrario, el valor más bajo (IQR=0) significa que MWT no es compatible con una señal original. En otras palabras, una señal reconstruida con una MWT determinada no puede conservar la información esencial y es totalmente diferente de la original. esencial y totalmente diferente de las características características.

Se puede interpretar como probabilidad de que la señal se reconstruya perfectamente sin pérdida de información . Obsérvese que esta interpretación se aproxima más a interpretación subjetivista de la probabilidad y luego a la interpretación frecuentista tradicional.

Se trata de una probabilidad para un evento binario (reconstruir la información frente a no hacerlo), donde IQR=1 significa que creemos que la información reconstruida es fiable, e IQR=0 significa lo contrario. Comparte todas las propiedades de las probabilidades de sucesos binarios. Además, entropías comparten otras propiedades con las probabilidades (por ejemplo, definición de entropías condicionales, independencia, etc.). Así que parece una probabilidad y hace como si lo fuera.


Wijaya, D.R., Sarno, R., & Zulaika, E. (2017). Information Quality Ratio as a novel metric for mother wavelet selection. Chemometrics and Intelligent Laboratory Systems, 160, 59-71.

1 votos

¿Cómo se define la función IQR para $A\subset\Omega$ para comprobar las propiedades definitorias de la medida de probabilidad? ¿Está introduciendo $I(X',Y')$ y $H(X',Y')$ con $X':=XI(A),\, Y':=YI(A)$ donde $I$ ¿es la función característica?

0 votos

Bueno, mi pregunta va dirigida a una parte de tu respuesta y no a una pregunta aislada. ¿Está sugiriendo que abra una nueva pregunta y la enlace y dirija a su respuesta?

0 votos

@Hans Lo que he dicho, es que esta medida se ajusta fácilmente a la definición, corrígeme si me equivoco. Los axiomas 1. y 2. son obvios. Para el axioma 3., $I(X, Y)$ es el solapamiento, $H(X, Y)$ es el espacio total, por lo que la fracción puede verse fácilmente como probabilidad.

2voto

J1779 Puntos 16

Aquí es la definición de un espacio de probabilidad. Utilicemos las notaciones que aparecen allí. IQR es una función de una tupla $(\Omega,\mathscr F,P,X,Y)$ (Los tres primeros componentes forman el espacio de probabilidad en el que se definen las dos variables aleatorias). Una medida de probabilidad tiene que ser una función de conjunto que satisfaga todas las condiciones de la definición enumeradas en la respuesta de Tim. Habrá que especificar $\Theta:=(\Omega,\mathscr F,P,X,Y)$ como algún subconjunto de un conjunto $\tilde\Omega$ . Además, el conjunto de $\Theta$ tiene que formar un campo de subconjuntos de $\tilde\Omega$ y que $\text{IQR}(\Omega,\mathscr F,P,X,Y)$ tiene que satisfacer las tres propiedades enumeradas en la definición de medida de probabilidad que aparece en la respuesta de Tim. Hasta que no se construya un objeto así, es erróneo decir que IQR es una medida de probabilidad. Por mi parte, no veo la utilidad de una medida de probabilidad tan complicada (no la función IQR en sí, sino como medida de probabilidad). En el artículo citado en la respuesta de Tim, IQR no se denomina ni se utiliza como probabilidad, sino como métrica (la primera es un tipo de la segunda, pero la segunda no es un tipo de la primera).

Por otro lado, existe una construcción trivial que permite cualquier número en $[0,1]$ sea una probabilidad. Concretamente en nuestro caso, consideremos cualquier $\Theta$ . Elija un conjunto de dos elementos como espacio muestral $\tilde\Omega:=\{a,b\}$ que el campo sea $\tilde{\mathscr F}:=2^{\tilde\Omega}$ y fijar la medida de probabilidad $\tilde P(a):=\text{IQR}(\Theta)$ . Tenemos una clase de espacios de probabilidad indexados por $\Theta$ .

2voto

Tres Puntos 2902

Retrocediendo un poco en la historia, el papel de los $\frac{I(X,Y)}{H(X,Y)} $ como medida de probabilidad puede verse, en parte, en el artículo de 1961 de Rajski: Un espacio métrico de distribuciones de probabilidad discretas . Este artículo esboza el desarrollo de la Distancia Rajski ${(D_R)}$ es:

$${D_R}=1 - \frac{I(X,Y)}{H(X,Y)} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X