4 votos

Ayuda a la interpretación de la entropía y la entropía condicional con múltiples variables aleatorias.

Estoy trabajando en un problema en el que necesito calcular la información mutua entre dos variables aleatorias $m$ y $z$ dada una transformación lineal $\mathbf{G}$ . En este problema, $m$ se convierte en $x$ a través de una transformación no lineal y luego $z$ viene dada por $$ z = \Gamma\left[ \mathbf{G} x + w \right], $$ donde w es un ruido gaussiano blanco aditivo y $\Gamma \left[ \cdot \right] $ es una función de suelo.

La información mutua es entonces, $$ I(m; z | \mathbf{G}) = h(m| \mathbf{G}) - h(m | z, \mathbf{G}). $$ Como $m$ y $\mathbf{G}$ son independientes, $$ I(m; z | \mathbf{G}) = h(m) - h(m | z, \mathbf{G}). $$

Ahora necesito encontrar una manera de calcular $ h(m | z, \mathbf{G}) $ que he probado utilizando la siguiente propiedad: $$ h(m | z, \mathbf{G}) = h(z, m | \mathbf{G}) - h(z, m| \mathbf{G}). $$

Mi pregunta es: ¿cómo se pueden interpretar las entropías $ h(m| z,\mathbf{G}) $ y $ h(z, m| \mathbf{G}) $ ?

Para ser más específicos:

  1. Es $ h(m | z, \mathbf{G}) $ la entropía de $m$ dado $ z $ y $ \mathbf{G} $ ?

  2. En este caso podría hacer $ h(m | z, \mathbf{G}) = h(m|z) $ aunque $z$ depende de $ \mathbf{G} $ ?

  3. Es $ h(z, m | \mathbf{G}) $ la entropía de una variable aleatoria originada por $z$ y $ m | \mathbf{G} $ o es la entropía condicional de una variable aleatoria originada por $m$ y $z$ , dado $\mathbf{G}$ ? Creo que es el último caso, pero no estoy seguro. Este es el más confuso para mí.

Gracias por cualquier ayuda y por entender esta confusa cuestión (al menos para mí). El objetivo principal es conseguir una expresión sin condicional si es posible, aunque sea un límite superior/inferior, así que no dudéis en dar cualquier otra indicación si lo deseáis. Además, cualquier material que pueda ser de ayuda para resolver esto también es muy apreciado. Estoy disponible para proporcionar cualquier información adicional si es necesario.


Actualizar la pregunta con información adicional:

El ruido es $ w \sim \mathcal{CN}(0, \sigma^2)$ . La variable aleatoria $m$ está distribuido uniformemente de forma discreta, por ejemplo, extraído de un conjunto de modulación QPSK $ \left\{ \frac{1}{\sqrt{2}} + i\frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} - i\frac{1}{\sqrt{2}}, -\frac{1}{\sqrt{2}} + i\frac{1}{\sqrt{2}}, -\frac{1}{\sqrt{2}} - i\frac{1}{\sqrt{2}} \right\} $ .

La variable $x$ se puede obtener como $$ x(n)=\frac{1}{h_0}\Gamma\left[m(n)-\sum_l^{ }h_lx(n-l)\right] $$ , donde $n$ es un índice de tiempo, y $h_l \sim \mathcal{NC}(0, \sigma_l^{2})$ son las derivaciones de los canales, y $$\Gamma \left[ \alpha \right ] = \alpha - 2A \left\lfloor\frac{\alpha + A +jA}{2A} \right\rfloor$$ y $A$ es una constante.

La transformación $\mathbf{G}$ es en realidad una matriz de convolución que contiene las derivaciones de un canal $g_l$ . Así, $ \mathbf{G} x $ es el resultado del filtrado $x$ por un filtro con respuesta inpulso $g$ . Ambos $g$ y $h$ son respuestas impulsivas finitas.

Mi objetivo es calcular la información mutua para cuando $g \neq h $ y son independientes entre sí, mientras que la solución para el caso $ h = g $ es bien conocido y viene dado por $$ I(m; z|H) = I(m; z) = h\left(\Gamma[m+w]\right)-h\left(\Gamma[w]\right) $$

1voto

Mini Puntos 31
  1. Sí, pero ten cuidado que aquí se trata de entropía diferencial.
  2. No, no puedes. Por ejemplo, supongamos que $X$ y $Y$ son independientes y $Z=X \oplus Y$ . Entonces, $$H(X|Z,Y)=0 \neq H(X|Z). $$ Obsérvese que, para simplificar, he dado un ejemplo sobre variables aleatorias continuas. 3.Para interpretar $h(z,m|G)$ , dejemos que $Y=(z,m)$ y luego tienes $h(Y|G)$ . Por lo tanto, como has mencionado, es la entropía de las variables aleatorias $(z,m)$ variable aleatoria dada $G$ .

La cuestión no está en absoluto bien definida. En particular, la transformación no lineal de $m$ a $x$ no está definido, que es el paso clave. Además, la distribución de la entrada $m$ y tampoco se menciona la varianza y la media del ruido. Además, no se ofrece más información sobre $G$ es necesario, como si es invertible o no.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X