Processing math: 100%

6 votos

Regla de la cadena de información mutua

Tengo una pregunta (quizás sencilla) sobre la regla de la cadena para la información mutua. La fórmula viene dada por

I(X1,X2,...,Xn;Y)=ni=1I(Xi;Y|Xi1,Xi2,...,X1)

Mi pregunta es cómo utilizarlo en la siguiente ecuación:

I(X;Y1,Y2)=I(X;Y1)+I(X;Y2|Y1)(1)

Sólo tengo I(X;Y1,Y2)=I(Y1,Y2;X)=I(X;Y1)+I(Y2;X|Y1)

Con la definición de información condicional y la regla de la cadena para la entropía se deduce que

I(X,Y2|Y1)=H(X|Y1)H(Y2,X|Y1)+H(Y2|Y1)

y

I(Y2;X|Y1)=H(Y2|Y1)H(X,Y2|Y1)+H(X|Y1)

Esto nos lleva a la ecuación H(Y2,X|Y1)=H(X,Y2|Y1) lo que evidentemente no es cierto. ¿Dónde me equivoco? Además, ¿cómo puedo derivar la ecuación (1) directamente por la regla de la cadena? También he seguido la prueba en wikipedia , lo cual entendí. Pero todavía no lo veo desde la regla de la cadena para la información mutua.

Muchas gracias por su ayuda y paciencia :)

4voto

Barry B Puntos 21

La ecuación H(Y2,X|Y1)=H(X,Y2|Y1) es cierto. En general, se puede cambiar el orden de las variables aleatorias bajo la función de entropía sin cambiar su valor, lo que se deduce informalmente del hecho de que p(X,Y,Z)(x,y,z)=p(Y,X,Z)(y,x,z) y la definición de entropía: H(X,Y|Z)=p(X,Y,Z)(x,y,z)logp(X,Y,Z)(x,y,z)pZ(z)=p(Y,X,Z)(y,x,z)logp(Y,X,Z)(y,x,z)pZ(z)=H(Y,X|Z).

Con un argumento muy similar I(X;Y2|Y1)=I(Y2;X|Y1) por lo que tu aplicación de la regla de la cadena es correcta y (1) se deduce del trabajo que ya has realizado: I(X;Y1,Y2)=I(Y1,Y2;X)=I(X;Y1)+I(Y2;X|Y1)=I(X;Y1)+I(X;Y2|Y1).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X