4 votos

Definición de entropía de una medida ergódica

Estoy leyendo un papel en el que se afirma que

La entropía de una medida ergódica se define como $$\lim_{n \to \infty} -\frac{1}{n} \sum_{|w|=n} \mu[w] \log \mu[w].\tag{1} \label{eq:1}$$

Aquí el espacio subyacente es $(\{0,1\}^{\mathbb{N}}, \mathscr{B}, \mu)$ , donde $\mathscr{B}$ es el $\sigma$ -de los cilindros. Así, para un $n$ la suma es sobre todas las cadenas binarias de longitud $n$ .

No he visto la entropía de una medida definida en ningún sitio, así que necesito asegurarme de lo que significa. Como la definición en (1) arriba es realmente de la entropía de una ergódico medida, y una medida sólo puede ser ergódica con respecto a alguna transformación subyacente que preserva la medida, parece que la transformación debe ser el desplazamiento desde el desplazamiento, $T$ ya se ha mencionado. Con esta suposición, concluyo entonces, que la entropía de $\mu$ debe ser lo que la mayoría de los libros (que he visto) llaman la entropía de $T$ .

Pregunta 1: ¿Es correcta mi interpretación de la definición de (1)?

Si la respuesta a la pregunta 1 es afirmativa, entonces la definición de la entropía de $T$ (o $\mu$ ) difiere de la que yo he visto, que es que $$h(T) = \sup_{\mathcal{A}} \, h(T,\mathcal{A}),\tag{2} \label{eq:2}$$ donde $\mathcal{A}$ abarca todas las particiones finitas (medibles) y para cualquier partición finita fija $\mathcal{A}$ , $$h(T,\mathcal{A}) = \limsup_{n\to \infty} \frac{1}{n} H \left( \bigvee_{k=0}^{n-1} T^{-k} \mathcal{A} \right),$$ donde $\bigvee$ denota el refinamiento común de la partición (es decir, la unión).

Pregunta 2: ¿Son las definiciones de (1) y (2) equivalentes en este caso?

2voto

Stéphane Laurent Puntos 589
  • Considere el contexto de su segunda pregunta. En el espacio de probabilidad subyacente, sea ${(Z_n)}_{n \geq 0}$ sea el proceso estacionario (invariante de desplazamiento) definido por $Z_n(x)=P(T^n(x))$ donde $P(x)$ denota el elemento de la partición $P$ al que $x$ pertenece. Entonces $h(T,P)=\lim \frac{H(Z_1,\ldots,Z_n)}{n}$ donde $H(\cdot)$ denota la entropía de una variable aleatoria discreta.

  • Ahora considere el contexto de su primera pregunta. Como usted siente, la transformación $T$ que entra en juego es el cambio. La partición $P$ de $(\{0,1\}^{\mathbb{N}}$ definido por la relación de equivalencia $(x_n) \sim (y_n)$ $\iff$ $x_0=y_0$ es un generador de $T$ y luego Teorema de Kolmogorov y Sinai mencionado por usted dice que $h(T)=h(T,P)$ .

Eso demuestra que "sí" es la respuesta a sus dos preguntas, porque aquí $H(Z_1,\ldots,Z_n)= - \sum_{|w|=n} \mu[w] \log \mu[w]$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X