1 votos

¿Cuál es la cantidad de información que transporta un $X$ -¿Sistema de bits?

Por favor, considere que soy un principiante y no un experto de ninguna manera. Por lo tanto, mi pregunta a continuación será muy muy simple como la de un no iniciado. Consideraré cuatro sistemas físicos simples con ${\rm N}_S$ estados. Con eso, intentaré explicar mi estado actual de conocimiento/comprensión en este momento y formular la pregunta.

  • Primero, una moneda. Tiene dos estados posibles: una "cabeza" y una "cola", es decir, ${\rm N}_S=2$ . Cada estado puede ser denotado por $0$ y $1$ . Este es un ejemplo de $1$ -sistema de bits.

  • En segundo lugar, considere $N$ monedas idénticas. Claramente, el número de estados (o configuraciones) es ahora $N_S=2^N$ . Cada estado del sistema completo puede ser representado o codificado por una cadena distinta de ' $p$ ' ceros y ' $q$ ' tales que $p+q={\rm N}$ . Este es un ejemplo de un clásico ${\rm N}$ -sistema de bits.

  • En tercer lugar, consideremos un dado en el que el número de estados $N_S=6$ . Por definición, se trata de un $\log_2 6\approx 2.585$ -sistema de bits.

  • En cuarto lugar, considere $N$ -dies para que el número de estados sea $N_S=6^N$ . Es, por definición, una $\log_2(6^N)\approx 2.585N$ -sistema de bits.

Por lo tanto, independientemente de que cada constituyente "microscópico" sea un $1$ -(por ejemplo, una moneda) o no (por ejemplo, un dado), la cantidad $X=\log_2N_S$ se utiliza para definir un $X$ -sistema de bits. He intentado explicarlo con mis cuatro ejemplos anteriores.

Dada la configuración anterior, mi pregunta es, si tenemos un $X$ -bit, ¿cuál es la cantidad de información que transporta ese sistema?

1voto

frenetix Puntos 600

La cantidad de información transportada por un sistema viene dada por la función de entropía $ H(X) $ que se define como: $$ H(X) =-\sum p(x) \log_{2}(p(x)) $$ donde $ p(x)$ es la probabilidad de la variable aleatoria $X$ donde la suma es sobre el soporte de $p(x) $ .

Por ejemplo: Ahora bien, si tienes una moneda sesgada con $p({\rm heads}) = 0.8$ y $p({\rm tails}) = 0.2$ . Puede calcular el $H(X) $ que será inferior a uno $1$ -Bit. Por lo tanto, requiere menos información que una moneda justa para describirla.

El amontonamiento de la información transportada por el sistema es una medida de la cantidad de incertidumbre presente en el sistema.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X