9 votos

¿Por qué una menor probabilidad mensajes contienen más información?

Esta pregunta viene de aquí. Supongamos que los mensajes de $m_1, m_2, \ldots$ puede ser enviado (a través de un canal) a un receptor con probabilidades de $p_1, p_2, \ldots$. La cantidad de información transferida cuando un mensaje de $m_k$ es recibido con éxito se define como $$I_k = \log \frac{1}{p_k}.$$

Los autores del documento que enlaza hacer las siguientes afirmaciones acerca de la $I_k$:

  1. Es intuitivo: la aparición de una muy probable evento lleva poco información ( $I_k = 0$ $p_k = 1$).
  2. Podemos obtener más información, cuando la menos probable de que se reciba el mensaje de ( $I_k > I_l$ $p_k < p_l$).

Así que mi pregunta es:

¿Por qué deben los más probables mensaje de llevar menos información? Es simplemente porque el éxito de la transmisión de un mensaje debe tener una menor probabilidad y un largo mensaje puede contener más significado? E. g. si $m_1$ es el mensaje "vas a morir", y $m_2$ es el mensaje "Te vas a morir mañana", luego con éxito la transmisión de $m_2$ debe ser al menos tan duro (es decir, al menos tan improbable), como la transmisión de $m_1$ $m_2$ claramente tiene más información.

8voto

Shabaz Puntos 403

Usted llegar allí con la idea de que si todos los casos de $m_2$ implican $m_1$ (pero hay otras formas de $m_1$ a ser verdadero), $m_2$ transmite más información de la $m_1$, pero no es necesario su inclusión para que. La información recibida es cuánto mejor conoce el estado del mundo. Nosotros lo definimos como el registro del número de estados para obtener la aditividad queremos. Imaginar que cuatro monedas arrojadas. Antes de que se dijo nada sobre el resultado, hay 16 estados posibles del mundo. Si yo te digo que todos llegaron hasta los jefes (un sorprendente mensaje), el número de miembros se ha reducido por un factor de 16. Si le digo a usted que no todos se quedan cabezas (no un sorprendente mensaje), el número de miembros se ha reducido por un factor de 16/15. Así, en el primer caso, hay muchos menos posibles estados del mundo. En el segundo, hay casi la misma cantidad de estados posibles después de que el mensaje como antes.

7voto

sewo Puntos 58

Supongamos que usted está a construir un sistema de comunicación. Cada segundo, un elegido al azar mensaje es entregado a usted en el punto a y para asegurarse de que, con alta probabilidad será entregado en el punto B dentro de un tiempo finito. Usted sabe de antemano que los mensajes son posibles y cuál es su distribución. (Mensajes sucesivos se supone que para ser independiente).

Sin embargo, el ancho de banda (el número de bits que puede enviar por segundo) es caro, y usted quiere ser capaz de contrato de arrendamiento de un canal con un mínimo de capacidad que usted necesita para ser capaz de entregar los mensajes sin la construcción de un creciente retraso (de nuevo, con una alta probabilidad).

Si hay $n$ mensajes posibles, podría cumplir su objetivo por la compra de un ancho de banda suficiente para enviar a $\log_2(n)$ bits por segundo. Pero que podría ser un desperdicio ... digamos que el 99% de las veces el mensaje es "no hay comentarios". A continuación, puede codificar el mensaje como un solo 0 bits, y enviar todo lo demás como de 1 bit seguido por un número de mensaje. De esa manera usted sólo tiene que comprar ancho de banda para hablar $1+\log_2(n-1)/100$ bits por segundo. Esto deja suficiente espacio para enviar un 0 en cada momento nada interesante sucede. Una vez en un momento, cuando algo interesante sucede, se envía un 1 además de los bits adicionales, que le llevará alrededor de $\log_2(n)$ extra segundos y construir un pequeño retraso de los mensajes que son todos probable que sea solo 0. Pero ya que usted puede enviar los 0 ligeramente la velocidad de uno por segundo, en promedio, usted puede esperar a tener su atraso autorizado por la hora de la próxima ocurre algo interesante.

(Hay seguridad-al margen de los refinamientos de la teoría de colas aquí que no voy a entrar).

La moraleja de este ejemplo es que si el diseño de un sistema de codificación y está interesado en minimizar el esperado número de bits necesarios para enviar un mensaje, usted puede "permitirse el lujo" para pasar más bits en un raro mensaje porque usted no tiene que hacerlo tan a menudo.

Y resulta que, en el límite de $N\to\infty$, la más baja posible espera que el número de bits a enviar $N$ independientes idénticamente distribuidas mensajes (donde el mínimo es tomado todas las posibles estrategias de codificación), es exactamente $N$ veces la de Shannon, el contenido de la información de la distribución de probabilidad.

6voto

André Caldas Puntos 2775

Usted está en "el desierto del Sahara". Luego te encuentras a alguien y el hombre dice:
- Hoy no llovió!

La cantidad de información que sacaste? Un par? Un montón? Por qué?

1voto

André Caldas Puntos 2775

Imagínese que usted está tratando de enviar la información utilizando el mínimo número de "bits" como usted puede. Enviar un mensaje después de la otra. O simplemente guardarlo en su "pen drive"... :-)

Ahora, supongamos que los mensajes posibles son $m_1, \cdots, m_n$. Y supongo que se envían con una probabilidad de $p_1, \cdots, p_n$. Ahora, están a punto de elegir la mejor representación (en bits, tal vez) para cada mensaje. Supongamos que el tamaño (en bits) de cada mensaje es de $s_1, \cdots, s_n$.

¿Cuál es el tamaño esperado de un determinado mensaje,$m$? Uno podría decir que es: $$s = \sum_{j=1}^n p_j s_j.$$ Puede usted hacer que todos los mensajes tienen el tamaño de $s_j = 1$? Sólo si usted no tiene más de dos mensajes.

¿Cómo se hacen las $s$ tan pequeño como sea posible? Usted tiene que elegir el menor $s_j$ mayor $p_j$. El "ideal" de tamaño para $s_j$ es la cantidad de información $m_j$ lleva. El mayor $p_j$, el menor debe ser $s_j$. En algunas circunstancias, uno podría decir que el tamaño ideal para$s_j$$\log_2\left(\frac{1}{p_j}\right)$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X