70 votos

¿Qué es la información?

Todos estamos familiarizados con los principios básicos tales como "información no se transmite más rápido que la luz" y las ideas tales como la conservación de la información en escenarios como la radiación de Hawking (y, en general, obviamente). El Principio Holográfico dice, vagamente, que la información sobre el volumen de espacio que está codificada en sus dos dimensiones de la superficie de Planck tamaño de bits.

En todos estos contextos, que puedo tomar "información" significa predictivo o postdictive capacidad, es decir, la información es lo que nos permite explicar cuál es el resultado de una medición fue o va a ser (a nivel local). Pero, ¿qué es la información, exactamente? Tenemos cualquier tipo de descripción microscópica de ella? Es solo un concepto y, si es así, ¿cómo podemos hablar de la transmisión?

Sospecho que esto es probablemente tan irrefutable como lo que constituye un observador/medición para la función de onda del colapso, pero me gustaría saber si tenemos alguna formulación de lo que la información está hecho de, por así decirlo. Si estoy hablando de tonterías, como sospecho que puede ser, sentirse libre para señalar esto.

30voto

Sam Saffron Puntos 1304

En resumen:

la información contenida en un sistema físico = el número de preguntas de sí o no usted necesita para obtener respondió especificar completamente el sistema.

20voto

Weng Fai Wong Puntos 116

La información es un concepto puramente matemático, por lo general una característica de la incertidumbre (de una función de distribución de probabilidad), pero puede ser interpretada de diferentes maneras. En la forma más simple es introducido en la teoría de la información como una diferencia entre las incertidumbres de dos distribuciones, con la incertidumbre de ser el logaritmo de un número de posibles igualmente probables-estados de una variable aleatoria discreta. Para una distribución continua, puede ser introducido como un logaritmo de una integral. A veces introducido la información correcta - una cantidad que difiere de la entropía negativa sólo por una constante independiente de la distribución (esta constante puede ser tomado como cero).

Por lo tanto la información es una diferencia de la información adecuada (la diferencia de entropía negativa) de los dos estados. Los estados están representados por funciones de distribución de probabilidad, por lo tanto la información es una forma de operador de dos funciones.

Para distribuciones continuas (de los cuales discretos caso es una variante) información adecuada de distribución $w$ es

$$I[w]=-H(w)=-\int_{-\infty}^{+\infty}w(x)\log(w(x))dx$$

y la información relativa de $w_2 de dólares en comparación con $w_1$ es

$$I[w_2,w_1]=H(w_1)-H(w_2)=I(w_2)-I(w_1)$$

o

$$I[w_2,w_1]=\int_{-\infty}^{+\infty}\log \left(\frac{w_1(x)^{w_1(x)}}{w_2(x)^{w_2(x)}}\right)$$

Este operador no es muy diferente de la norma o el ángulo en espacios vectoriales. Es simplemente una medida, atribuida a miembros del espacio.

Compare esto con la definición de la norma:

$$||w||=\sqrt{\int_{-\infty}^{+\infty}w(x)^2dx}$$

distancia

$$D[w_1,w_2]=||w_1-w_2||=\sqrt{\int_{-\infty}^{+\infty}(w_1(x)-w_2(x))^2dx}$$

ángulo de

$$\Phi[w_1,w_2]=\arccos \frac{\int_{-\infty}^{+\infty}w_1(x)w_2(x)dx}{\sqrt{\int_{-\infty}^{+\infty}w_1(x)^2dx}\sqrt{\int_{-\infty}^{+\infty}w_2(x)^2dx}}$$

Así que piensa acerca de la información de una cantidad matemática similar a la del ángulo.

19voto

Phil Wright Puntos 228

Desde ya hay técnicos sobresalientes respuestas a esta pregunta, creo que debería añadir algo de mejor fundamento filosófico para explorar lo que podría ayudar con la obtención de un mejor sentido intuitivo de lo que es la información.

Warren Weaver proporciona una excelente discusión sobre la teoría de la información en 1949, en su libro titulado "Contribuciones Recientes a La Teoría Matemática de la Comunicación".

En el papel se rompe problemas de comunicaciones en tres categorías principales: técnica, semántica y eficacia. Él explica, además, que el concepto de información es puramente derivados para abordar el problema técnico en la teoría de comunicación.

Una definición sencilla de la información, proporcionada por Weaver, es que "la información es una medida de la libertad de elección cuando se selecciona un mensaje"; o, más correctamente, el logaritmo de que la libertad de elección. La información es por lo tanto más claramente se entiende como el número de combinaciones de componentes que están disponibles para ser elegido arbitrariamente.

En este sentido, se puede ver como una medida de la aleatoriedad asociada con una cadena de letras. Un gran ejemplo es la rueda de la fortuna. Cuando Pat Sajak, te muestra el tablero con el blanco y el verde de los bloques, que como ya se ha proporcionado una gran cantidad de información mediante la colocación de espacios entre los bloques blancos, porque se ha reducido drásticamente el número de combinaciones posibles que podría ser posible para llenar los bloques blancos.

El máximo de información (o entropía) de la tabla con 52 cajas o "trilons" y el uso de las 26 letras es de $26^{52} = 3.8\times 10^{73}$ combinaciones o entre $244$ y $245$ bits de información en formato binario. Sin embargo, si sólo había 11 cuadros iluminados en blanco, a continuación, la información real de la junta de repente ha caído a us $26^{11} = 3.6\times 10^{15}$ combinaciones de dar una información real de contenido (o entropía) o $51$ a $52$ bits. La información relativa es de $\dfrac{51}{244} = 0.21$ o 21%. La redundancia es el dado por $1 - 0.21 = 0.79$ o 79%.

Como Vanna voltea cajas, ella es la disminución de la relación de la entropía y el aumento de la redundancia a un punto donde la probabilidad de resolver el puzzle es muy alta. Lo que en este sentido, la información, como la entropía es una medida de la incertidumbre sobre el sistema.

Ahora hay diferentes tipos de incertidumbre, uno es el de la incertidumbre asociada con la libertad de elección de mensaje, y el otro es el ruido. La incertidumbre se discutió en la rueda de la fortuna ejemplo es debido a la libertad de elección. En un silencioso situación, sería de esperar que la palabra o frase que Vanna revela para ser exactamente uno de los elegidos antes de la feria. En un ambiente ruidoso, por ejemplo, donde hay una cierta probabilidad de un miembro de la tripulación mispelling la palabra, mientras que la configuración de los bloques, entonces es posible que la última palabra la muestra no es uno de los elegidos antes de la feria. Que la incertidumbre, o el ruido, se llama equivocidad, y es traído por el propio entorno.

La distinción entre un ruidoso y silencioso entorno es muy importante. William Tuller en 1949 publicó un documento de "LIMITACIONES TEÓRICAS SOBRE LA TASA de DE la TRANSMISIÓN DE la INFORMACIÓN" en el que se demostró que no había límite en la cantidad de información que puede ser transmitida en un silencioso canal. Este fue el motivo por el artículo de Shannon "la Comunicación en la Presencia de Ruido" fue fundamental para la teoría de la comunicación en que se apropiadamente cuantificados lo que el ruido era en realidad, y de cómo afecta a la comunicación y la transferencia de información.

Ahora, antes de terminar, cabe señalar que Hartley en su 1928 papel de "Transmisión de Información" fue el primero en dar una definición moderna de la información y darle medición cuantitativa. Me gustaría recomendar la revisión de este artículo como punto de partida. Otras contribuciones importantes están hechas de otros científicos, como Wiener, que es el mejor capturados en la Cibernética.

En una nota de cierre, es refrescante que el significado de ruido cuántico está comenzando a ser discutido, y espero que continúe en el futuro.

3voto

Nick Puntos 583

La información es adimensional (radio sin unidades) - y, en este sentido, "puramente matemático" de la cantidad de medir qué tanto uno tiene que aprender a saber algo relativamente al punto cuando él no lo sabe, expresado en unidades particulares. Operativamente hablando, es la cantidad de chips de RAM (o sus partes) uno debe tener para que puedan recordar algunos conocimientos. Por supuesto, mediante el uso de la palabra "conocimiento", me acaba de evitar la palabra "información", y es imposible definir cualquiera de estos términos sin ningún tipo de "referencias circulares" porque uno tiene que saber por lo menos algo para ser capaz de definir conceptos elementales como el conocimiento.

Un bit de información es el conocimiento necesario para saber si un número que puede ser 0 o 1 con la misma probabilidad resultó (o será) a ser 0 o 1. En matemáticas, una forma más natural, la unidad de un bit es un "e-bit", que es tal que 1 bit es ln(2) "e-bits". La información necesaria para distinguir entre "N" igualmente probables alternativas es ln(N) "e-bits". El logaritmo natural siempre es más natural que otros logaritmos - por eso se llama natural. Por ejemplo, su derivada es igual a 1/x, sin necesidad de realizar complicadas constantes. Las fórmulas para el "Shannon" adimensional de la información, asumiendo cualquier probabilística de distribución, están dadas anteriormente.

En la física, cada sistema físico con algunos grados de libertad puede llevar a algunos a la información. En información cuántica, las "alternativas" son generalmente asociados con los vectores de la base del permitido espacio de Hilbert de los estados. Pero en ese contexto, uno de los "bits" de información es usualmente referido como un "qubit" o "quantum bits", lo que significa que en el mundo real, las alternativas también pueden ser combinadas en arbitraria complejas superposiciones lineales, como los postulados de la mecánica cuántica dictar.

En las discusiones acerca de la causalidad, nos referimos a que el espacialmente separados objetos no pueden realmente influir en cada uno de los otros. Esto está garantizado por la simetría de Lorentz. En la teoría del campo, la condición es equivalente a la restricción de que el espacio-como campos separados por $\phi(x)$ y $\phi(y)$ conmuta con cada uno de los otros (o anticommute si ambos son fermionic).

Los mejores deseos Lubos

0voto

Terry Bollinger Puntos 11535

Hace poco me dio un breve pero pero intento serio en una manera diferente de interpretar un poco en términos de la física cuántica, así que tal vez vale la pena mencionar que la respuesta en el contexto de este mucho más antigua pregunta:

http://physics.stackexchange.com/a/91035/7670

"En términos de espacio, tiempo, velocidad, y la materia, un único bit de información es la elección de un quantum de ruta sobre otra igual de probable. Cuando se aplica a nivel de átomos y partículas, el resultado es una galería de opciones que rápidamente se convierte en casi infinito en la complejidad."

Esta definición es fácilmente compatible con MWI enfoques, como se define el total de conjuntos de bits en el universo se puede ver como la "dirección" de su universo dentro del multiverso.

Para mejor o peor, esta definición es mi propio, no uno que estoy citando de nada. Pero es perfectamente compatible con ese tipo de experimentos sencillos como Feynman de electrones del rendija de análisis, donde los fotones determinar la trayectoria de los electrones si usted consigue nosy respecto, por lo que añadir un poco más a la definición de nuestro universo observable.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X