Desde ya hay técnicos sobresalientes respuestas a esta pregunta, creo que debería añadir algo de mejor fundamento filosófico para explorar lo que podría ayudar con la obtención de un mejor sentido intuitivo de lo que es la información.
Warren Weaver proporciona una excelente discusión sobre la teoría de la información en 1949, en su libro titulado "Contribuciones Recientes a La Teoría Matemática de la Comunicación".
En el papel se rompe problemas de comunicaciones en tres categorías principales: técnica, semántica y eficacia. Él explica, además, que el concepto de información es puramente derivados para abordar el problema técnico en la teoría de comunicación.
Una definición sencilla de la información, proporcionada por Weaver, es que "la información es una medida de la libertad de elección cuando se selecciona un mensaje"; o, más correctamente, el logaritmo de que la libertad de elección. La información es por lo tanto más claramente se entiende como el número de combinaciones de componentes que están disponibles para ser elegido arbitrariamente.
En este sentido, se puede ver como una medida de la aleatoriedad asociada con una cadena de letras. Un gran ejemplo es la rueda de la fortuna. Cuando Pat Sajak, te muestra el tablero con el blanco y el verde de los bloques, que como ya se ha proporcionado una gran cantidad de información mediante la colocación de espacios entre los bloques blancos, porque se ha reducido drásticamente el número de combinaciones posibles que podría ser posible para llenar los bloques blancos.
El máximo de información (o entropía) de la tabla con 52 cajas o "trilons" y el uso de las 26 letras es de $26^{52} = 3.8\times 10^{73}$ combinaciones o entre $244$ y $245$ bits de información en formato binario. Sin embargo, si sólo había 11 cuadros iluminados en blanco, a continuación, la información real de la junta de repente ha caído a us $26^{11} = 3.6\times 10^{15}$ combinaciones de dar una información real de contenido (o entropía) o $51$ a $52$ bits. La información relativa es de $\dfrac{51}{244} = 0.21$ o 21%. La redundancia es el dado por $1 - 0.21 = 0.79$ o 79%.
Como Vanna voltea cajas, ella es la disminución de la relación de la entropía y el aumento de la redundancia a un punto donde la probabilidad de resolver el puzzle es muy alta. Lo que en este sentido, la información, como la entropía es una medida de la incertidumbre sobre el sistema.
Ahora hay diferentes tipos de incertidumbre, uno es el de la incertidumbre asociada con la libertad de elección de mensaje, y el otro es el ruido. La incertidumbre se discutió en la rueda de la fortuna ejemplo es debido a la libertad de elección. En un silencioso situación, sería de esperar que la palabra o frase que Vanna revela para ser exactamente uno de los elegidos antes de la feria. En un ambiente ruidoso, por ejemplo, donde hay una cierta probabilidad de un miembro de la tripulación mispelling la palabra, mientras que la configuración de los bloques, entonces es posible que la última palabra la muestra no es uno de los elegidos antes de la feria. Que la incertidumbre, o el ruido, se llama equivocidad, y es traído por el propio entorno.
La distinción entre un ruidoso y silencioso entorno es muy importante. William Tuller en 1949 publicó un documento de "LIMITACIONES TEÓRICAS SOBRE LA TASA de
DE la TRANSMISIÓN DE la INFORMACIÓN" en el que se demostró que no había límite en la cantidad de información que puede ser transmitida en un silencioso canal. Este fue el motivo por el artículo de Shannon "la Comunicación en la Presencia de Ruido" fue fundamental para la teoría de la comunicación en que se apropiadamente cuantificados lo que el ruido era en realidad, y de cómo afecta a la comunicación y la transferencia de información.
Ahora, antes de terminar, cabe señalar que Hartley en su 1928 papel de "Transmisión de Información" fue el primero en dar una definición moderna de la información y darle medición cuantitativa. Me gustaría recomendar la revisión de este artículo como punto de partida. Otras contribuciones importantes están hechas de otros científicos, como Wiener, que es el mejor capturados en la Cibernética.
En una nota de cierre, es refrescante que el significado de ruido cuántico está comenzando a ser discutido, y espero que continúe en el futuro.