Hace poco asistí a una charla del Dr. Ravi Gomatam sobre la "realidad cuántica", en la que el ponente sugirió que la conservación de la energía no es una ley fundamental, y es condicional, pero la conservación de la información es fundamental. ¿Qué significa exactamente la información? ¿Puede cuantificarse? ¿Qué relación tiene con la energía?
Respuestas
¿Demasiados anuncios?Si se mide la falta de información por la entropía (como es habitual en la teoría de la información), y se equipara con la entropía en termodinámica, entonces las leyes de la termodinámica dicen justo lo contrario: En un sistema mecánica, química y térmicamente aislado descrito en la aproximación hidrodinámica, la energía se conserva mientras que la entropía puede crearse, es decir, la información puede perderse. (En una descripción hamiltoniana microscópica exacta, el concepto de información no tiene sentido, ya que supone una descripción de grano grueso en la que no se conoce todo).
La corriente principal de la física (aparte de las especulaciones sobre la física del futuro que aún no se pueden comprobar mediante experimentos) es que, en el nivel más fundamental, la energía se conserva (al ser una consecuencia de la simetría de traslación del universo), mientras que la entropía es un concepto de la mecánica estadística que sólo es aplicable a los cuerpos macroscópicos y constituye una aproximación, aunque a escala humana sea muy buena.
A diferencia de @ArnoldNeumaier, yo diría que el contenido informativo del Mundo podría sea constante: es casi seguro que no puede hacerse más pequeño y cómo y si se hace más grande depende de la resolución de cuestiones sobre la interpretación correcta de lo que ocurre exactamente cuando se hace una medición cuántica. Dejaré esto último (la resolución de la interpretación cuántica) a un lado, y en su lugar discutiré las situaciones en las que la información es efectivamente constante. Véase aquí para la definición de "información": la información de una cosa es esencialmente el tamaño en bits del documento más pequeño que se puede escribir y seguir definiendo esa cosa de forma única. Para el caso especial de una cadena de símbolos estadísticamente independientes, la información de Shannon es la media de los logaritmos negativos de sus probabilidades $p_j$ de aparición en una cadena infinita:
$H=-\sum_j p_j \log p_j$
Si la base del logaritmo es 2, H está en bits . La forma en que esto se relaciona con el documento de definición más pequeño para la cadena se define en el documento de Shannon teorema de la codificación sin ruido .
En la interpretación MaxEnt de la segunda ley de la termodinámica, de la que fue pionero E. T. Jaynes (también del modelo Jaynes-Cumming para átomos de dos niveles con un modo de interacción de campo electromagnético famoso), la ganada entropía "observable" o "experimental" $S_{exp}$ (esto es lo que arroja la fórmula H de Boltzmann) de un sistema comprende lo que yo llamaría la verdadera información de Shannon, o complejidad de Kolmogorov, $S_{Sha}$ más la información mutua $M$ entre los estados desconocidos de los subsistemas distinguibles. En un gas, $M$ mide la previsibilidad de los estados de las partículas condicionada al conocimiento de los estados de otras partículas, es decir es una medida logarítmica de la correlación estadística entre partículas:
$S_{Exp} = S_{Sha} + M$ (ver esta referencia así como muchas otras obras de E. T. Jaynes sobre este tema)
$S_{Sha}$ es la información mínima en bits necesaria para describir un sistema, y es constante porque las leyes básicas de la física son reversibles: el Mundo, por tanto, tiene que "recordar" cómo deshacer cualquier evolución de su estado. $S_{Sha}$ no puede medirse en general y, de hecho, ni siquiera puede darse una descripción completa del estado de un sistema, $S_{Sha}$ es no computable (es decir, no se puede calcular la máxima compresión reversible de esa descripción). La fórmula de la entropía de Gibbs calcula $S_{Sha}$ donde se conoce la función de densidad de probabilidad conjunta para el estado del sistema.
La entropía experimental (Boltzmann) permanece constante en un proceso reversible, y aumenta en uno no reversible. La "prueba" de Jaynes de la segunda ley supone que un sistema comienza con todos sus subsistemas no correlacionados, y por tanto $S_{Sha} = S_{exp}$ . En este estado supuesto, los subsistemas son todos perfectamente independientes desde el punto de vista estadístico. Tras un cambio irreversible (por ejemplo, se permite que un gas se expanda en un recipiente más grande abriendo un grifo, las partículas están ahora sutilmente correlacionadas, de modo que su información mutua $M > 0$ . Por lo tanto, se puede ver que la entropía observable $S_{exp}$ debe subir. Esto termina la prueba de Jaynes.
Ver también esta respuesta para una excelente descripción de los cambios de entropía un cambio irreversible. El pregunta también es relevante para usted.
La energía casi no tiene relación con la información, sin embargo, hay un límite inferior en el trabajo debe hacer para "olvidar" la información en un algoritmo no reversible: este es el Límite de Landauer y surge para sostener la segunda ley de la termodinámica simplemente porque toda información debe estar codificada en el estado de un sistema físico: no hay otra "tinta" para escribir en el mundo material. Por lo tanto, si pasamos la memoria del ordenador, la complejidad de Kolmogorov del estado anterior de la memoria debe ser empujada al estado del Mundo circundante.
Epílogo: Debo declarar mi parcialidad diciendo que suscribo muchas de las ideas de la interpretación de MaxEnt, pero no estoy de acuerdo con la "prueba" de Jaynes de la segunda ley. No hay ningún problema con la lógica de Jayne, pero (opinión del autor, es decir, mía): después de un cambio irreversible, los subestados del sistema están correlacionados y hay que describir cómo vuelven a estar descorrelacionados antes de poder aplicar de nuevo el argumento de Jaynes. Así que, lamentablemente, no creo que tengamos una prueba de la segunda ley aquí.
La energía es la relación entre los regímenes de información. Es decir, la energía se manifiesta, a cualquier nivel, entre estructuras, procesos y sistemas de información en todas sus formas, y todas las entidades de este universo están compuestas de información. Para entender la información y la energía, consideremos un universo hipotético compuesto únicamente por la nada. En este universo imaginemos la presencia de la instancia más pequeña y fundamental posible de deformación que constituye una partícula en este firmamento de la nada, por lo demás prístino. Imaginemos que sólo hay una instancia de esta partícula más fundamental y llamémosla partícula de Planck. No se sabe qué ha provocado la existencia de esta PP, pero la existencia de la PP constituye la existencia de un Planck-Bit (PB) de información. Resista la tentación de declarar que la energía es lo que ha causado la existencia de nuestra única PP. En esta analogía, al igual que en nuestra realidad, el "big" bang que produjo nuestro único PP no es diferente del big bang que causó nuestro universo conocido en el sentido de que ninguno de los dos puede describirse en términos de cualquier relación o régimen energético conocido por las leyes de la física en este universo.
Este PB representa la manifestación más fundamental de la información posible en este universo. Por lo tanto, la única energía que existe en este universo conceptual será descrita por la relación (ahí está esa palabra de nuevo) entre el solitario PP y el resto del firmamento de la nada que describe su universo. Llamemos a esta energía un Planck-cuántico (PQ). Nótese que este PQ de energía en este universo sólo existe en virtud de la existencia del PP solitario en relación con la nada circundante. Con un solo PP hay pocas descripciones de energía que se puedan describir. No hay energía cinética, ni energía potencial, ni gravedad, ni energía atómica o nuclear, ni entropía, ni termodinámica, etc. Sin embargo, habrá algunas relaciones muy fundamentales relativas a los grados de libertad definidos por nuestra PP en comparación con su entorno sombrío que pueden describirse como energía.
Si ahora introducimos una segunda PP en nuestro escaso universo, ahora puede definir más regímenes de relación y energía dentro de nuestro universo conceptual en crecimiento, y formular teorías y ecuaciones dignas de un Nobel que describan estas relaciones. La energía cinética se manifiesta súbitamente como la relación de distancia entre nuestras solitarias PP. Del mismo modo, la energía, tal y como la conocemos, describe las relaciones que se manifiestan entre los regímenes de información que son describibles por el lenguaje de las matemáticas.
El electrón y la información.
La información se transfiere a través de las ondas EM. No hay onda EM sin electrón. (H. Lorentz)
La información es el nuevo átomo o electrón, el bloque de construcción fundamental del universo... Ahora vemos el mundo como si estuviera hecho enteramente de información: son bits hasta el final. (Bryan Appleyard)
Es importante darse cuenta de que en la física actual no tenemos conocimiento de lo que es la energía. No tenemos una imagen de que la energía viene en pequeñas manchas de una cantidad definida. No es así. (Richard Feynman sobre un electrón)
El electrón es un quantum de información. El electrón es un guardián de la información. ¿Por qué? Un electrón tiene seis ( 6 ) fórmulas: $$E=h*f\qquad \text{and}\qquad e^2=ah*c ,$$ $$E=Mc^2\qquad \text{and}\qquad -E=Mc^2 ,$$ $$E=-me^4/2h^2= -13.6eV\qquad \text{and}\qquad E= \infty$$ y obedece a cinco (5) Leyes :
- a) La ley de conservación y transformación energía/masa
- b) El principio/ley de incertidumbre de Heisenberg
- c) El principio/ley de exclusión de Pauli
- d) Estadística de Dirac - Fermi
- e) Ley EM de Maxwell / Lorentz
Significa que en diferentes acciones el electrón debe conocer seis fórmulas diferentes y debe observar cinco leyes. Para comportarse en tan diferentes condiciones un solo electrón debe ser un guardián de la información.
Las leyes de la física dictan que la información, como la energía, no puede ser destruida, lo que significa que debe ir a alguna parte. (Michael Brooks, Libro ' The big questions'. Página 195-196.)
Significa un electrón (como una pequeña mancha de una cantidad definida de energía) incluso en diferentes situaciones nunca pierde su información.