85 votos

¿Por qué es indestructible la información?

Realmente no entiendo a qué se refiere Leonard Susskind cuando dice en el vídeo Leonard Susskind sobre El mundo como holograma que la información es indestructible.

¿Es realmente recuperable esa información que se pierde por el aumento de la entropía?

Él mismo dijo que la entropía es información oculta. Entonces, aunque la información oculta tiene efectos medibles, creo que la información perdida en un proceso irreversible no se puede recuperar. Sin embargo, la afirmación de Susskind es todo lo contrario. ¿Cómo se entiende la pérdida de información por un proceso que aumenta la entropía, y su conexión con la afirmación "la información es indestructible"?

La física de los agujeros negros puede utilizarse en las respuestas, pero, dado que propone una ley general de la física, preferiría una respuesta que no implicara agujeros negros.

73voto

Sam Saffron Puntos 1304

¿Cómo es compatible la afirmación "la información es indestructible" con "la información se pierde en la entropía"?

Hagamos las cosas lo más concretas y sencillas posible. Olvidémonos de la física cuántica y la dinámica unitaria, juguemos con autómatas celulares reversibles totalmente simples.

Consideremos un espaciotiempo formado por un entramado cuadrado de celdas con un campo trinario (de 3 valores) definido sobre él. Los valores están codificados por colores, de modo que las celdas pueden ser amarillas, naranjas y rojas. Las "ecuaciones de campo" consisten en un conjunto de coloraciones permitidas para cada bloque 2x2 de celdas:

enter image description here

Se permite un total de 27 patrones de colores locales. Éstos se definen de tal manera que cuando tres de los cuatro cuadrados están coloreados, el color de la cuarta celda está definido de forma única. (¡Compruébelo!)

Las ecuaciones de campo no contienen una "dirección de evolución". Entonces, ¿cómo definir una dirección temporal? Supongamos que al mirar "al Norte" o "al Oeste" a lo largo de las direcciones de la red, nos topamos con un horizonte más allá del cual se extiende un mar infinito de cuadrados amarillos:

enter image description here

"Norte" y "Oeste" los etiquetamos como "rayos de luz del pasado". Estos dos rayos de células constituyen la "instantánea" del universo tomada desde el punto espaciotemporal definido por la intersección de los dos rayos. Dada esta "instantánea", y utilizando las ecuaciones de campo (las coloraciones 2x2 permitidas), podemos empezar a reconstruir el pasado:

enter image description here

En este caso, la regla aplicada para colorear la casilla se deduce del cuadrado situado en la parte inferior de la columna central en el resumen de los 27 cuadrados 2x2 permitidos. Este es el único patrón 2x2 de los 27 que se ajusta a los colores dados a la derecha, abajo y abajo a la derecha de la celda que se está coloreando. Al identificar este patrón 2x2 como el único que se ajusta a los colores de celda proporcionados, el color superior izquierdo pasa a ser fijo.

Siguiendo así, obtenemos el pasado completo del universo hasta cualquier punto que deseemos:

enter image description here

Observamos que construimos el pasado completo conociendo las coloraciones de las "células de rayos de luz" en la "instantánea" que, excluyendo el mar uniforme más allá de los horizontes, no cuentan más de 25 células. Identificamos este recuento como la entropía (número de trits ) observado desde el punto en el que se encuentran los dos rayos luminosos. Obsérvese que en momentos posteriores la entropía es mayor: este sencillo modelo cumple la segunda ley de la termodinámica.

Ahora invertimos la dinámica, y ocurre algo interesante: conociendo sólo 9 valores de color de los rayos de luz hacia el futuro (excluyendo de nuevo el mar uniforme más allá del horizonte):

enter image description here

Podemos reconstruir el futuro completo:

enter image description here

Nos referimos a estos 9 tritos que definen la evolución completa de este universo de autómatas celulares como el "contenido de información" del universo. Obviamente, los 25 trits de entropía contienen los 9 trits de información. Esta información está presente pero 'oculta' en los trits de entropía. La entropía en este modelo seguirá creciendo. Los 9 trits de información permanecen constantes y ocultos en (pero recuperables de) un número cada vez mayor de trits de entropía.

Nótese que ninguna de las observaciones realizadas depende de los detalles de las "ecuaciones de campo". De hecho, cualquier conjunto de coloraciones 2x2 permitidas que defina de forma única el color de la celda restante dados los colores de tres celdas, producirá las mismas observaciones.

Se pueden hacer muchas más observaciones a partir de este modelo de juguete. Una característica obvia es que el modelo no presenta un "big bang", sino más bien un "big bounce". Además, el contenido de información (9 trits en el ejemplo anterior) que define este universo es significativamente menor que la entropía posterior (que crece sin límites). Esto es una consecuencia directa de la presencia de un "horizonte pasado" en el modelo. Además, a pesar de que las "ecuaciones de campo" de este modelo son totalmente reversibles, la "instantánea" tomada permite reconstruir todo el pasado, pero no el futuro. Esta "flecha del tiempo" puede eludirse reconstruyendo el pasado más allá del "gran rebote", donde el pasado y el futuro cambian de papel y puede obtenerse una nueva instantánea a partir de la reconstrucción realizada. Esta instantánea está orientada al futuro y permite construir el futuro más allá de la instantánea original.

Sin embargo, estas observaciones van mucho más allá de las preguntas formuladas.

23voto

Matt S. Puntos 514

No sé en qué contexto lo mencionó Susskind, pero probablemente quiso decir que la evolución temporal es unitaria. Eso significa, entre otras cosas, que es reversible, es decir, que no se puede perder nunca ninguna información porque, básicamente, se puede, partiendo de cualquier momento (trozo similar al tiempo), correr el tiempo hacia atrás (teóricamente) y calcular lo que ocurrió antes.

Si la evolución de los agujeros negros fuera, en efecto, perfectamente térmica, violaría la unitaridad y la información se perdería realmente. Creo que Susskind piensa que no es así.

13voto

Advierto que no soy un teórico de las cuerdas y que, por lo tanto, el trabajo de Susskind no me es totalmente familiar (y probablemente no podría entenderlo si lo fuera), así que no conozco bien el contexto (de la supuesta cita de que la entropía es información oculta).

Pero lo que quizá quiere decir con información "oculta" es una o ambas cosas: la primera teórica, la segunda práctica:

  1. Le Complejidad de Kolmogorov $K(\Omega)$ para un sistema determinado $\Omega$ (más precisamente: la complejidad de la descripción unívoca del sistema) es en general no computable . $K(\Omega)$ está relacionado con el concepto de Entropía de Shannon $S_{Sha}(\Omega)$ (véase la nota a pie de página);
  2. Tanto la complejidad de Kolmogorov como la entropía de Shannon de un sistema quedan enmascaradas en las observaciones macroscópicas por las correlaciones estadísticas entre los componentes microscópicos de los sistemas: los sistemas termodinámicos la entropía medible $S_{exp}(\Omega)$ (que suele ser la de Boltzmann) es igual a la verdadera entropía de Shannon $S_{Sha}(\Omega)$ más cualquier información mutua $M(\Omega)$ (medida logarítmica de correlación estadística) entre los componentes del sistema: $S_{exp}(\Omega)= S_{Sha}(\Omega) + M(\Omega)$

Esperemos que las siguientes explicaciones le muestren por qué estas ideas de "oculto" no están en absoluto relacionadas con estar "destruido" o incluso ser "irrecuperable".

La complejidad de Kolmogorov de un sistema es el tamaño (medido en bits) de la descripción más pequeña posible del estado del sistema. O, como lo expresa maravillosamente el usuario @Johannes: es el número mínimo de preguntas sí/no que habría que responder para especificar de forma única el sistema. Incluso si se puede describir de forma inequívoca y perfecta el estado de un sistema, en general no existe ningún algoritmo para decidir si una descripción más comprimida puede ser equivalente. Véase la discusión sobre la Teorema de incomputabilidad para una complejidad de Kolmogorov en Wikipedia por ejemplo. Así que, en este sentido, la verdadera entropía de una cosa está oculta para un observador, aunque la cosa y una descripción perfecta de la misma sean plenamente observables por ellos.

Hasta aquí la ocultación de la entropía (cantidad de información). Pero, ¿qué ocurre con la información en sí? La incomputabilidad de la complejidad de Kolmogorov también afecta a esta cuestión: dado que la cantidad de entropía que describe el estado de un sistema es incomputable, en general no hay forma de saber si el estado de ese sistema se ha codificado de forma reversible en el estado de un sistema aumentado si nuestro sistema original se fusiona con otros sistemas: dicho de otro modo, en palabras más aplicables a los agujeros negros: no hay algoritmo que pueda decir si el estado de nuestro sistema original está codificado en el estado de algún otro sistema que se trague al primero.

Para una discusión sobre el segundo punto, es decir, cómo difieren la entropía medida experimentalmente y la complejidad de Kolmogorov, véase mi respuesta aquí También discuto allí por qué la información podría no ser destruida en ciertas situaciones simples, a saber: si las leyes relevantes de la física son reversibles, entonces

El Mundo tiene que recordar de alguna manera cómo volver a cualquier estado del que haya evolucionado (la correspondencia entre los estados del sistema en distintos momentos es uno a uno y onto).

Esta es una forma más general de plantear la descripción de la evolución unitaria dada en otras respuestas.

Epílogo : Charles Bennett en su artículo "The thermodynamics of computation-a review" plantea la intrigante y satisfactoria teoría de que la razón por la que los químicos físicos no pueden dar con un algoritmo a prueba de fallos para calcular las entropías de las moléculas con las que tratan es precisamente este teorema de no computabilidad (nótese que no descarta algoritmos para ciertos casos específicos, así que el teorema no puede probar que por eso los químicos físicos no pueden calcular entropías, pero es muy plausible en el mismo sentido que uno podría decir que una razón por la que depurar software es un problema difícil es la indecidibilidad del teorema de Turing del problema de detención).

Nota : La entropía de Shannon es un concepto más fácilmente aplicable a los sistemas que se consideran pertenecientes a un proceso estocástico cuando se dispone de una descripción estadística detallada del proceso. Por el contrario, la complejidad de Kolmogorov se aplica más a las "descripciones" y es necesario definir el lenguaje de la descripción para definir completamente la entropía de Shannon. $K(\Omega)$ . Exactamente cómo están relacionados (o incluso si alguno de los dos es relevante) en cuestiones como las que se abordan en la paradoja de la información de los agujeros negros es una pregunta cuya respuesta probablemente espera más trabajo más allá de las "opiniones" de la comunidad de físicos (como se dice en otra respuesta) sobre si la información sobrevive o no a la materia y la energía subyacentes arrojadas a un agujero negro.

Otra nota a pie de página (26 de julio de 13): Véase también la página de Wikipedia sobre el Paradoja de las bayas y un maravillosa charla por Gregory Chaitin titulado "La Paradoja de Berry" y pronunciado en un Coloquio de Física - Informática en la Universidad de Nuevo México. La Paradoja de Berry introduce (aunque de forma incompleta, pero en palabras cotidianas) los inicios de las ideas subyacentes a la Complejidad de Kolmogorov y, de hecho, condujo a Chaitin a su descubrimiento independiente de la Complejidad de Kolmogorov, aunque la Paradoja de Berry no formalizada es en realidad ambigua. La charla también ofrece algunos pequeños y conmovedores ejemplos del trato personal con Kurt Gödel.

Editar 2 de agosto de 2013 Respuestas a las preguntas de Prathyush. :

No he podido entender la relación entre la entropía termodinámica y la complejidad de Kolmogorov. Esp la parte "Así que en este sentido, la verdadera entropía de una cosa está oculta a un observador, a pesar de que la cosa y una descripción perfecta de la misma son totalmente observables por ellos. "Si conoces el estado exacto del sistema, entonces en física la entropía es cero, si podemos simplificar la descripción no entra en escena.

Primero vamos a tratar

Si conoces el estado exacto del sistema, entonces en física la entropía es cero, si podemos simplificar la descripción no entra en escena

En realidad, si hay o no simplificación posible es central al presente problema. Supongamos que la descripción de nuestro sistema $\Omega$ es $N_\Omega$ bits de largo. Además, supongamos que hemos trabajado muy duro para conseguir la descripción completa más corta que podamos, así que esperamos que $N_\Omega$ está cerca de la complejidad de Kolmogorov $K(\Omega) < N_\Omega$ . Llega otro sistema "tragón" $\Sigma$ que estudiamos muy detenidamente hasta obtener lo que creemos que es una descripción completa de $\Sigma$ que es $N_\Sigma$ bits de largo. De nuevo, creemos que $N_\Sigma$ está cerca $\Sigma$ complejidad de Kolmogorov $K(\Sigma) < N_\Sigma$ El tragón $\Sigma$ sistema de absorción $\Omega$ - por lo que los dos sistemas se fusionan siguiendo algún proceso físico. Ahora estudiamos nuestro sistema fusionado con mucho cuidado, y descubrimos que de alguna manera podemos obtener una descripción completa cuya longitud $N_{\Omega \cup \Sigma}$ es mucho más corto que $N_\Omega + N_\Sigma$ bits de largo. ¿Podemos decir que el proceso de fusión ha sido irreversible, en el sentido de que si corriéramos el tiempo hacia atrás, el original, separado $\Omega$ y $\Sigma$ ¿no resurgiría? La cuestión es que no podemos, aunque $N_{\Omega \cup \Sigma} \ll N_\Omega + N_\Sigma$ . ¿Por qué? Porque nunca podemos estar seguros de haber encontrado realmente las descripciones más cortas posibles de $\Omega$ y $\Sigma$ . No hay forma de saber si $K(\Omega) = N_\Omega, K(\Sigma) = N_\Sigma$ .

En última instancia, lo que se plantea aquí es la cuestión de si las evoluciones temporales en física son funciones uno a uno, es decir, dado un estado final para un sistema, ¿implica esto siempre inequívocamente un estado inicial único? Nuestro gran problema central aquí es, perdonen la floritura, que no sabemos cómo codifica la Naturaleza los estados de sus sistemas. Hablando en sentido figurado, el esquema de codificación y el libro de códigos son lo que los físicos se empeñan en resolver. Se supone que la complejidad de Kolmogorov, o conceptos afines, son relevantes en este caso porque se supone que si realmente se conoce cómo funciona la Naturaleza, entonces se sabe cuál es el espacio de configuración máximamente comprimido (en el sentido de la teoría de la información) para un sistema dado y, por tanto, la descripción más corta posible del estado de un sistema es un número que nombra en cuál de los puntos del espacio de configuración se encuentra un sistema concreto. Si el número de puntos posibles en el espacio de configuración final -la complejidad de Kolmogorov final (modulada por una constante aditiva)- es menor que el número de puntos posibles en el espacio inicial, entonces podemos decir que, en general, el proceso destruye información porque dos o más estados iniciales corresponden a un estado final. Encontrar un orden oculto en un comportamiento aparentemente aleatorio es un problema difícil: ese hecho hace que la criptografía funcione. Las secuencias aparentemente aleatorias pueden generarse a partir de leyes exquisitamente sencillas: testigo Blum Blum Shub o Retorcedores Mersenne . Podemos observar una estructura aparentemente aleatoria o fina en algo y suponer que tenemos que tener una teoría enormemente complicada para describirla, mientras que la Naturaleza podría estar utilizando un retorcedor de Mersenne metafórico todo el tiempo y resumir una estructura exquisita en unos pocos bits de su libro de códigos.

Ahora vamos a tratar:

No he podido entender la relación entre la entropía termodinámica y la complejidad de Kolmogorov.

Una interpretación de la entropía termodinámica es que es una aproximación al "contenido de información" del sistema, o el número de bits necesarios para especificar completamente un sistema dadas sólo sus propiedades macroscópicas. En realidad su comentario "No pude entender la conexión entre la entropía termodinámica y la complejidad de kolmogorov" ¡es una muy buena respuesta a toda esta pregunta! - En general, desconocemos la relación entre ambas y eso dificulta los esfuerzos por saber cuánta información se necesita realmente para codificar el estado de un sistema sin ambigüedades.

Pero los conceptos están vinculados en algunos casos. El ejemplo clásico es el de Boltzmann $H$ -entropía para un gas formado por estadísticamente independientes partículas:

$H = -\sum_i p_i \log_2 p_i$

donde $p_i$ es la probabilidad de que una partícula se encuentre en el estado número $i$ . La expresión anterior está en bits por partícula (aquí sólo he reescalado las unidades para que la constante de Boltzmann $k_B = \log_e 2$ ).

Si efectivamente las ocupaciones de los estados por las partículas son realmente aleatorias y estadísticamente independientes, entonces se puede demostrar mediante la Teorema de Shannon sobre la codificación sin ruido que el número de bits necesarios para codificar los estados de un gran número $N$ de ellos es precisamente $H$ bits por partícula. Este es el número mínimo de bits en el sentido de que si se intenta construir un código que asigne $H-\epsilon$ bits por partícula entonces, como $N\rightarrow\infty$ la probabilidad de fallo de codificación se aproxima a la unidad, para cualquier $\epsilon > 0$ . Por el contrario, si estamos dispuestos a asignar $H+\epsilon$ entonces siempre existe un código tal que la probabilidad de codificación totalmente inequívoca se aproxima a la unidad como $N\rightarrow\infty$ para cualquier $\epsilon > 0$ . Así, en este caso especial, la entropía de Boltzmann es igual a la complejidad de Kolmogorov como $N\rightarrow\infty$ : tenemos que elegir $H+\epsilon$ bits por partícula, más una sobrecarga constante para describir cómo funciona la codificación en el lenguaje con el que trabajamos. Esta sobrecarga repartida entre todas las partículas se aproxima a cero bits por partícula como $N\rightarrow\infty$ .

Cuando un sistema termodinámico está en "equilibrio" y las ocupaciones de estado de las partículas son estadísticamente independientes, podemos enchufar la distribución de probabilidad de Boltzmann

$p_i = \mathcal{Z}^{-1} e^{-\beta E_i}$

en el $H$ y demostrar que da lo mismo que la entropía de Clausius $S_{exp}$ derivados de macroestados experimentales.

Si existe correlación entre las ocupaciones de las partículas, en principio se aplican comentarios similares a la Entropía de Gibbs, si se conocen las distribuciones de probabilidad de estado conjuntas para todas las partículas. Sin embargo, las distribuciones de probabilidad conjuntas son en general imposibles de encontrar, al menos a partir de mediciones macroscópicas. Véase el artículo Entropía de Gibbs frente a la de Boltzmann de E. T. Jaynes, así como muchas otras obras por él sobre este tema). Además, El usuario Nathaniel de Physics Stack Exchange tiene una excelente tesis doctoral así como varios documentos que pueden ser de interés. La dificultad de medir la Entropía de Gibbs es otra dificultad más de todo este problema. También he dado otra respuesta resumiendo este problema.

Una última forma de relacionar la KC con otros conceptos de entropía: si lo desea, puede utilizar la noción de KC para defina lo que entendemos por "aleatorio" y "estadísticamente independiente". Motivado por el teorema de la codificación sin ruido de Shannon, podemos incluso utilizarlo para definir probabilidades. Una secuencia de variables es aleatoria si no existe ningún modelo (ninguna descripción) que pueda utilizarse para describir sus valores, aparte de nombrar sus valores. El grado de "aleatoriedad" de una variable aleatoria puede considerarse así: se puede encontrar un modelo que describa en cierto modo la secuencia de variables, pero es sólo aproximado. Una descripción más breve de una secuencia aleatoria consiste en definir un modelo y sus condiciones de contorno y, a continuación, codificar dicho modelo y condiciones así como las discrepancias entre las variables observadas y el modelo. Si el modelo es mejor que una suposición, será una descripción más concisa que limitarse a nombrar los valores en su totalidad. Las variables son "estadísticamente independientes" si no hay ninguna descripción, ni siquiera en principio, que pueda modelizar cómo el valor de unas variables afecta a las otras y, por tanto, la descripción más concisa de la secuencia es nombrar todas las variables separadas por completo. Esto es lo que hacen, por ejemplo, las funciones de correlación entre rvs: el conocimiento del valor de X puede utilizarse para reducir la varianza de una segunda variable correlacionada Y mediante un modelo lineal que implique el coeficiente de correlación (quiero decir, reducir la varianza en el distribución de probabilidad condicional ). Por último, podemos dar la vuelta al Teorema de Shannon sobre la codificación sin ruido y utilizarlo para defina probabilidades a través del KC: la probabilidad de que rv discreto $X$ es igual a $x$ es $p$ si se cumple lo siguiente. Tomar una secuencia de rvs y para cada uno registrar la secuencia de valores de verdad $X=x$ o $X\neq x$ y "encontrar la descripción más concisa posible" (necesitaremos un "oráculo" debido a la incapacidad de cálculo de KK) de esta secuencia de valores de verdad y su longitud en bits y bits por miembro de la secuencia. La probabilidad "p" es entonces el número tal que $-p\log_2 p - (1-p)\log_2 (1-p)$ es igual a estos bits por miembro de la secuencia, ya que la longitud de la secuencia $\rightarrow\infty$ (tomar el límite mejora las estimaciones estadísticas y reparte la sobrecarga de longitud fija al describir el esquema de codificación sobre muchos miembros de la secuencia, de modo que esta sobrecarga no contribuye a los bits por miembro de la secuencia). Este enfoque evita algunos de los problemas filosóficos que surgen incluso al definir la aleatoriedad y la probabilidad. Diccionario Stanford de Filosofía entrada "Chance Versus Randomness para conocer algo de esto.

Por último :

Si conoces el estado exacto del sistema, entonces en física la entropía es cero

Aquí nuestros problemas son las sutiles distinciones (1) entre una instancia de un conjunto de sistemas, todos los cuales se supone que son miembros del mismo proceso aleatorio o "población" y el conjunto en sí, (2) entropías de información y termodinámicas y (3) entropías teóricas de la información incondicionales y condicionales.

Cuando dije que "la verdadera entropía de una cosa está oculta a un observador, aunque la cosa y una descripción perfecta de la misma sean plenamente observables por él", pues claro, la entropía Shannon de la teoría de la información, condicionada a que el observador tenga pleno conocimiento del sistema, es nula. Por el contrario, la entropía termodinámica será la misma para todo el mundo. Por otro contraste más, la entropía teórica de la información para otro observador que no tiene pleno conocimiento es distinta de cero. A lo que me refería en este caso es a la complejidad de Kolmogorov, o al número de preguntas sí/no necesarias para especificar un sistema a partir de la misma población estadística subyacente, porque esta cantidad, si puede calcularse antes y después de un proceso físico, es lo que uno puede utilizar para saber si el proceso ha sido reversible (en el sentido de ser una función uno a uno de la configuración del sistema).

Espero que estas reflexiones te ayuden Prathyush en tu búsqueda para entender la indestructibilidad, o no, de la información en física.

5voto

JordanBelf Puntos 1012

Como muchos han dicho aquí, probablemente se refiera a la unitariedad. Susskind se está haciendo eco de la ver entre los físicos. No creo que tengamos (todavía) una forma concreta de formular con precisión el principio, y mucho menos algún tipo de prueba. Pero basándonos en la unitariedad de la mecánica cuántica y (por si sirve de algo) en la intuición física sobre la gravedad, es parece lo sensato sería que se conservaran los contenidos informativos.

Una ilustración sencilla de este principio sería el teorema de no clonación . Tal y como yo lo veo, dice que no se puede destruir la información en el regístrese en (el qubit en que cantan para copiar alguna información) de forma coherente con la evolución unitaria. Si lo has conseguido, entonces deberías ser capaz de invertir la evolución unitaria y generar la información a partir del registro que se supone que has destruido.

En cuanto a la información oculta, piense que es temporalmente escondido. Cuando alguna información está dentro del agujero negro, no se puede acceder a esa información y el agujero negro tiene una entropía correspondiente. Cuando el agujero negro se evapora, no queda nada que contenga la entropía, por lo que la información debe haber salido de algún modo y ahora no está oculta (o eso se cree, a día de hoy). De nuevo, no creo que haya un cálculo concreto para establecer esto definitivamente, sobre todo porque no dominamos bien la gravedad cuántica.

3voto

CC. Puntos 921

Un montón de gente contestó pero con cosas muy complicadas. Así que voy a responder con cosas mucho más comprensibles y divertidas...

En primer lugar, Susskind piensa, como mucha gente, que las leyes físicas son reversibles y, por tanto, es lógico que la información no pueda perderse; de lo contrario, no sería posible invertir las cosas.

Y cuando dice que la información no se pierde, se refiere, en teoría, a todo el universo con un estado de conocimiento semejante al de un dios, no a una persona en particular.

Luego está la cuestión de qué se entiende exactamente por entropía. La entropía es la información del sistema que no se conoce. Por ejemplo, en una bañera con agua, las observaciones convencionales pueden incluir la temperatura, la presión y el volumen, pero hay innumerables bits de información codificados en los estados de todas las moléculas de agua, sus movimientos y modos vibracionales. Se trata de información desconocida y gran parte de ella ni siquiera es observable en la práctica; todo lo que sabemos son cosas sobre la distribución de la energía. El número de bits de entropía sería el número de bits de información adicional por encima de lo que ya se sabe, que habría que catalogar laboriosamente para describir completamente el sistema en un instante.

Consideremos un modo de pérdida de información: el borrado de datos informáticos. Cada vez que se invierte un bit en la memoria de un ordenador, esa información se sobreescribe y convencionalmente la consideramos perdida.

Sin embargo, el cambio físico de estos bits genera calor en los circuitos y esa cascada de acontecimientos a escala atómica implica la disipación de ese bit de información en modos de vibración térmica. De hecho $E=kTln2$ es la cantidad máxima de energía que se liberará al voltear un bit a la temperatura T.

Entonces te preguntas, ¿se puede recuperar esta información del entorno para conocer el valor del bit? La respuesta es no en este caso concreto, porque el calor del bit tiene unas dimensiones casi infinitas en las que disiparse, y por tanto no hay una forma práctica real de volver a reunirla, pero eso no significa que la información se destruya, sólo que ya no es accesible para nosotros, y por tanto se convierte en información desconocida, que sabemos que está ahí, y es cuantificable, y por eso la llamamos entropía.

Ahora déjame mostrarte una forma en la que la entropía puede reducirse realmente. Supongamos que tienes una caja en la que metes cables de ordenador, como cables USB o cables de alimentación. Tal vez al principio los coloques unos encima de otros de forma ordenada. Pero un año más tarde, al llegar a esa caja, todos los cables están enredados en una gran bola de pelos. El estado inicial ordenado tiene baja entropía. Pusiste los cables unos encima de otros en cierto orden, así que supuestamente deberías conocer alguna información sobre la disposición del contenido de la caja, aunque no conozcas todos los detalles. Ahora bien, con el tiempo, la gente puede hurgar en la caja buscando un cable u otro, revolviendo el contenido, apartando cosas y haciendo vibrar el contenido de diversas maneras. Se trata de información ambiental desordenada y desconocida que se añade al contenido de la caja. Es un montón de fuerzas aleatorias sobre varios cables a lo largo del tiempo, y no estás tomando nota de esa información. Así que la entropía del sistema (información oculta de las perturbaciones aleatorias externas) está aumentando.

Al final tienes un montón de cables que se anudan de varias maneras, en lugar de ser independientes y estar simplemente organizados. La información codificada en todos esos nudos y enredos procede de la información ambiental aleatoria que se añadió. Este es el aumento de la entropía.

Entonces, como no estás contento con esta situación, decides organizarlos. Pero en la práctica lo que eso significa es que tienes que deshacer todos los nudos siguiendo perceptivamente cada cable a través del sistema y haciéndote consciente de la información que se ha añadido, para poder desenhebrar todos los enredos y separarlos de nuevo. Así que este proceso de ordenación que haces está disminuyendo la entropía del sistema porque estás catalogando exhaustivamente (y olvidando rápidamente) exactamente cómo se codificó la información oculta en los enredos de cables. Pero también hay que tener en cuenta que este proceso requiere energía y tiempo por tu parte. Y la información que estaba codificada en las marañas de cables entró en tu cerebro, y luego fue olvidada, y disipada como energía térmica.

Pero lo raro es que la entropía esté relacionada con tu estado de conocimiento. Así que eso significa que tú y yo podemos potencialmente atribuir entropías diferentes al mismo sistema dependiendo de lo que sepamos de antemano.

Por ejemplo, si recibo un millón de bits de información, puedo calcular la frecuencia de los 1 y los 0 y otras estadísticas, y eso me da cierta información, pero el resto lo considero oculto y, por tanto, puedo ponerle un número de entropía grande. Pero otra persona podría tener una cierta cantidad de información sobre el hecho de que los bits son algún mensaje codificado, por lo que para ellos la entropía es menor porque la información extra restringe el patrón de bits en un espacio estructurado más pequeño que $2^N$ .

Del mismo modo, si alguien hubiera anotado de algún modo cómo le ha afectado cada interacción con la caja de cables a lo largo del tiempo, al final la entropía sería baja desde el punto de vista de esa persona aunque los cables siguieran enredados. Lo que ocurre es que esa persona que observó cómo se enredaban no permitió que la información quedara oculta y, en teoría, no necesita analizar realmente los cables al final para comprenderlos, sino que podría desenredarlos mecánicamente como un robot con niveles nulos o bajos de percepción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X