54 votos

Densidad máxima teórica de datos

Nuestra capacidad para almacenar datos en medios físicos sigue creciendo, con la cantidad máxima de datos que se puede almacenar en un volumen dado aumentando exponencialmente de año en año. Los dispositivos de almacenamiento continúan haciéndose más pequeños y su capacidad aumenta.

Sin embargo, esto no puede continuar para siempre, imagino. "Las cosas" solo pueden hacerse tan pequeñas; pero ¿qué pasa con la información? ¿Qué tan pequeño puede ser un solo bit de información?

De otra manera: dada un espacio físico limitado --digamos, 1 centímetro cúbico-- y sin asumir más dimensiones de las que tenemos acceso actualmente, ¿cuál es la cantidad máxima de información que se puede almacenar en ese espacio? ¿En qué punto el crecimiento exponencial de la densidad de almacenamiento llega a un punto tan concluyente y final que no tenemos razón ni siquiera para intentar aumentarlo aún más?

0 votos

Esta es una gran pregunta relacionada con el límite de entropía covariante de Bousso: mira mi respuesta.

0 votos

Un átomo de hidrógeno tiene infinitos estados de energía eigen...

0 votos

@MarkEichenlaub Pero seguramente los estados propios de energía más altos y más altos ocupan más y más espacio: si mal no recuerdo, no hay límite en el "tamaño" del estado propio a medida que subes en energía.

38voto

La respuesta la da la cota de entropía covariante (CEB) también conocida como la cota de Bousso en honor a Raphael Bousso quien primero la sugirió. La CEB suena muy similar al principio holográfico (HP) en el sentido de que ambos relacionan la dinámica de un sistema con lo que sucede en su frontera, pero la similitud termina ahí.

El HP sugiere que la física (específicamente la supergravedad o SUGRA) en un espacio-tiempo d-dimensional puede ser mapeada a la física de una teoría de campo conformal que reside en su frontera d-1 dimensional.

La cota de Bekenstein es más en la línea de que la entropía de un agujero negro es proporcional al área de su horizonte:

$$ S = \frac{k A}{4} $$

En resumen, la información máxima que se puede almacenar en $1\ \mathrm{cm^3} = 10^{-6}\ \mathrm{m^3}$ de espacio es proporcional al área de su frontera. Para un volumen esférico uniforme, esa área es:

$$ A = V^{2/3} = 10^{-4}\ \mathrm{m^2}$$

Por lo tanto, la información máxima (número de bits) que se puede almacenar es aproximadamente:

$$ S \sim \frac{A}{A_\mathrm{pl}} $$

donde $A_\mathrm{pl}$ es el área de Planck $ \sim 10^{-70}\ \mathrm{m^2}$. Para nuestro volumen de $1\ \mathrm{cm^3}$ esto da $ S_\mathrm{max} \sim 10^{66} $ bits.

Por supuesto, esta es una estimación aproximada de orden de magnitud, pero se encuentra en el rango general y te da una idea del límite del que estamos hablando. ¡Como puedes ver, aún nos quedan décadas sino siglos antes de que nuestra tecnología pueda saturar esta cota!


Edición: Gracias a @mark por señalar que $1\ \mathrm{cm^3} = 10^{-6}\ \mathrm{m^3}$ y no $10^{-9}\ \mathrm{m^3}$. Cambios el resultado final por tres órdenes de magnitud.

Sobre la Entropía y el Área de Planck

En respuesta a las observaciones de @david en los comentarios, permíteme ampliar en dos asuntos.

  1. Área de Planck: Desde lqg (y también la teoría de cuerdas) sabemos que observables geométricos como el área y el volumen están cuantizados en cualquier teoría de la gravedad. Este resultado está a nivel cinemático y es independiente de cuáles sean las dinámicas actuales. El quantum de área, como se esperaría, es del orden de $\sim l_\mathrm{pl}^2$ donde $l_\mathrm{pl}$ es la longitud de Planck. En la gravedad cuántica, las entidades dinámicas son precisamente estos elementos de área a los cuales se les asigna una variable de espín $j$, donde generalmente $j = \pm 1/2$ (la representación más baja de SU(2)). Cada espín puede llevar un solo qubit de información. Por lo tanto, es natural asociar las áreas de Planck con una unidad de información.

  2. Entropía como medida de Información: Existe un gran malentendido en la comunidad de física con respecto a la relación entre la entropía $S$ – generalmente descrita como una medida de desorden – y la información útil $I$ como la almacenada en un chip, un ábaco u otro dispositivo. Sin embargo, son uno y el mismo. Recuerdo haber sido expulsado de una sala de chat de física una vez por decir esto, así que no espero que nadie lo tome tal cual.

Pero piensa en esto por un segundo (o dos). ¿Qué es la entropía?

$$ S = k_\mathrm B \ln(N) $$

donde $k_\mathrm B$ es la constante de Boltzmann y $N$ es el número de grados de libertad microscópicos de un sistema. Para un gas en una caja, por ejemplo, $N$ corresponde al número de formas diferentes de distribuir las moléculas en un volumen dado. Si pudiéramos usar realmente una cámara de gas como un dispositivo de almacenamiento de información, entonces cada una de estas configuraciones correspondería a una unidad de memoria. O considera una cadena de espín con $m$ espines. Cada espín puede tomar dos valores (clásicos) $\pm 1/2$. Usando un espín para representar un bit, vemos que una cadena de espín de longitud $m$ puede codificar $2^m$ números diferentes. ¿Cuál es la entropía correspondiente:

$ S \sim \ln(2^m) = m \ln(2) \sim \textrm{número de bits} $

ya que hemos identificado cada espín con un bit (más precisamente qubit). Por lo tanto, podemos decir con seguridad que la entropía de un sistema es proporcional al número de bits requeridos para describir el sistema y, por lo tanto, a su capacidad de almacenamiento.

7 votos

He escuchado esto varias veces, quizás sea mejor preguntar ahora. ¿Qué pasaría si tomas un volumen $V_2$ que se ubica dentro de tu volumen $V_1$ de manera que $A_2 > A_1$?. ¿Cuál sería capaz de contener más información?

1 votos

@space_cadet: Esta tiene el potencial de ser una gran respuesta; mi única crítica (esperanzadamente constructiva) es que realmente no explicas por qué la constante de proporcionalidad $S/A$ está relacionada con $A_{pl}$. Por supuesto, una demostración completa sería excesiva, pero creo que sería útil incluir algunas palabras sobre la importancia del área de Planck en este argumento, para las personas que no están familiarizadas con ella. Además, preferiría ver un símbolo diferente utilizado en lugar de $S$ en tu última ecuación, ya que la entropía no mide exactamente el número de bits de información. (Sé que es solo una diferencia de factor constante, simplemente se ve extraño)

0 votos

Gracias @mark y @david por sus comentarios. Espero que la edición resuelva las preguntas que tenían. En cuanto a lo que señaló @bruce (muy acertado por cierto), todavía lo estoy procesando y volveré si tengo una respuesta.

1voto

SIVAKUMAR.J Puntos 126

Entonces, digamos que para un volumen dado y una tecnología de recuperación de datos nano molecular. Suponiendo que deseas que los datos sean seguros, recuperables, hechos de un átomo estable a largo plazo, ¿cuál es la cantidad máxima de datos que se pueden almacenar útilmente?

Primero necesitamos que 1/2 del volumen total se use para una sola capa molecular de la molécula elegida, esta será el "plato" para nuestro "disco duro".

Sobre esto colocas los átomos que representan los bits, por lo que tienes tu volumen dividido por el volumen de tu molécula/elemento elegido dividido por 2 como el número total de bits.

Pero con el almacenamiento molecular, podrías usar diferentes moléculas y tener, por ejemplo,

Sin molécula = 0 Oro = 1 Platino = 2 Plata = 3

Luego tienes un almacenamiento de datos de 4 bits sin mucha pérdida de tamaño, agrega algo de carbono 12 y carbono 13 y tienes hasta 6 bits, encuentra elementos más estables y tendrás hasta 8 bits y así sucesivamente.

Por supuesto, la recuperación de datos sería terriblemente lenta, pero para almacenamiento a largo plazo y de tamaño pequeño. Estamos hablando de cuatrillones de bits por cm3

0 votos

0voto

No soy físico, pero sí sé informática y estoy al tanto de los conceptos básicos de física, así que déjenme dar otra respuesta a esto:

Aún no lo sabemos. Mientras haya cosas más pequeñas que se puedan encontrar, cambiar y observar, podemos usarlas para almacenar información.

Por ejemplo, si se encuentra una nueva propiedad cuántica que puede estar en estado A o estado B, eso es un nuevo bit. Si eso está en cada mil millones de átomos de algo, eso son mil millones más de datos. Si luego aprendemos a manipular esa propiedad en otros dos estados adicionales (digamos, hacia afuera o hacia adentro), entonces acabamos de agregar un nuevo bit, elevando esa capacidad a la potencia de 2.

Entonces, el problema es que aún estamos aprendiendo de qué están hechas la materia y el espacio-tiempo. Hasta que lleguemos a una teoría unificada correctamente probada, no sabemos cuántas cosas variables hay dentro de cualquier material. Dado que cada estado adicional es al menos un cambio de ^2 en la densidad de información, es bastante inútil dar cifras aproximadas hasta que sepamos más. Así que probablemente sea mejor dar algo como la Ley de Moore: una predicción de que duplicaremos el almacenamiento cada cierto tiempo, hasta que nos quedemos sin nuevos descubrimientos/tecnologías.

0voto

klj613 Puntos 269

El factor de conversión de entropía física a entropía de la información (en bits aleatorios) utiliza el límite de Landauer: (entropía física)=(bits de información)*kb*ln(2). El número de preguntas de sí/no que deben hacerse para determinar en qué estado se encuentra un sistema físico es igual a la entropía de Shannon en bits, pero no a la entropía intensiva y específica de Shannon H, sino a su entropía total y extensiva de una fuente de generación de datos: S=N*H donde H=1 si los n bits son mutuamente independientes.

El límite de Landauer establece que 1 bit de información que cambia de estado de manera irreversible libera entropía kb*ln(2), lo que es una liberación de energía calorífica para un T dado: Q=T*kb, lo que implica que había una energía potencial almacenada que era el bit. Esto muestra que la entropía es la entropía de información: el ln(2) convierte de ln() a log2(). kb es un factor de conversión simple de la energía cinética promedio por partícula (definición de temperatura) a julios de calor que tiene unidades de julios/julios, es decir, adimensional. Si nuestro T estuviera definido en términos de julios de energía cinética (promedio de 1/2 mv^2 de las partículas) en lugar de Kelvin, entonces kb=1. Por lo tanto, kb es adimensional julios/julios. No es una constante fundamental como h. c tampoco tiene unidades fundamentales si se acepta que el tiempo es igual a i*distancia como mencionaba Einstein en el apéndice 2 de su libro, permitiendo el uso del espacio euclidiano más simple en lugar del espacio de Minkowski sin error o calificación y de acuerdo con la navaja de Occam.

La "entropía" de Shannon (específica, intensiva) es H=sum(-p*log(p)) y él afirmó 13 veces en su artículo que H tiene unidades de bits, entropía o información POR SÍMBOLO, no bits (entropía total) como la mayoría de la gente asume. Una fuente de información genera entropía S=N*H donde N es el número de símbolos emitidos. H es una "entropía específica" basada en la probabilidad de "n" símbolos únicos de un total de N símbolos. H no es una "entropía total" como generalmente se cree, encontrando su paralelo físico con So\=entropía/mol. La entropía física es S=N*So y la entropía de la información es S=N*H. Es raro encontrar textos que expliquen esto.

Un gas monoatómico ideal (ecuación de Sackur-Tetrode) tiene una entropía de N partículas de gas mutuamente independientes de S=kb*sum(ln(estados totales/i^(5/2)) donde la suma va de i=1 a N. Esto se aproxima con la fórmula de Stirling a ser S=kb*N*[ln(estados/partícula)+5/2]. No logro derivar eso de la entropía total de Shannon S=N*H a pesar de haber mostrado en el primer párrafo que las entropías finales son exactamente iguales. No puedo identificar un "símbolo" informático en un sistema físico. El problema principal parece ser que la entropía física está limitada por la energía total lo cual le da más formas posibles de usar las N partículas. 1 partícula que lleva la energía total es un macroestado posible (sin contar el estado mínimo de la mecánica cuántica para las otras), pero la entropía de la información no tiene "suma de verificación" como esta para usar menos símbolos. La entropía física siempre(?) parece ser S=kb*N*[ln(estados/partícula)+c] y la diferencia de la entropía de la información es el c. Pero en materia a granel donde la energía se distribuye por igual, la entropía física es S=N*So. La entropía de la información es exactamente así (S=N*H), pero no logro derivar So de H. Nuevamente, Sbits\=S/(kb*ln(2)).

Así que la entropía de Shannon es mucho más simple y resulta en MENOS entropía si intentamos hacer que N partículas en un sistema físico sean equivalentes a N símbolos únicos. La entropía física más simple es de osciladores armónicos independientes en 1D compartiendo una energía total pero no necesariamente de manera uniforme: S=kb*ln[(estados/oscilador)^N / N!] que es S=N*[log(estados/partícula)+1] para N grandes. Así que incluso en el caso más simple, el c permanece. La entropía de Shannon tiene una forma fundamentalmente diferente: S~log((estados/símbolo)^N) = N*log(estados/símbolo) cuando cada símbolo es mutuamente independiente (sin patrones en los datos y probabilidades de símbolos iguales). Por ejemplo, para datos binarios aleatorios S=log2(2^N) = N bits. Por lo tanto, es difícil ver la conexión precisa en el caso más simple (el +1 no es una diferencia menor), incluso cuando se muestra de inmediato con preguntas de verdadero/falso que son cantidades idénticas con un simple factor de conversión. La aproximación de Stirling es exacta en el límite de N y H de Shannon depende de una manera de un N infinito para obtener p's exactas, por lo que la aproximación no es un problema para mí.

No he contradicho nada de lo que ha dicho el usuario346 pero quería mostrar por qué la conexión no es trivial excepto al ver la entropía específica de la materia a granel. La mecánica cuántica utiliza S=sum(-p*log(p)) pero la entropía de Shannon es S=N*sum(-p*log(p)). Resultan iguales porque calcular los p's es diferente. Para la física, p=(macroestado seguro)/(microestados totales) pero el numerador y el denominador no se determinan simplemente contando. Los p de la información son (conteo de símbolos distintos)/(símbolos totales) para una fuente dada. Y sin embargo, ambos requieren el mismo número de bits (preguntas de sí/no) para identificar el microestado exacto (después de aplicar la conversión kb*ln(2)).

Pero hay un problema que se mencionó en los comentarios a su respuesta. En un sistema de información necesitamos que los bits sean fiables. Nunca podemos tener una fiabilidad del 100% debido a las fluctuaciones térmicas. En este límite de 1 bit = kb*ln(2) tenemos una probabilidad del 49.9999% de que un bit particular no esté en el estado que esperábamos. El límite de Landauer es definitivamente un límite. La energía requerida para romper un enlace que mantiene uno de estos bits en un sistema de memoria potencial es "ligeramente inferior" (en realidad igual) a la energía cinética promedio de las agitaciones térmicas. El límite de Landauer asume que la energía requerida para romper nuestro enlace de memoria es E=T*kb*ln(2) que es ligeramente más débil que un enlace de van der Waals que es aproximadamente la cosa más débil que se puede llamar un "enlace" en presencia de agitaciones térmicas.

Así que debemos decidir qué nivel de fiabilidad deseamos en nuestros bits. El uso del límite del agujero negro también parece agregar un problema de "accesibilidad". Es el contenido de información del sistema, pero no es un sistema de almacenamiento de información.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X