Tu pregunta es excelente y creo que su enfoque es en el clavo.
La contradicción se señalan surge en parte de las sutiles diferencias entre los diferentes Entropías Condicionales (Condicional Informaciones) en juego en este debate.
Dejando a un lado los Universos por el momento, vamos a comenzar a pensar acerca de un verdadero sistema aislado termodinámicamente. Si ese sistema es determinista, entonces, como usted dice, siempre uno puede calcular su estado en cualquier momento dado una especificación completa de los inicios del estado. La mayoría de los sin pérdida comprimido descripción de los sistemas posibles, a continuación, mide la cantidad de "información" en el sistema como el test de Kolmogorov Complejidad relativa al lenguaje que se utiliza para definir el algoritmo de compresión en ser consciente de que una medida absoluta de la información no es definible en estos términos, sólo en relación a un determinado idioma, pero debo pensar que aprecian este hecho.
Como señalan acertadamente, esta medida de la información hace que no cambian con el tiempo: se especifica de una vez por todas la historia del sistema
Si hay $\Omega$ posible microstates en algún momento, y si podemos asumir el Ergodic Hipótesis de que todos son igualmente probables, entonces esta información mínima en bits es $\log_2\Omega + \Delta$: el cual consta de $\log_2\Omega$ bits para escribir el número entero $1,\,2,\,\cdots,\,\Omega$ nomenclatura que microestado del sistema y una longitud fija "prólogo" o "header" que describe cómo decodificar el número entero en el pertinente microestado. Como $\Omega$ obtiene poderosamente grande, $\log_2\Omega$ abruma $\Delta$ y así podemos hacer que el error de proporción en el espacio de almacenamiento necesario para definir el microestado arbitrariamente pequeño mirando más y más grandes sistemas y tan a menudo nos olvidamos de $\Delta$. Esto justifica que algo descuidado declaración de que el almacenamiento de las personas a menudo citan simplemente es $\log_2\Omega$ bits.
Pero $\log_2\Omega$ no es el mismo que el de la termodinámica la entropía, la cual es definida enteramente en términos de macroscópicas de las variables de estado, tales como la temperatura, la presión, el volumen, los lunares de este reactivo químico aquí y moles de reactivo allí y así sucesivamente. Este es el Condicional de la Entropía (Condicional Informaciones): la entropía condicionada a que el conocimiento de estas macrostate parámetros. No todos los estados posibles de un sistema aislado son consistentes con ciertas macrostate observaciones, por lo que el número de estados que el sistema podría ser en si sabemos de su macrostate es en general menor que $\Omega$, y así, el sistema de la termodinámica la entropía es en general menor que $\log_2\Omega$ y por otra parte, este condicional entropía puede cambiar con el tiempo a medida que el sistema del microestado evoluciona.
Ahora se puede demostrar, a partir de las leyes de los grandes números solos, que para que un sistema de $N$ estadísticamente independientes de partículas, el número de bits por partícula $\frac{1}{N} \log_2 \Omega$ necesaria para especificar la partícula del microestado es arbitrariamente cerca de la entropía de Shannon por partícula de el a priori de la probabilidad máxima de microestado, con las dos cantidades iguales en el límite de $N\to\infty$. Lo que esto significa es que en cualquier gran sistema de partículas que hay estados que se ven casi exactamente como máximo a priori de la probabilidad de los estados y no hay casi nada más. Microstates que son significativamente diferentes de los de máxima verosimilitud que hacer, por supuesto, existen, pero forman una fantástica pequeña proporción del total, de modo que si el sistema por cualquier razón se encuentra en uno de estos raro estados, cualquier evolución del sistema, es casi seguro que llevarlo más cerca de la máxima verosimilitud. Estas inusuales de los estados podría ser extremadamente simple para especificar: nuestra $\log_2\Omega$ bits en la memoria de la computadora de conjunto de todas las nadas, por ejemplo, o una bolita de 1 mol de nativos de sodio en un cubo de agua, por lo que sus condicional de la información - su termodinámica la entropía será muy pequeño. Pero el sistema, por las leyes de los grandes números, debe, en cualquier evolución, casi seguro que el aumento de la entropía condicional simplemente porque el de máxima verosimilitud de los estados son la inmensa mayoría de todos los microstates.
Este es un boceto de una prueba de una forma débil de la segunda ley de la termodinámica que un sistema aislado de la termodinámica la entropía aumenta con el tiempo, mientras que su incondicional de la entropía, $\log_2\Omega$ no.
Para leer más acerca de estas ideas, véase mi respuesta a la Física que SE pregunta "¿por Qué las leyes de la termodinámica "suprema entre las leyes de la Naturaleza"?"
En el nivel de los universos, aunque, yo no soy un cosmólogo, así que no sé con certeza lo que la opinión general es como si el Universo está aislado (en el sentido termodinámico) o no, si es infinito o finito, lo que a su topología global y así por el estilo. Pero si el universo es realmente un sistema aislado y si, como muchos físicos creen en última instancia, puede ser pensado como una gigantesca evolución de estado cuántico, entonces su estado en cualquier momento se define por una unitaria de la transformación de su estado en cualquier otro momento. "El Mundo no se olvida de su historia". Así que las mismas ideas, como anteriormente se aplican. Acabamos de hacer la observación experimental de que, de alguna manera (y esto de alguna manera es todo un misterio para la cosmología moderna, el Universo se encontraba en un exquisito baja de la termodinámica la entropía en el big bang y, a través de su estado unitario evolución, se ha estado moviendo más y más lejos de ese estado desde siempre.
Algunas de las referencias que usted puede encontrar útil e interesante son los siguientes.
E. T. Jaynes, "la Teoría de la Información y de la Mecánica Estadística", Phys. Apo. 106, número 4, pp 620-630, 1965
E. T. Jaynes, "Gibbs vs Boltzmann Entropías", Am. J. Phys. 33, número 5, pp 391-398, 1965 , así como muchos otros de sus trabajos en este campo
La entropía de Gibbs es invariante para un sistema aislado, la entropía de Boltzmann es el que se define a partir de los medidos experimentalmente macrostate variables.