Processing math: 100%

56 votos

¿Depende la entropía del observador?

La entropía tal como se explica en este sitio es invariante de Lorentz. Pero, podemos definirla como una medida de la información oculta para un observador en un sistema físico.

¿En ese sentido, la entropía es una cantidad relativa que depende de la capacidad de cálculo, medición y almacenamiento del observador?

5 votos

La entropía mide el número de microestados que corresponden a algún conjunto de parámetros de orden (no necesariamente macroscópicos). Si dos observadores están de acuerdo en qué son los parámetros de orden, entonces también deben estar de acuerdo en la entropía. Por lo tanto, la pregunta es si los parámetros de orden relevantes (por ejemplo, N, V, T para la entropía termodinámica canónica) son invariantes.

0 votos

@lemon ¿Por qué no necesariamente macroscópico? Pensé que el orden macroscópico era necesario

0 votos

@limón Si la longitud no es invariante, ¿significa que el volumen tampoco lo es? ¿Existe algo llamado entropía relativista?

64voto

llazzaro Puntos 301

E.T. Jaynes está de acuerdo contigo, y afortunadamente es un buen tipo para tener de tu lado:

A partir de esto vemos que la entropía es un concepto antropomórfico, no solo en el conocido sentido estadístico de que mide el grado de ignorancia humana sobre el microestado. Incluso a nivel puramente fenomenológico, la entropía es un concepto antropomórfico. Porque es una propiedad, no del sistema físico, sino de los experimentos particulares que tú o yo elijamos realizar sobre él.

Esta es una cita de su breve artículo Entropías de Gibbs vs. Boltzmann'' (1965), que es un gran artículo sobre el concepto de entropía en general, pero para esta discusión en específico puedes recurrir a la sección VI. La naturaleza "antropomórfica" de la entropía. No intentaré parafrasearlo aquí, porque creo que él ya se describió de manera sucinta y clara allí. (Nota: es solo una página).

Estaba tratando de encontrar otro artículo suyo, pero no pude localizarlo en este momento. [EDIT: gracias a Nathaniel por encontrarlo]. Allí dio un buen ejemplo que puedo intentar parafrasear aquí:

Imagina tener una caja que está dividida en dos secciones igualmente grandes. Supongamos que cada mitad tiene el mismo número de bolas, y todas te parecen de un gris opaco, todas rebotando a la misma velocidad. Si ahora quitas la partición, en realidad no ves que pase mucho. De hecho: si vuelves a insertar la partición, prácticamente parece el mismo sistema con el que empezaste. Dirías: no ha habido un aumento de entropía.

Sin embargo, imagina que resulta que eras daltónico, y un amigo tuyo realmente podía ver que en la situación original, la mitad izquierda de la caja tenía solo bolas azules, y la mitad derecha solo bolas rojas. Al quitar la partición, vería los colores mezclarse irreversiblemente. Al volver a insertar la partición, el sistema ciertamente no vuelve a su configuración original. Él diría que la entropía ha aumentado. (De hecho, contaría un log2 por cada bola).

¿Quién tiene razón? ¿La entropía aumentó o no? Ambos tienen razón. Como Jaynes argumenta elegantemente en la referencia anterior, la entropía no es una propiedad mecánica, es solo una propiedad termodinámica. Y un sistema mecánico dado puede tener muchas descripciones termodinámicas diferentes. Estas dependen de lo que uno puede --o elige-- medir. De hecho: si vives en un universo donde no hay personas y/o máquinas que puedan distinguir entre rojo y azul, realmente no tendría sentido decir que la entropía ha aumentado en el proceso anterior. Además, supongamos que eras daltónico, llegas a la conclusión de que la entropía no aumentó, y luego alguien llega con una máquina que puede distinguir entre rojo y azul, entonces esta persona podría extraer trabajo de la configuración inicial, que tú pensabas que tenía entropía máxima, y por lo tanto concluirías que esta máquina puede extraer trabajo de un sistema de entropía máxima, violando la segunda ley. La conclusión sería simplemente que tu suposición era incorrecta: en tu cálculo de la entropía, presumiste que no importa lo que hicieras no podías distinguir entre rojo y azul a nivel macroscópico. Esta máquina entonces violó tu suposición. Por lo tanto, usar la entropía 'correcta' es un asunto de contexto, y depende de qué tipo de operaciones puedas realizar. No hay nada problemático en esto. De hecho, es el único enfoque coherente.

0voto

Tomáš Tibenský Puntos 121

Creo que la definición de Entropía de Shannon-von Neumann resuelve este paradoja antropocéntrica al establecer la cantidad mínima de información que no puede intercambiarse de forma reversible entre dos estados del mismo sistema, sin importar si hay un acuerdo o incluso la presencia de observadores. De esta manera, la Entropía es en realidad una característica física y no un artefacto del observador, además establece una dirección única para el flujo de información, por lo tanto, causalidad, flujo del tiempo, etc.

Sé que simplemente estoy poniendo postulados en contra unos de otros y no estoy en posición de establecer o insinuar la corrección de uno u otro, pero prefiero mantener mi comprensión de la física dentro de los límites de la verificación experimental.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X