10 votos

¿La cantidad de entropía es subjetiva?

De todas las fuentes que he visto se deduce que la prueba de que no se puede disminuir la cantidad de entropía en el Universo se da sólo estadísticamente - el orden es sólo una de las muchas formas en que las cosas pueden ser (con la excepción de sólo la entropía de la energía/temperatura, eso está claro). Esa es mi primera pregunta, ¿es válida la regla de que la entropía siempre aumenta para algo más (que para la entropía definida como una cantidad de equilibrio de energía en el Universo? La única salida es, creo, definir la información como una cantidad física. Entonces sabríamos cuánto aumenta la entropía.

Subset paradox

He leído esta respuesta que define la información como un número (mínimo) de preguntas SÍ/NO que hay que hacer para especificar perfectamente el objeto que lleva la información. Pero esto significaría que todo (incluyendo cada subconjunto o superconjunto, lo cual es imposible, cómo muestra la imagen) lleva la misma cantidad de información - por ejemplo, si las únicas cantidades físicas describibles fueran la posición y el peso, mi pregunta para todo podría ser: "¿Es cierto que está ahí y que pesa eso?" Ahora, consideremos un sistema cerrado formado sólo por tres partículas.

También siguiendo esta definición de información sería subjetivo lo que tiene más entropía - si ordeno alfabéticamente mis libros ¿he aumentado más entropía por el cambio en el equilibrio de energía en la habitación?

Entonces, ¿cómo definir correctamente la información? (Por cierto, esto me ha dejado boquiabierto: si el sistema no tuviera espín, polarización o desequilibrio local (el electrón tiene topo en un lado) no tendría ni idea de cómo describir su posición en el universo vacío de otra manera que no fuera: Está aquí).

16voto

Travis Puntos 165

La entropía es subjetiva en el sentido de que puedes elegir qué observables macroscópicos te interesan (normalmente, por ejemplo, te interesan cosas como la temperatura, la presión, etc.). Una vez definidos los observables macroscópicos, la entropía se define como el logaritmo del número de posibles microestados que dan lugar a esos observables macroscópicos. Si defines tus observables "macroscópicos" como la posición y el momento de cada partícula de tu sistema (ignora, por el momento, el hecho de que la mecánica cuántica dice que es imposible observar ambos al mismo tiempo), entonces la entropía es cero. Si incluyes la mecánica cuántica, entonces hay incertidumbre inherente sobre la trayectoria a través del espacio de Hilbert de ti y del sistema que te interesa, por lo que la entropía de cualquier sistema que te interese nunca puede ser cero, independientemente de cómo definas tus observables "macroscópicos".

Así que para responder a tu pregunta sobre la reorganización de tus libros: si el único observable macroscópico que te importa es si tus libros están o no ordenados alfabéticamente, entonces la entropía definida en términos de ese observable macroscópico disminuiría ligeramente cuando ordenaras tus libros, aunque sólo disminuiría en una cantidad absurdamente pequeña porque la mayor parte de la entropía de tu sistema de libros proviene de los microestados de las moléculas en los propios libros, y no de las posiciones de los libros. Además, la definición de un observable macroscópico tan arbitrario sólo sería útil para tu caso particular y no se generalizaría a otros sistemas de interés, lo que anula todo el propósito de desarrollar ecuaciones físicas que puedan producir predicciones repetibles en muchos sistemas de interés diferentes.

5voto

Jane Sales Puntos 10895

Tienes algunas ideas confusas aquí, lo cual es bastante normal, porque es un tema confuso que a menudo no se describe muy bien. En lugar de abordarlas todas específicamente, responderé a la pregunta central:

La entropía es objetiva.

Es cierto que hay que especificar exactamente qué grados de libertad entran y salen de su sistema para decir cuál es la entropía. Sin embargo, esto es cierto para cualquier otra propiedad física, como la energía, también, por lo que la entropía es tan objetiva como cualquier otra cantidad física.

Como soy físico hablaré de partículas, pero todo lo que digo se puede adaptar a las cartas o al sistema que se quiera.

Es bastante obvio que la energía de un sistema depende de cómo se defina el sistema. Por ejemplo, añadir partículas al sistema aumenta la cantidad total de energía que se mide. De forma menos obvia, puedes elegir incluir o excluir ciertos grados de libertad dentro de cada partícula. Por ejemplo, cada partícula con masa tiene una energía asociada dada por $E=mc^2$ pero si uno no lo sabe o no quiere preocuparse por ello puede considerar sólo la energía cinética de las partículas e ignorar este grado de libertad.

La entropía es muy parecida*. Una vez que se especifica exactamente qué partículas y qué grados de libertad dentro de cada partícula se está siguiendo, se especifica de forma única. La elección de hacer preguntas más o menos precisas -como preguntar exactamente dónde se encuentra una partícula en una botella, en lugar de sólo preguntar si está en el lado izquierdo o derecho- equivale a ignorar más o menos (o posiblemente cero) grados de libertad.

Hay dos diferencias importantes entre la entropía y la energía que debo señalar.

La primera es que si se incluyen todos los grados de libertad de un sistema aislado, la entropía que se calcula es siempre cero**. Dado que la entropía es algo parecido a la incertidumbre, esto es una afirmación de que se tiene toda la información posible sobre el sistema. Una vez que empiezas a dejar partes fuera, la entropía se vuelve mayor que cero.

La segunda es que, a grandes rasgos, en la práctica se pueden ignorar muchos grados de libertad y seguir contando la misma energía total, mientras que la entropía es mucho más sensible a esto. Esto se debe a que la entropía es sensible a las correlaciones entre partículas, mientras que la energía no lo es. Esta es una forma de describir el fenómeno del entrelazamiento cuántico.

Véase también mi respuesta a una pregunta relacionada, ligeramente más técnica: ¿Qué es la entropía de un estado puro?

*Calificación técnica 1: Tendré en cuenta la entropía de Von Neumann, definida como $S=tr(\rho \log (\rho))$ con $\rho$ como la matriz de densidad del sistema. Sin embargo, creo que mis afirmaciones se aplican a cualquier otra definición convencional de entropía en un contexto de física.

**Calificación técnica 2: sólo si el sistema comenzó en un estado cuántico puro.

Edición (15/07/15): Dado que se trata de una afirmación claramente controvertida, daré un ejemplo de juguete, a un nivel técnico superior al de mi respuesta principal. Compararé dos sistemas de ejemplo en los que se trazan los grados de libertad.

En primer lugar, un ejemplo de curso de granulado en posición. Digamos que tengo una partícula que puede estar en una de cuatro posiciones en una caja:

__________________ | | | | A1 | B1 | | | | | A2 | B2 | |________|________|

Hay lados A y B, y dentro de cada lado hay dos sitios.

El estado inicial es: $\rho=\frac{1}{\sqrt{2}}(|A1\rangle + |B2\rangle)\otimes \frac{1}{\sqrt{2}}(\langle A1| + \langle B2|) $

O en forma de matriz: $\rho=\frac{1}{2}\left[ \begin{array}{cccc} 1&0&0&1 \\ 0&0&0&0 \\ 0&0&0&0 \\ 1&0&0&1 \end{array} \right]$

Las columnas y filas de esta matriz están etiquetadas como $|A1\rangle,|A2\rangle,|B1\rangle,|B2\rangle$ . La entropía de esta matriz, como la de cualquier estado puro, es 0.

Ahora, digamos que sólo nos interesa saber si la partícula se encuentra en el lado A o en el B. Nos basta con trazar el grado de libertad extra:

$\rho_{red}=\langle 1|\rho|1\rangle+ \langle 2|\rho|2\rangle$ o $\rho_{red}=\frac{1}{2}\left[ \begin{array}{cc} 1&0 \\ 0&1 \end{array} \right]$ .

Las columnas y filas de esta matriz están etiquetadas como $|A\rangle,|B\rangle$ .

Esta es ahora una matriz de densidad reducida para sólo el grado de libertad A/B. Como empezamos con un estado enredado, la entropía también es ahora distinta de cero.

Ahora pasaré a un sistema aparentemente no relacionado, de dos átomos de espín 1/2. El estado inicial es:

$\rho=\frac{1}{\sqrt{2}}(|\uparrow_1 \uparrow_2 \rangle + |\downarrow_1 \downarrow_2\rangle)\otimes \frac{1}{\sqrt{2}}(\langle \uparrow_1 \uparrow_2 | + \langle \downarrow_1 \downarrow_2|) $

O en forma de matriz: $\rho=\frac{1}{2}\left[ \begin{array}{cccc} 1&0&0&1 \\ 0&0&0&0 \\ 0&0&0&0 \\ 1&0&0&1 \end{array} \right]$

Las columnas y filas de esta matriz están etiquetadas como $|\uparrow_1 \uparrow_2 \rangle,|\uparrow_1 \downarrow_2 \rangle,|\downarrow_1 \uparrow_2 \rangle,|\downarrow_1 \downarrow_2 \rangle$ . Volvemos a empezar con un estado puro de entropía cero.

Ahora digamos que queremos considerar sólo una de las partículas. Debemos trazar el grado de libertad asociado a la otra partícula. Pero esto pasa exactamente por analogía con el ejemplo anterior, y terminamos con

$\rho_{red}=\frac{1}{2}\left[ \begin{array}{cc} 1&0 \\ 0&1 \end{array} \right]$ .

Las columnas y filas de esta matriz están etiquetadas como $|\uparrow_1\rangle,|\downarrow_1\rangle$ . A nivel de la estructura de estado de estos dos sistemas (que es lo único que determina la entropía), el mapeo entre ellos es exacto, y la entropía del sistema reducido vuelve a ser distinta de cero.

Con todo este montaje, mi punto es simple. En mi segundo ejemplo, me sorprendería mucho que alguien afirmara que la entropía es arbitraria. Se obtienen dos resultados diferentes para la entropía haciendo dos preguntas diferentes: cuál es la entropía de una partícula frente a cuál es la entropía del sistema completo de dos partículas. El hecho de que tengan respuestas diferentes no es más profundo que el hecho de que se obtengan respuestas diferentes si se pregunta cuál es la energía de una partícula frente a la energía de dos.

Pero exactamente la misma afirmación se aplica al primer sistema. En ese caso, el grado de libertad que has desechado no está asociado a una sola partícula, pero sigue siendo cierto que sólo obtendrías respuestas diferentes para la entropía si te hicieras preguntas diferentes, y en particular si te preguntaras por diferentes partes del sistema total. No hay ninguna buena razón para privilegiar los grados de libertad que se encuentran en las partículas individuales sobre los que no. Dado que el único aspecto "subjetivo" de la entropía es el hecho trivial de que hay que elegir precisamente aquello de lo que se quiere conocer la entropía, debería considerarse tan objetiva como cualquier otra propiedad física.

4voto

hyportnex Puntos 1549

Sólo quiero ampliar lo que @Travis dijo y permítanme citar "Jaynes: Gibbs vs Boltzmann Entropías" que acredita Wigner para este concepto de la naturaleza "ANTHROPOMORPHIC" de la entropía

"...Después de la insistencia anterior en que cualquier demostración de la segunda ley debe implicar la entropía medida experimentalmente, puede resultar chocante darse cuenta de que, sin embargo, la termodinámica no conoce ninguna noción como la "entropía de un sistema físico". La termodinámica sí tiene el concepto de entropía de un sistema termodinámico; pero un sistema físico dado corresponde a muchos sistemas termodinámicos diferentes...... Por ejemplo, los ingenieros tienen sus "tablas de vapor", que dan valores medidos de la entropía del vapor sobrecalentado a diversas temperaturas y presiones. Pero la molécula de H20 tiene un gran momento dipolar eléctrico, por lo que la entropía del vapor depende en gran medida de la intensidad del campo eléctrico presente. Siempre debe entenderse implícitamente (porque nunca se dice explícitamente) que este grado de libertad termodinámico adicional no fue manipulado durante los experimentos en los que se basan las tablas de vapor, lo que significa, en este caso, que el campo eléctrico no fue variado inadvertidamente de una medición a otra. El reconocimiento de que la "entropía de un sistema físico" no tiene sentido sin más calificaciones es importante para aclarar muchas cuestiones relacionadas con la irreversibilidad y la segunda ley. Por ejemplo, me han preguntado varias veces si, en mi opinión, un sistema biológico, digamos un gato, que convierte la comida inanimada en una estructura y un comportamiento altamente organizados, representa una violación de la segunda ley. La respuesta que siempre doy es que, hasta que no especifiquemos el conjunto de parámetros que definen el estado termodinámico estado termodinámico del gato, no se ha planteado ninguna pregunta definitiva".

1voto

Ahmad Puntos 222

Sólo tengo un pequeño comentario que hacer sobre este tema. Creo que en lugar de utilizar la palabra "subjetiva" sería más exacto decir que la entropía es arbitraria, en el sentido de que, el valor de la entropía para su sistema depende de las variables que se utilicen para describir su macroestado, pero una vez hecha la elección, entonces la entropía está determinada por las fuerzas objetivas con las que se está tratando. Dado que la entropía se basa en el número de microestados de un sistema, que son a su vez un reflejo de nuestra ignorancia sobre un sistema, el valor de la entropía cambiará en función de cuánto sepamos (o decidamos ignorar) sobre un determinado sistema. Si dos personas están de acuerdo en describir un sistema con el mismo conjunto de variables, entonces también deberían estar de acuerdo en el valor de la entropía. Si una tercera persona describiera el sistema con un conjunto diferente de variables, entonces la entropía será diferente a la que encontraron las dos personas anteriores. Esta es una afirmación no sobre el sistema en sí, sino sobre el nivel de ignorancia elegido entre los dos montajes. Dicho esto, si usted reorganiza su estantería de libros, y no cambia el conjunto de variables que está utilizando para describir sus libros, no se gana ni se pierde ninguna información nueva, por lo que no debería afectar a la entropía.

0voto

P Androidson Puntos 16

La entropía de Von Neumann es la cantidad de información que falta para un sistema desde el resto del Universo

La entropía termodinámica es la cantidad de información que falta sobre un sistema porque los aparatos de medida macroscópicos sólo miden las magnitudes macroscópicas y el resto de las termodinámicas del sistema (es la Entropía de Von Neumann) del aparato de medida, considerando como aparato de medida el sistema sólo caracterizado por las variables que realmente son medidas del sistema termodinámico observado Esto último es subjetivo hasta que se especifican las variables concretas que se miden

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X