23 votos

¿Puede una sola partícula clásica tener entropía?

Recientemente he tenido algunos intercambios con @Marek con respecto a la entropía de una sola partícula clásica.

Siempre he creído que para definir la entropía hay que tener alguna distribución. En la teoría cuántica, una sola partícula puede tener entropía y puedo entenderlo fácilmente. Pero nunca supe que la entropía de una sola partícula clásica rígida sea un concepto bien definido como afirmaba Marek. Sigo sin entenderlo. Uno puede decir que en el límite clásico, la entropía de una partícula en QT puede ser definida y que corresponde a la entropía de una sola partícula clásica. Pero me cuesta aceptar que eso dé la entropía de una sola partícula newtoniana. A mi entender, si un sistema tiene entropía entonces también debe tener alguna temperatura. No entiendo cómo se puede asignar alguna temperatura a una sola partícula clásica. Me encontré con un documento en el que hay una noción de "entropía microscópica" . De ninguna manera, en mi limitada comprensión, correspondía al concepto normal de entropía. Tengo curiosidad por saber cuál es la respuesta correcta.

Entonces, mi pregunta es, ¿es posible definir la entropía de una sola partícula clásica?

18voto

jwjacobs88 Puntos 41

En primer lugar hay que distinguir entre dos cosas que se llaman entropías. Hay una entropía microscópica, también llamada Entropía de Shannon, que es una función sobre las posibles distribuciones de probabilidad que se pueden asignar para un sistema dado:

$\displaystyle H[p] = -\sum_{x \in \mathcal{X}}\; p(x) \log(p(x))$

donde $\mathcal{X}$ es el conjunto donde su variable x toma valores. Y hay una "entropía macroscópica", que no es más que el valor del funcional anterior calculado para una familia específica de distribuciones parametrizadas por alguna variable $\theta$ :

$S(\theta)=-\sum_{x \in \mathcal{X}}\; p(x|\theta) \log(p(x|\theta))$

Ahora bien, lo que ocurre en la termodinámica y en la física estadística del equilibrio es que tienes una familia específica de distribuciones para sustituir en la primera expresión: la distribución de equilibrio de Gibbs:

$p(x | V, T, N) = \frac{1}{Z}e^{-\frac{E(x)}{T}}$

donde, como ejemplo, tenemos como parámetros el volumen, la temperatura y el número de partículas, y E(x) es la energía de la configuración específica x. Si se sustituye esta familia específica de distribuciones en $H[p]$ Lo que tendrás es la entropía de equilibrio termodinámico, y esto es lo que los físicos suelen llamar entropía: una función de estado que depende de los parámetros de la distribución de Gibbs (a diferencia de una funcional que asocia un valor real para cada posible elección de distribuciones). Ahora, para encontrar cuál es el equilibrio físico apropiado para este sistema cuando se permite que esos parámetros varíen, hay que maximizar esta entropía (1).

Ahora bien, aquí es común hacer la siguiente distinción: x es una variable microscópica que especifica la configuración detallada del sistema, y V, T y N son parámetros macroscópicos. No es necesario que sea así. En el caso concreto de la física estadística, el origen de la función de distribución es el hecho de que hay tantos grados de libertad que es imposible (e incluso indeseable) seguirlos todos, por lo que nos conformamos con una descripción estadística. Bajo estos supuestos es natural esperar que la distribución sea sobre variables microscópicas con parámetros macroscópicos. Pero ésta no es la única razón por la que se utiliza una función de distribución.

Podrías tener otras fuentes de ignorancia. Por ejemplo, podríamos tener el siguiente problema: supongamos que hemos descubierto recientemente un nuevo planeta en un sistema solar en el que hay dos planetas más. Su posición $\vec{x}$ y la velocidad $\vec{v}$ en un instante determinado $t = 0$ se han medido con cierta precisión $\sigma_x$ y $\sigma_v$ . Supongamos que las fuentes de posibles errores en las medidas son aditivas. Entonces es razonable suponer que tenemos una distribución de probabilidad gaussiana para la posición del planeta:

$\displaystyle p(\vec{x}(0), \vec{v}(0) | \sigma_x, \sigma_v) =\frac{1}{Z} \exp\left(-\frac{x(0)^2}{2\sigma_x} -\frac{v(0)^2}{2\sigma_v} \right)$

donde Z es alguna constante de normalización. Ahora supongamos que queremos predecir la posición de este planeta en el futuro dadas las posiciones actuales de los otros planetas y sus incertidumbres. Tendríamos una distribución:

$\displaystyle p(\vec{x}(t), \vec{v}(t) | \vec{x}_i(0), \vec{v}_i(0), \sigma_{x,i},\sigma_{v,i})= \displaystyle p(\vec{x}(0), \vec{v}(0) | \sigma_x, \sigma_v)\prod_{i=1}^{2}\displaystyle p(\vec{x}_i(0), \vec{v}_i(0) | \sigma_{x,i}\sigma_{v,i}) \times$ $\times p(\vec{x}(t), \vec{v}(t) | \vec{x}(0), \vec{v}(0),\vec{x}_1(0), \vec{v}_1(0), \vec{x}_2(0), \vec{v}_2(0))$

donde $p(\vec{x}(t), \vec{v}(t) | \vec{x}(0), \vec{v}(0),\vec{x}_1(0), \vec{v}_1(0), \vec{x}_2(0), \vec{v}_2(0))$ tendría en cuenta las ecuaciones de movimiento de Newton. Obsérvese que aquí hay un número reducido de partículas: sólo 3. Y la única fuente de "aleatoriedad" es el hecho de que no conozco las posiciones y velocidades con precisión (por una razón tecnológica, no fundamental: Tengo telescopios limitados, por ejemplo).

Puedo sustituir esta distribución en la definición de entropía y calcular una "entropía macroscópica" que depende de las posiciones, velocidades y precisiones de medición de los otros planetas:

$S(x_i, v_i,\sigma_{x,i},\sigma_{v,i}) = - \int d\vec{x} d\vec{v} p(\vec{x}, \vec{v} | t, \vec{x}_i, \vec{v}_i, \sigma_{x,i},\sigma_{v,i}) \log \left[p(\vec{x}, \vec{v} |\vec{x}_i, \vec{v}_i, \sigma_{x,i},\sigma_{v,i})\right]$

¿Qué significa esta entropía? ¡¡¡Algo bastante parecido a lo que significa la entropía termodinámica!!! ¡¡Es el logaritmo del volumen medio del espacio de configuración donde espero encontrar el planeta dado en el instante t (2)!! Y es la entropía de una "sola partícula".

No hay ningún problema con eso. Incluso puedo tener situaciones en las que debo maximizar esta entropía. Supongamos que no conozco la posición del planeta 2, pero sí sé que los tres planetas tienen órbitas coplanares. Hay procedimientos bien definidos en la teoría de la información y la inferencia que me dicen que una forma de tratar esto es encontrar el valor de $\vec{x}_2$ que maximice la entropía, sujeto a la restricción de que todas las órbitas estén en el mismo plano, y luego sustituir este valor en la distribución original. Esto se suele llamar "principio de máxima ignorancia".

Hay interpretaciones de la termodinámica y de la física estadística como una instancia de este tipo de problema de inferencia (por favor, consulte los trabajos de E. T. Jaynes, daré una lista de referencias más abajo). En esta interpretación no hay nada de especial en el hecho de que se tengan muchos grados de libertad, además de que esto es lo que hace que se ignoren los detalles del sistema. Esta ignorancia es la que pone sobre la mesa las probabilidades, las entropías y los principios de máxima entropía.

Refrasearlo un poco, las probabilidades y entropías forman parte de su descripción cuando la ignorancia se construye en su modelo. Esta ignorancia puede ser fundamental - no puedes saber algo sobre tu sistema; puede ser técnica - podrías saberlo si tuvieras mejores instrumentos; e incluso, como en el caso de la física estadística, deliberada - puedes saberlo, al menos en principio, pero eliges omitir detalles porque no son relevantes en la escala que te interesa. Pero los detalles sobre cómo utilizas las probabilidades, las entropías y los principios de máxima entropía son completamente agnósticos respecto a cuáles son las fuentes de tu ignorancia. Son una herramienta para lidiar con la ignorancia, sin importar las razones por las que eres ignorante.

(1) Para los argumentos de la teoría de la información por los que tenemos que maximizar la entropía en la termodinámica, consulte el famoso libro de E. T. Jaynes "Probability Theory: The Logic of Science" (3) y esta serie de artículos:

Jaynes, E. T., 1957, Teoría de la información y mecánica estadística Phys. Rev., 106, 620

Jaynes, E. T., 1957, Teoría de la Información y Mecánica Estadística II Phys. Rev., 108, 171.

Otra fuente interesante:

Caticha, A., 2008, Conferencias sobre probabilidad, entropía y física estadística arxiv:0808.0012

(2) Esto puede tener un significado riguroso dentro de la teoría de la información. Para cualquier distribución p(x) sea el conjunto $A_\epsilon$ se definirá como el conjunto más pequeño de puntos con probabilidad mayor que $1 - \epsilon$ . Entonces el tamaño de este conjunto debe ser de orden:

$log |A_\epsilon| = S + O(\epsilon)$

Para otra forma de este resultado, véase el libro "Information Theory" de Cover y Thomas.

(3) Algunos de los desplantes de Jaynes sobre la teoría cuántica en este libro pueden parecer impar hoy en día, pero vamos a disculparlo. Él también cometió algunos errores. Solo hay que centrarse en la teoría de la probabilidad, la teoría de la información y la física estadística que es bastante sorprendente :)

(4) Parece que el tratamiento de este tipo de problemas de la Mecánica Celeste fue en realidad uno de los primeros problemas que hicieron que Laplace se interesara por las probabilidades, y al parecer lo utilizó en los cálculos de la Mecánica Celeste. El otro problema que atrajo su atención hacia la teoría de la probabilidad fue... ¡el juego! Jajaja...

5voto

Nick Puntos 583

La entropía es un concepto de la termodinámica y la física estadística, pero su valor sólo es indiscutible si se puede hablar también en términos de termodinámica.

Para hacerlo en física estadística, hay que estar en el límite termodinámico, es decir, el número de grados de libertad debe ser mucho mayor que uno. De hecho, podemos decir que el límite termodinámico requiere que la entropía sea mucho mayor que uno (veces $k_B$ si se insiste en las unidades del SI).

En el límite termodinámico, el concepto de entropía se vuelve independiente de los conjuntos elegidos -microcanónicos o canónicos, etc. - hasta correcciones que son despreciables en relación con la entropía global (cualquiera de ellas).

A una sola partícula, como a cualquier sistema, se le puede asignar la entropía de $\ln(N)$ donde $N$ es el número de estados físicamente distintos pero de facto indistinguibles en los que puede estar la partícula. Así, si la partícula se encuentra en una caja y su función de onda puede escribirse como una combinación de $N$ pequeños paquetes de ondas que ocupan volúmenes adecuadamente grandes, la entropía será $\ln(N)$ .

Sin embargo, el concepto de entropía simplemente no es un concepto de alta precisión para sistemas alejados del límite termodinámico. La entropía no es una función estricta del "estado puro" del sistema; si se quiere ser preciso sobre el valor, también depende del conjunto exacto de los otros microestados que se consideran indistintos.

Si considera sistemas más grandes con $N$ partículas, la entropía suele escalar como $N$ Así que cada partícula contribuye con algo comparable a 1 bit a la entropía, si se divide igualmente la entropía. Sin embargo, para calcular los coeficientes reales, importan todas las interacciones concebibles entre las partículas, etc.

5voto

heathrow Puntos 25

El concepto de entropía es muy difícil debido al siguiente hecho cotidiano: cuando tenemos un sistema mecánico macroscópico, podemos mirar el sistema todo el tiempo y saber exactamente dónde está todo. En tal situación, sabemos lo que hace cada partícula en todo momento, la evolución es determinista, y el concepto de entropía no tiene sentido.

Pero el proceso de mirar las partículas para saber dónde están siempre produce entropía. Adquirir la información sobre las posiciones de las moléculas no puede hacerse de manera que disminuya la entropía de las partículas más los dispositivos de medición. Este es un punto importante, pero se puede demostrar fácilmente a partir del teorema de Liouville. Si se empieza ignorando la posición de una partícula, ésta ocupa un cierto volumen del espacio de fase. La única manera de reducir ese volumen es acoplar las trayectorias de manera que se correlacione la trayectoria de los átomos en un dispositivo de medición con la trayectoria de la partícula. Se puede hacer esto añadiendo un Hamiltoniano de interacción, y esto reducirá el volumen del espacio de fase de la partícula dada la trayectoria del dispositivo de medición, pero el volumen total del espacio de fase se conserva en el proceso, por lo que hay incertidumbre en las trayectorias del dispositivo de medición que compensa con creces la pérdida de incertidumbre en la posición de la partícula.

La conservación del volumen de probabilidad del espacio de fase es contraria a la intuición, porque tenemos la intuición de que mirar clásicamente a las partículas no las perturba. De hecho, si se hace rebotar una radiación EM clásica muy débil de las partículas, se pueden ver sin perturbarlas. Pero esto es porque los campos clásicos no tienen un equilibrio térmico--- y cuando están cerca de cero en todo el espacio, son infinitamente fríos. Así que lo que estás haciendo es volcar la entropía de las partículas en el depósito infinito de temperatura cero que proporciona el campo, y extraer la posición del campo durante este proceso.

Si pones el campo en una red, para evitar la divergencia clásica de Rayleigh-Jeans en el equilibrio térmico, entonces puedes definir un estado térmico para el campo clásico. Si el campo está en este estado térmico, no te da ninguna información sobre las posiciones de las partículas. Si añades un poco de campo no térmico para medir las partículas, la interacción con las partículas vierte el volumen del espacio de fase de la incertidumbre original en las posiciones de las partículas en el campo con una entropía finita por bit adquirido, simplemente por el teorema de Liouville.

La entropía es una cantidad clásica bien definida, incluso para una sola partícula. Cuando no se tiene información sobre la posición de la partícula, pero se conoce su energía, la entropía viene dada por la integral de la teoría de la información de $\rho\log\rho$ . Se puede extraer toda la información que se quiera sobre la partícula midiendo su posición cada vez con más precisión, pero este proceso siempre volcará una cantidad igual de entropía en el dispositivo de medición. Todo esto se deduce del teorema de Liouville.

Esta es la razón por la que la entropía es a menudo confusa. Cuando se habla de entropía, hay que tener en cuenta lo que se sabe del sistema, como en la mecánica cuántica.

1voto

(La pregunta ya ha sido respondida por Lubos, pero tal vez pueda profundizar en el aspecto cuántico).

Con una sola partícula clásica la respuesta, en general, es "no", con algunas excepciones que se comentan al final. Y cuando el número de partículas $n \gt 1$ el concepto de entropía se aclara sólo en el límite en que $ n \gg 1$ o el límite termodinámico (como mencionó Lubos en su respuesta). Sin embargo, con una "partícula" cuántica, la situación es algo diferente.

Consideremos un qubit, un solo espín $1/2$ cuyo estado en un momento dado está especificado por un vector $\vert \psi \rangle$ en un espacio de Hilbert $H$ . Este es el análogo cuántico más simple de una partícula clásica que se puede pensar. A diferencia de la situación clásica, un sistema cuántico de muchos cuerpos puede existir en puro o mixto estados. La especificación anterior del qubit como vector de estado sólo es posible si el estado es puro.

A muchos cuerpos El estado no será, en general, descriptible por un estado en un espacio de Hilbert. Hay que utilizar la noción más general de matriz de densidad para la descripción correcta. Una matriz de densidad general $\rho$ se escribe en términos de los vectores de estado $\vert \psi_s \rangle$ como :

$$ \rho = \sum_s p_s \vert \psi_s \rangle \langle \psi_s \vert $$

donde $p_s$ es la "fracción del conjunto" [ referencia ] en cada estado puro $\vert \psi_s \rangle $ . Por ejemplo, un conjunto de spin- $1/2$ las partículas serían descritas por:

$$ \rho = p_{\uparrow} \vert \psi_{\uparrow} \rangle \langle \psi_{\uparrow} \vert + p_{\downarrow} \vert \psi_{\downarrow} \rangle \langle \psi_{\downarrow} \vert $$

donde $p_{\uparrow}$ ( $p_{\downarrow}$ ) es la fracción de partículas con espín hacia arriba (hacia abajo). Ahora, a primera vista, parece que uno debería poder utilizar esta definición para un solo partículas. Es importante tener en cuenta que aunque se puede a priori asignan probabilidades a los dos estados de una sola partícula, pero experimentalmente estas amplitudes de probabilidad sólo pueden confirmarse repitiendo una medición del espín de la partícula muchas veces. El resultado de una sola medición es un único número que significa en qué estado propio se ha colapsado la partícula debido al proceso de medición. Para obtener una probabilidad hay que sacar la media de muchos de esos números, lo que requiere más de una medición.

En este caso la entropía pierde sentido como medida de la falta de información que tienen los observadores externos sobre un sistema. El "sistema" ya no es un qubit con un estado determinado o una matriz de densidad. En su lugar, es un qubit que ha sufrido repetido ciclos del proceso de medición que consisten en la preparación del estado, la evolución temporal y, finalmente, el colapso a un estado propio.

La cuestión se reduce al hecho de que las amplitudes de probabilidad sólo pueden obtenerse experimentalmente generando un conjunto de observaciones. No se puede asignar una entropía a un sistema único . Un sistema compuesto por un conjunto observacional para los qubits - ya sea con un solo o pocos qubits y muchas mediciones o muchos qubits y pocas mediciones - se puede asignar una entropía.


Material extra La noción clásica de entropía de Gibbs-Shannon puede extenderse a la versión cuántica denominada entropía de von-Neumann:

$$ S_{cl} = -\sum_k p_k \ln(p_k) \Rightarrow S_{qm} = - Tr\left[\rho \ln(\rho)\right] $$


Primera edición @Marek hace algunas observaciones pertinentes en los comentarios, que considero lo suficientemente importantes como para incluirlas en esta edición.

"En contraste con la situación clásica, un sistema cuántico de muchos cuerpos puede existir en estados puros o mixtos." ¿Qué contraste? En la física clásica también es puro (un único punto en el espacio de fase, que es el análogo del espacio de Hilbert en la física clásica) o una mezcla de estados puros que puede describirse mediante una medida en el espacio de fase. Todo es completamente igual.

La diferencia clave radica en el diferente efecto de la medición en un proceso clásico y en uno cuántico. A falta de una descripción unificada de la medición que abarque todos los ámbitos, nos quedan dos nociones de medición. En el caso de la mecánica cuántica existe un error irreducible en cualquier medida. Este no es el caso de un sistema mecánico clásico en el que las mediciones pueden realizarse con una precisión arbitraria. Por supuesto, en una descripción unificada de la medición, un sistema clásico se entendería en términos de sistemas cuánticos de muchos cuerpos sujetos a los efectos de la decoherencia.

"No se puede asignar una entropía a un sistema" por supuesto que se puede asignar una entropía. Que no se pueda medir todo a la vez no significa que no tenga sentido definirla :)

No hablo de "todo", sino sólo del concepto muy definido de "probabilidad". La probabilidad es una noción estadística. No se puede hacer estadística con un solo dato.

Porque si lo hubieras dicho, también podrías tirar por la ventana toda la teoría cuántica, que a fin de cuentas no te permite hablar de nada más que de probabilidades y para esas necesitas también mediciones múltiples...

Pues sí, por supuesto, se necesitan múltiples mediciones para las probabilidades cuánticas. Esa es la esencia de mi argumento.

0voto

d4nt Puntos 4486

Dada una distribución de probabilidad, $$S=-k\sum_i p_i \ln p_i.$$

A menos que la distribución de probabilidad sea de la forma $e^{-\beta \left( H - \mu N \right)}/Z$ o razonablemente cerca de ella, no podemos definir realmente la temperatura de la partícula.

También debo añadir que si la distribución de probabilidad es una función delta de Dirac, la entropía llega a cero (al menos si introducimos un regulador ultravioleta...).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X