10 votos

¿Existe una definición cuatridimensional de la entropía?

Parece impar que la entropía suele definirse sólo para un sistema en una única "porción" de tiempo o región espacial. ¿Se puede definir la entropía de un sistema definido por una región 4d del espaciotiempo, de forma que se obtenga una definición de codimensión uno que coincida con la habitual cuando la rebanada de codimensión uno es espacial?

9 votos

Tal vez me estoy perdiendo algo, pero no veo cómo $S=k\ln\Omega$ requiere una dimensión espacial.

0 votos

Intercambiar coordenadas temporales y espaciales, aunque parezca trivial, es algo muy peligroso. Las EDP hiperbólicas se convierten en elípticas, por un lado. Por otro lado, la propiedad clave de la Entropía, su naturaleza no decreciente, queda invalidada al aumentar en dirección espacial. Sin embargo, la gente que estudia la termodinámica de los agujeros negros ha avanzado utilizando el "tiempo afín nulo" para definir la entropía.

0 votos

@Jerry: el matemático que hay en mí está de acuerdo pero el físico dice "¿a quién le importa?". No me he encontrado con ningún área de la física en la que el uso de la rotación de Wick cause algún problema. En particular, la relación entre la función característica y la función generadora de momentos y entre el proceso de Wiener y la integral de trayectoria.

7voto

Blorgbeard Puntos 38991

Supongo que está pensando en la definición de entropía de Boltzmann.

En la definición de Boltzmann, la entropía no es más que el logaritmo de la cantidad de estados posibles asociados a determinadas variables macroscópicas. En su generalidad, por tanto, no me parece que excluya la posibilidad de contar estados con diferentes coordenadas temporales. O, en su contexto más general, en diferentes cortes de tiempo. La cuestión es: ¿a qué corresponde esto? ¿Tiene sentido hacerlo? Tendrías que especificar la evolución temporal de las variables macroscópicas y contar el número de trayectorias microscópicas compatibles con esas trayectorias macroscópicas.

De hecho, existen las llamadas entropías dinámicas. En un sentido heurístico, lo que hacen es contar la densidad de las trayectorias del espacio de fase de un sistema, mientras que la entropía de Boltzmann sólo cuenta la cantidad de estados accesibles bajo ciertas restricciones macroscópicas.

http://en.wikipedia.org/wiki/Kolmogorov%E2%80%93Sinai_entropy#Measure-theoretic_entropy

4voto

Niyaz Puntos 16307

Hasta donde se sabe, la entropía funciona en sistemas con dinámica hamiltoniana, es decir, cuando existe una dependencia explícita del tiempo.

En la mecánica clásica (donde la posición y el momento dependen del tiempo), existe la entropía de Boltzmann $S = k_b \ln \Omega$ ( $\Omega$ - número" de estados).

En la mecánica cuántica (no relativista) (donde la función de onda depende del tiempo), existe la Entropía de von Neumann $S = -k_b \langle \rho \ln \rho \rangle $ ( $\rho$ - matriz de densidad).

Aunque en general hay una cantidad teórica de información, la entropía de Shannon $S = \sum_i p_i \ln p_i$ ( $p_i$ son las probabilidades de que el sistema esté en el $i$ -estado). Tal vez en la Teoría Cuántica de Campos exista algún tipo de entropía en 4 dimensiones, pero no estoy seguro. En cualquier caso, la propiedad fundamental "la entropía es una función no decreciente del tiempo" sólo tiene sentido si $S$ es una función del tiempo.

Para un debate más amplio, véase el gran artículo de revisión/didáctico:

2 votos

Para aclarar, $\Omega$ es el número de microestados o la multiplicidad.

3voto

Jon Galloway Puntos 320

¿Te refieres al vector 4 de densidad de flujo de entropía, y a su divergencia 4, junto con sus proyecciones sobre el plano ortogonal al transporte de energía? Véase, por ejemplo http://articles.adsabs.harvard.edu/cgi-bin/nph-iarticle_query?bibcode=1989A%26A...211..476O&db_key=AST&page_ind=0&data_type=GIF&type=SCREEN_VIEW&classic=YES

0voto

Anthony Cramp Puntos 126

Consulte la página wiki de Entropía del agujero negro . Si recuerdo correctamente de mi curso de RG, el área de una determinada hipersuperficie siempre aumenta en una dirección del tiempo.

1 votos

Vale, esta respuesta plantea una pregunta (y la voy a hacer, porque me molesta desde hace tiempo). A saber, que asume la conservación de la energía (para proponer la primera ley). Por lo tanto también asume que el espacio-tiempo es estacionario (como en todas las soluciones básicas de BH). Pero entonces la definición de entropía es claramente tridimensional: se elige un trozo de tiempo y se trabaja allí para siempre.

0voto

MRA Puntos 546

Pues bien, si se conoce la entropía en el conjunto microcanónico, entonces se puede encontrar la energía interna. Pero ya sabemos que la energía de un sistema depende del marco de referencia en el que se observa. Por lo tanto, es más apropiado pensar en la entropía en los mismos términos en los que se piensa en la energía: el componente 0 de un cuatro-vector, en lugar de un 4-escalar.

0 votos

¿Qué? ¿Así que crees que la cantidad de información en el sistema depende de la velocidad a la que se mueve con respecto a ti? Yo digo que esto es una tontería. Además, ¿cuáles serían los otros tres componentes del cuatro vector de entropía?

0 votos

La cantidad sería la densidad de entropía (o entropía por nucleón) y las tres componentes del cuatro vector serían el flujo de densidad de entropía en el fluido. Es realmente difícil dar sentido a la Primera Ley si no se generaliza la entropía de esa manera.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X