58 votos

¿Por qué esperamos que nuestras teorías sean independientes de los límites?

Edición final : Creo que ahora lo entiendo bastante bien (toco madera). Pero hay una cosa que no entiendo. ¿Cuál es la razón física para esperar que las funciones de correlación sean independientes del corte? Es decir, ¿por qué no podemos elegir un "lagrangiano maestro" a la escala de Planck y hacer la integración sólo hasta ese punto?

  • Quizás tenga algo que ver con que los experimentos de baja energía no estén influenciados por la física a escala de Planck.
  • Tal vez sea porque no hay ninguna escala fundamental, es decir, que $\Lambda$ debe ser arbitraria en una aproximación de QFT, por alguna razón.

Adjudicaré la recompensa a quien pueda explicar este último enigma. ¡Salud!

$$***$$

Disculpe si esta pregunta es demasiado filosófica y vaga. He estado pensando en las QFT y en la mecánica del continuo, y he leído sobre su interpretación como teorías efectivas. En estas teorías tenemos cortes naturales en momentos altos (escalas pequeñas). Hacemos la suposición ( $\star$ ) que la física a gran escala está desvinculada de la de pequeña escala. Por lo tanto, esperamos que nuestras predicciones sean independientes del corte (después de alguna renormalización si es necesario).

¿Por qué la suposición ( $\star$ ) tan razonable? Supongo que parece observacionalmente correcto, lo cual es una poderosa evidencia empírica. Pero, ¿no podría ser que la física a pequeña escala tuviera ramificaciones en las observaciones a mayor escala? En otras palabras, ¿sería razonable esperar que las predicciones de una teoría de la Tierra dependieran de algún límite (a escala de Planck)?

Esta pregunta puede ser completamente trivial, o simplemente ridícula. Lo siento si es así. Sólo intento hacerme una idea real del panorama.

Editar : Me gustaría entender esto físicamente desde la perspectiva puramente QFT, sin recurrir a la analogía con la física estadística. Podría ayudar si reformulo mi pregunta de la siguiente manera.

En el tratamiento wilsoniano de la renormalización obtenemos un flujo de Lagrangianos como la escala de energía $\Lambda$ cambios. Para una teoría renormalizable suponemos que hay un Lagrangiano desnudo independiente de $\Lambda$ en el límite $\Lambda \to \infty$ . Calculamos con esta cantidad, dividiéndola en términos físicos y contraterminos. Creo que estos contratemas provienen de mover hacia abajo el flujo del grupo, pero no estoy muy seguro...

Pero por qué nos interesa (y calculamos) el lagrangiano desnudo ¿en lugar de uno a una escala de energía prescrita (alta) (digamos la escala de Planck)? No entiendo realmente el sentido de que exista una $\Lambda\to \infty$ límite.

43voto

Eric Drechsel Puntos 111

Se trata de una cuestión muy interesante que suele pasarse por alto. En primer lugar, decir que "la física de gran escala está desacoplada de la de pequeña escala" es algo engañoso, ya que, efectivamente, el grupo de renormalización (RG) [en el sentido wilsoniano, el único que utilizaré] nos dice cómo relacionar la pequeña escala con la gran escala. Pero normalmente lo que la gente quiere decir con esto es que si existe un punto fijo en el flujo del RG, entonces cierta física infrarroja (IR) [a gran escala] es independiente de los detalles a pequeña escala [ultravioleta (UV)], es decir, es universal. Por ejemplo, el comportamiento de las funciones de correlación a larga distancia es independiente de los parámetros desnudos (para fijar el escenario, digamos un campo escalar con parámetros desnudos $r_\Lambda, g_\Lambda$ para la interacción cuadrática y cuática y $\Lambda$ es el corte UV (por ahora) finito).

Pero no hay que olvidar que muchas magnitudes físicas no son universales. Por ejemplo, el valor crítico de $r_\Lambda$ (en el fijo $g_\Lambda$ y $\Lambda$ ) para estar en el punto crítico no es universal. Y este es una cantidad física en la materia condensada/la física estadística, del mismo modo que $\Lambda$ también tiene un significado físico.

El punto de vista de la RG de la vieja escuela (con los contertulios y todo eso) es útil para los cálculos prácticos (más allá de un lazo), pero hace que todo sea mucho menos claro. En el espíritu de la física de alta energía con una QFT de todo (es decir, no una teoría efectiva), uno no quiere un corte, porque no tiene sentido, se supone que la teoría funciona a una alta energía arbitraria. Esto significa que debemos enviar $\Lambda$ hasta el infinito. Y aquí viene otra cuestión no trivial: ¿qué entendemos por $\Lambda\to\infty$ ?

El perturbador respuesta es: poder enviar $\Lambda\to\infty$ orden por orden en la perturbación en $g$ . ¿Pero es la respuesta completa a la pregunta? La verdad es que no. Cuando decimos que queremos $\Lambda\to\infty$ significa que queremos definir una QFT, en un no-perturbativo que es válido a cualquier distancia, y queremos que esta QFT esté bien definida, es decir, definida por un número finito de parámetros (digamos dos o tres). Y de hecho, este límite de corte infinito no perturbador (que llamaré el límite del continuo) es mucho más difícil de tomar. En efecto, teniendo una teoría descrita en el límite $\Lambda\to\infty$ por un número finito de parámetros significa que la RG fluye en el UV hacia un punto fijo. Del mismo modo, la RG tiene que fluir en el IR hacia otro punto fijo para estar bien controlada. Esto implica que muy pocas QFTs existen de hecho en el límite del continuo, y que algunas QFTs que son perturbativamente renormalizables ( $\Lambda\to\infty$ orden por orden en la perturbación en $g$ ¡) no están necesariamente bien definidos en el límite del continuo !

¡Por ejemplo, algunas QFT bien conocidas en dimensión cuatro (como las teorías escalares o la QED) no existen en el límite del continuo ! La razón es que incluso si estas teorías están controladas por un punto fijo en el IR (en la "criticidad", que para la QED significa al menos electrones con masa cero), no es el caso en el UV, ya que la interacción crece con el corte. Por lo tanto, hay que especificar el valor de un número infinito de constantes de acoplamiento (incluso "no normalizables") para seleccionar con precisión una trayectoria RG.

Una de las QFT que existe en el límite del continuo es la teoría escalar en dimensión menor que cuatro (digamos tres). En ese caso, en la criticidad, existe un trayectoria que está controlada por un punto fijo en el UV (el punto fijo gaussiano) y en el IR (el punto fijo de Wilson-Fisher). Todas (!) las demás trayectorias no están bien definidas en el UV (teorías críticas pero con constantes de acoplamiento arbitrarias) o en el IR (no es una teoría crítica). Entonces se ve por qué este $\Lambda\to\infty$ se considera cada vez menos importante en el enfoque moderno de las QFT (efectivas). A menos que uno quiera describir la física a toda escala mediante una QFT, sin utilizar una teoría elegante hasta ahora desconocida a energías superiores a $\Lambda$ . Sin embargo, esta idea de controlar una QFT tanto en el IR como en el UV es importante si se quiere demostrar que la relatividad general es renormalizable (no perturbativamente) (es decir, que puede describirse a todas las escalas con pocos parámetros) en el escenario de seguridad asintótica: si hay un punto fijo UV no trivial, entonces existe una trayectoria desde este punto fijo hasta el punto fijo gaussiano (que es, creo, la gravedad de Einstein), y se puede tomar el límite del continuo, aunque la perturbativa $\Lambda\to\infty$ no existe.

Referencia : La mayor parte de esto está inspirado en mi lectura de la muy agradable introducción a la RG no-perturbativa dada en arXiv 0702.365 y especialmente por la sección 2.6 "Renormalizabilidad Perturbativa, RG flows, límite continuo, libertad asintótica y todo eso".

6voto

user26363 Puntos 1

En cada etapa de renormalización, el Hamiltoniano cambia $\mathcal{H} \rightarrow \mathcal{H}_{\textrm{ren.1}}\rightarrow \mathcal{H}_{\textrm{ren.2}} \rightarrow \ldots$ ; en el proceso se excluyen los modos de energía y las escalas de longitud, como tú dices. Pero la cuestión es que cada $\mathcal{H}, \mathcal{H}_{\textrm{ren.1}}, \mathcal{H}_{\textrm{ren.2}}, \ldots$ (incluido el "original") $\mathcal{H}$ ) es una teoría efectiva o emergente aplicable sólo dentro de su dominio $\Omega, \Omega_{\textrm{ren.1}}, \Omega_{\textrm{ren.2}}, \ldots$ . Es decir, el hecho de que no haya teorías fundamentales ni siquiera en la física de partículas fue un punto clave subrayado por K. G. Wilson. Así, por ejemplo, en las teorías de campo, la masa desnuda del electrón $m$ se convierte en una simple construcción matemática; la verdadera, tal y como se mide y medible es el valor renombrado $m^*$ .

En cuanto al desacoplamiento, lo haré desde el punto de vista de los fenómenos críticos. En este punto crítico en el que hay correlaciones en todo el sistema, la separación de la red no importa, como bien sabemos; por lo tanto, son los modos de longitud de onda larga que se extienden por todo el sistema los que más contribuyen. Claramente, el desacoplamiento de las escalas de longitud está justificado en tal situación; dado que la QFT y la mecánica estadística son esencialmente equivalentes a través de la notación integral de trayectoria de Feynman, el desacoplamiento está justificado en las teorías de campo renormalizables. Si alguien puede hacer esto matemáticamente riguroso, por favor siéntase libre ...

Como analogía, piense en un sistema clásico con muchas configuraciones $i$ con energías $\epsilon_i$ dependiendo de la temperatura $T$ la contribución de una configuración se decidirá en gran medida por sus pesos de Boltzmann $e^{-\epsilon_i/k_BT}$ . En este caso, podemos descartar todas las demás contribuciones o modos que tengan pesos insignificantes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X