33 votos

¿Por qué debería el Modelo Estándar sea renormalizable?

Efectiva de las teorías como la de Little Higgs modelos o Nambu-Jona-Lasinio modelo son no renormalizable y no hay ningún problema con eso, ya que un efectivo de la teoría no necesita ser renormalizable. Estas teorías son válidas hasta una escala de $\Lambda$ (ultravioleta de corte), después de esta escala de efectivo de una teoría de la necesidad de una UV de finalización, una más "general" de la teoría.

El Modelo Estándar, como un efectivo de la teoría de la física de partículas, las necesidades de una teoría más general que se ocupa de los fenómenos más allá del Modelo Estándar (UV finalización?). Entonces, ¿por qué el Modelo Estándar sea renormalizable?

16voto

Nick Puntos 583

el Modelo Estándar sólo pasa a ser perturbativa renormalizable que es una ventaja, como se comentará más adelante; no perturbativa, uno podría encontrar que la partícula de Higgs, la auto-interacción y/o el hypercharge $U(1)$ interacción sería cada vez más fuerte en altas energías y que se ejecuta en incoherencias como la Landau polos muy alta, trans-Planckian energía escalas.

Sin embargo, los modelos donde el escalar de Higgs es sustituida por una más complicado mecanismo no renormalizable. Eso no es un letal problema debido a que la teoría puede ser utilizado como una válida efectiva de la teoría. Y eficaz de las teorías puede ser que no renormalizable - que no tienen ninguna razón para no ser.

La razón por la que los físicos prefieren renormalizable campo de las teorías es que son más predictivos. Un renormalizable campo predicciones de la teoría de sólo dependen de un número finito de baja energía de los parámetros que pueden ser determinados por una comparación con los experimentos. Porque con un valor fijo de la baja energía de los parámetros tales como los acoplamientos y las masas, una teoría renormalizable puede ser el único extrapolarse de forma arbitraria escala alta (y sigue siendo predictivo en alto de manera arbitraria escalas), también significa que, si postulamos que la nueva física se produce sólo en algunos extremadamente alta de corte de la escala de la $\Lambda$, todos los efectos de la nueva física son reprimidas por fuerzas positivas de $1/\Lambda$.

Esta suposición hace que la vida controlable y ha sido cierto en el caso de QED. Sin embargo, nada garantiza que el que "de inmediato" de obtener el derecho de descripción que es válido para un alto de manera arbitraria escala de la energía. Mediante el estudio de la física de partículas en cada vez mayor de energía escalas, se puede igualmente desenmascarar sólo otra capa de la cebolla que se descomponga un poco más energías y necesita ser arreglado por otra capa.

Personal de mi conjetura es que es más probable que no que toda campos adicionales o acoplamientos podemos identificar a bajas energías son inherentemente descrito por un renormalizable campo de la teoría, de hecho. Eso es debido a la siguiente razón: si nos encontramos con una validez efectiva de la descripción a escala de la energía $E_1$ que pasa a ser no renormalizable, se rompe un poco más alto de energía a escala de $E_2$ donde la nueva física completa y corrige el problema. Sin embargo, este escenario implica que $E_1$ $E_2$ tiene que estar muy cerca el uno del otro. Por otro lado, se debe ser "muy" debido a que sólo se las arregló para descubrir la física, en la parte inferior, $E_1$ escala de la energía.

El pequeño de Higgs modelos sirven como un buen ejemplo de cómo este argumento es evitado. Que ajustar cosas - por el uso de varios medidor de grupos, etc. - para separar las escalas de $E_1$$E_2$, de modo que sólo describen lo que está sucediendo en$E_1$, pero se puede ignorar lo que está sucediendo en $E_2$ que corrige los problemas en $E_1$. Me parece que este truco como una forma de optimización que es exactamente como indeseables como el "pequeño problema de la jerarquía" que fue una motivación importante de estos modelos en el primer lugar.

La historia tiene una mezcla de registro: QED se mantuvo esencialmente renormalizable. La teoría electrodébil puede ser completado, paso a paso, a una teoría renormalizable (por ejemplo, por el árbol unitarity argumentos). La QCD es renormalizable, demasiado. Sin embargo, es importante mencionar que las interacciones débiles que solía ser descrito por la de Fermi-Gell-Mann-Feynman cuatro-fermión interacciones no renormalizable. La separación de escalas de $E_1$ $E_2$ en mi argumento anterior se produce debido a las partículas de neutrones - que por desintegración beta - son todavía mucho más ligero que el W-bosones que posteriormente se encontró que la base de la cuatro-fermión interacciones. Esta separación se garantiza que el W-bosones se encontraron décadas después de la cuatro-fermión interacción. Y esta separación depende en última instancia de la arriba y abajo-quark acoplamientos de Yukawa " ser mucho menor que uno. Si el mundo fuera "muy natural", las jerarquías de los acoplamientos sería casi imposible. Mi argumento se mantenga y casi todas válidas las teorías que la gente iba a descubrir por la elevación de la escala de la energía sería renormalizable.

La relatividad General es un gran ejemplo sobre la no renormalizable lado y seguirá siendo así porque el derecho teoría que describe la gravedad cuántica no es y no puede ser un local de la teoría cuántica de los campos de acuerdo a las viejas definiciones. Como uno se acerca a la escala de Planck, la importancia de la no renormalizable eficaz campo de las teorías claramente aumenta porque no hay ninguna razón por la que debería ser válido para demasiado mucho mayor de energía escalas - en la escala de Planck, son reemplazadas por la no-campo de la teoría cuántica de la gravedad.

Saludos, LM

10voto

heathrow Puntos 25

El modelo estándar es renormalizable debido a la enorme diferencia de energía entre la escala de acelerador de la física y la escala de Planck/GUT física. Que esta brecha es real es avalada por la pequeñez de todos los que no renormalizable correcciones al modelo estándar.

  • Neutrino masas: estos son de dimensión 5, por lo que son muy sensibles a la nueva física. La medición de masas son consistentes con un INTESTINO escala de la supresión de la no renormalizable términos, y la regla de grandes dimensiones extra de inmediato.
  • Fuerte CP: Las interacciones fuertes son CP invariante sólo porque no hay nonrenormalizable las interacciones de los quarks y los gluones, directa o quark-quark-leptones-leptón interacciones. Incluso el renormalizable theta el ángulo conduce a fuertes CP.
  • La desintegración de protones: Si el modelo estándar falla en baja escala, el protón se descompone. El decaimiento del protón es imposible suprimir completamente, ya que es requerido por el modelo estándar de la anomalía de la cancelación, por lo que usted tiene que permitir que el SU(2) instanton para vincular los quarks y los leptones seguro. Si usted trata de hacer una teoría de grandes dimensiones extra, usted puede hacer algunos trucos para suprimir la desintegración de protones, pero que requieren de SU(2) y U(1) acoplamientos para empezar a correr como loco por debajo de un TeV.

Estos hechos observados, significa que hay un desierto real entre un TeV y el INTESTINO de escala. Además hay mucho más débil restricciones, los cuales son suficientes para descartar TeV escala no renormlizability:

  • Muon momento magnético: la escala de lo observado anomalías son aquellos que se espera adicionales a partir de partículas cargadas, no de un elemento fundamental de muones de pauli plazo. Si el no-renormalizability escala fueron un TeV, la Pauli plazo sería mucho más grande que el error experimental sin algún ajuste.
  • Sabor-el cambio de corrientes neutrales: estos también requieren algunos ajustes para hacer el trabajo con un bajo no renormalizability escala, pero no sé cómo funcionan muy bien, así que voy a aplazar a la literatura.

Alrededor de 2000, incompetentes, los físicos comenzaron a argumentar que se trata de un pequeño número de problemas, y que realmente, no sabemos nada en absoluto. De hecho, la razón teóricos se rompió la cabeza para encontrar un renormalizable modelo es porque sabían que este modelo sería básicamente una precisión arbitrariamente grandes energías, y sería una verdadera idea de la escala de Planck.

6voto

Mads Kristiansen Puntos 580

Debido a que estamos trabajando en el derecho de la energía a escala. En general, si hay renormalizable interacciones, que dominan sobre nonrenormalizable, por simple argumentos de escala y dimensiones de análisis. Antes de la electrodébil teoría fue desarrollada, la de Fermi de la teoría de la interacción débil se nonrenormalizable debido a que el líder de las interacciones de las personas que vimos eran de la desintegración beta, que es una dimensión-6 operador, y la estructura de los bosones W y Z no había sido descubierto aún. Ahora estamos en lo suficientemente alta energía que hemos visto el subyacente renormalizable interacciones responsables de esto.

Si hay otras partículas pesadas no sabemos, ciertamente será mayor dimensión que los operadores de todo que debemos agregar a la del Modelo Estándar. El hecho de que no hemos visto sus efectos pero es algo que preocupa a aquellos de nosotros que son la esperanza para los descubrimientos pronto....

Edit: debo añadir que, puesto que sabemos que los neutrinos tienen masa, el Modelo Estándar no es realmente una teoría renormalizable más. No que esto es relevante para la mayoría de la física de partículas la mayoría del tiempo.

-1voto

Matt S. Puntos 514

El modelo estándar no necesita ser renormalizable. Es la terminación debe ser.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X