11 votos

Más preguntas sobre la teoría de cuerdas y el modelo estándar

Esta es una pregunta de seguimiento para ¿Cómo se reduce la teoría de cuerdas al modelo estándar?

La respuesta de Ron Maimon aclaró hasta cierto punto lo que se puede esperar de la teoría de cuerdas, pero dejó abiertos los detalles que en mi opinión son necesarios para justificar su narrativa. Permítanme decir lo que su respuesta me sugirió:

Basándose en algunas pruebas indirectas, se conjetura que
i) Un día, la teoría de cuerdas produce en uno de los muchos bajos posibles aproximaciones de energía una teoría equivalente al modelo estándar o a una una ligera variación de la misma.
ii) La teoría de las cuerdas no puede predecir que el universo debe estar en este aproximación de baja energía, ya que la aproximación real de baja energía es una resultado aleatorio de una dinámica estocástica, y por lo tanto tan impredecible como las masas y distancias del sol y los planetas del sistema solar.
iii) En particular, el aporte fenomenológico necesario (aproximadamente correspondiente a las condiciones límite en una teoría clásica) incluye "la estructura cualitativa del modelo estándar, más el SUSY, más digamos datos de 2 decimales en 20 parámetros''. A partir de esto, es conjeturó que los valores infinitamente exactos de todos los parámetros en la El modelo estándar está determinado por la teoría de cuerdas.

El apoyo a estas conjeturas es una cuestión de creencia. Para mí, ninguna de las tres afirmaciones es hasta ahora plausible:
i) sólo puede apoyarse encontrando dicha aproximación.
¿Qué otro hallazgo podría apoyar esta conclusión?

(ii) es bastante diferente de lo que vemos en las energías más bajas. Por ejemplo, si bien no podemos predecir la forma de un determinado manojo de agua, podemos derivar completamente todas las propiedades macroscópicas (es decir, de baja energía) del agua a partir del principio microscópico y de unas pocas constantes que definen las leyes microscópicas (masas de H, O y el electrón, y la constante de estructura fina). Y los parámetros del modelo estándar definen en principio las propiedades de todos los núcleos (aunque todavía no tenemos métodos numéricos suficientemente buenos).
¿Qué es lo que hace única a la teoría de cuerdas, ya que no sólo los estados particulares de baja energía, sino también las leyes dinámicas de baja energía son resultados aleatorios?

(iii) sólo podría ser corroborado si se pudiera demostrar, al menos para algunas de las muchas aproximaciones de baja energía, que conocer algunos números a baja precisión fija todas las constantes de acoplamiento en teoría a una precisión arbitraria.
¿Existe un caso así, para poder estudiar la ciencia que hay detrás de esta afirmación?

También iii) es algo decepcionante, ya que significa que la mayor parte de la comprensión potencial que podría proporcionar una teoría subyacente ya debe ser asumida: A diferencia de la teoría de Newton, que es indispensable para derivar de unas pocas docenas de constantes el movimiento completo de los planetas, o la química cuántica y la mecánica estadística, que son indispensables para derivar de unas pocas docenas de constantes todas las propiedades de los materiales macroscópicos, la teoría de cuerdas no proporciona un servicio similar para la teoría de las partículas elementales, ya que la teoría cuántica de campos ya contiene toda la maquinaria necesaria para extraer las consecuencias empíricas de "la estructura cualitativa del modelo estándar, más el SUSY, más". digamos datos de 4 decimales en 33 parámetros.

10voto

heathrow Puntos 25

Cuando la mecánica de Newton era nueva, la gente esperaba que una teoría del sistema solar produjera mejores descripciones de las cosas que Ptolmey había dejado sin explicar: las distancias equinocciales, los períodos del ciclo principal y las ubicaciones de los epiciclos. La teoría de Newton no hizo mucho al respecto: sólo cambió los parámetros de Ptolmey por los parámetros orbitales de los planetas. Pero el resultado predijo la distancias a los planetas (en términos de unidad astronómica), y al sol, y estas distancias podrían determinarse por triangulación. Además, la teoría explicaba la observación posterior de la abberación estelar y daba un valor a la velocidad de la luz. Si su idea de lo que una teoría debe predecir estaba cegada por haber sido criado en un universo ptolmeano, podría haber considerado la teoría de Kepler/Newton como intrascendente desde el punto de vista de la observación, ya que no modificaba los valores ptolmeanos para las ubicaciones observadas de los planetas de manera profunda.

Los puntos que planteas en la teoría de cuerdas son similares. La teoría de cuerdas te dice que debes relacionar el modelo estándar con una configuración microscópica de dimensiones y geometría extra, incluyendo quizás algunas branas de materia y casi seguramente algunos orbifolds. Estas predicciones se basan en el conocimiento de la estructura del modelo estándar, al igual que el modelo newtoniano se basa en la estructura del modelo ptolémico. Pero el resultado es que se obtiene un modelo gravitacional completo y autoconsistente sin que se desconozca nada, por lo que el número de predicciones es enormemente mayor que el número de entradas, incluso en el peor escenario que se pueda imaginar.

La idea de que tendremos $10^{40}$ modelo estándar como vacua con diferentes valores de la masa del electrón, la masa del muón, etc., es extremadamente pesimista. Adopté esta posición para mostrar que incluso en este peor de los mundos posibles, la teoría de cuerdas es predictiva. Es difícil ver cómo se pueden hacer tantas vacuas similares al modelo estándar, cuando nos cuesta tanto construir una sola.

Hay algunas predicciones que podemos hacer a partir de la teoría de cuerdas sin saber apenas nada sobre el vacío, sólo a partir de la observación de una escala de Planck alta y de los principios generales del recuento de grados de libertad. Estas predicciones son generalmente débiles. Por ejemplo, si descubrimos que el bosón de Higgs se encuentra en un sector tecnicolor, con una escala de Planck alta, y el grupo gauge tecnicolor es SO(1000) o SP(10000), es totalmente imposible explicar esto utilizando la teoría de cuerdas. El tamaño del grupo gauge en una compactificación heterótica es de dos E8s, y no mayor. Para violar este límite en el número de generadores gauge, se necesitan muchas branas en algún tipo de teoría de tipo II, y entonces no se podrá estabilizar la compactificación a una escala lo suficientemente pequeña, porque todo el flujo gauge de las branas empujará el volumen a ser demasiado grande, de modo que la escala GUT caerá demasiado bajo, y los problemas de las grandes dimensiones adicionales reaparecerán.

De forma similar, si se descubre un nuevo campo gauge ultradébil en la naturaleza, como una nueva carga que lleven los protones y que no lleven los electrones, se falsificará la teoría de cuerdas. No se pueden hacer cargas pequeñas sin masas pequeñas, y esta restricción es la más estricta de varias restricciones del modelo de cuerdas de baja energía en el programa de los pantanos.

Este tipo de cosas son demasiado generales descartan cosas que nadie propone seriamente (aunque al menos un grupo en los años 90 propuso cargas gauge ultradébiles como forma de estabilizar el protón). Pero es notable que el tipo de cosas que observamos a bajas energías son grupos gauge relativamente pequeños comparados con lo que podría ser teóricamente, y en ecos generacionales de un número relativamente limitado de representaciones, todas del tipo más básico. Este es el tipo de cosas que aparecen naturalmente en la teoría de cuerdas compactada, sin ningún ajuste fino.

Aun así, para poder hacer predicciones reales, es necesario conocer los detalles del vacío del modelo estándar en el que vivimos, la forma de la compactación y toda la porquería que hay en ella. La razón por la que aún no lo sabemos es, sobre todo, porque estamos limitados en nuestra capacidad de explorar compactificaciones no supersimétricas.

Cuando la teoría de baja energía es supersimétrica, suele tener parámetros, módulos, que se pueden variar manteniendo la teoría supersimétrica. Suelen ser cosas geométricas, el ejemplo más famoso es el tamaño de los círculos de compactación en una compactación toroidal de cuerdas de tipo II. En un vacío así, habría parámetros que tendríamos que determinar experimentalmente. Pero estos universos están generalmente vacíos. Si pones cosas aleatorias no supersimétricas en una compactificación toroidal, ya no es estable. Nuestro universo tiene muchas dimensiones ya colapsadas, y sólo unas pocas dimensiones creciendo rápidamente.

La constante cosmológica en nuestro universo es una pista importante, porque es, por lo que podemos ver, sólo una cancelación milagrosa entre la energía condensada de piones QCD y la energía condensada de gluones QCD, la energía condensada de Higgs, la densidad de energía de punto cero en los campos de baja energía, la energía de punto cero del campo de materia oscura (y cualquier condensado de materia oscura), y algo de energía que proviene de la configuración planckiana de las dimensiones extra. Si la constante cosmológica baja es accidental hasta 110 decimales, lo que me parece extremadamente improbable, la observación de su valor cercano a cero da 110 decimales de datos que restringen el modelo. Es mucho más probable que la constante cosmológica se anule en la escala de Higgs, o tal vez se trate de una cosa del tipo SO(16)xSO(16) en la que la constante cosmológica es tan cercana a cero porque la teoría es una proyección tipo orbifold de una teoría cercana a SUSY. En este caso, podrías tener sólo 20 decimales de datos de la constante cosmológica, o incluso menos.

Para responder a sus preocupaciones específicas:

i: podemos hacer compactaciones de cuerdas que contengan el MSSM emergiendo de una GUT SO(10) o SU(5) a bajas energías y sin materia exótica. aunque este tipo de compactificaciones son generalmente todavía demasiado supersimétricas, tienen el número correcto de generaciones, y los grupos gauge y el contenido de partículas adecuados. Estas ideas se encuentran aquí: http://arxiv.org/abs/hep-th/0512177 y el esquema general se basa en el trabajo de Candelas, Horowitz, Strominger, Witten de 1985, en compactificaciones geométricas supersimétricas de las teorías de cuerdas heteróticas de Gross,Harvey,Martinec,Rohm.

Kachru y sus colaboradores explicaron en la última década cómo se puede romper SUSY a bajas enegías utilizando sólo flujos gauge en las dimensiones extra. El tipo Orbifold puede incluso romper SUSY a altas energías, dejando sólo cosas no-SUSY, y el ejemplo clásico son las cuerdas SO(16)xSO(16) de Álvarez-Gaume, Ginsparg, Moore, Vafa (ver aquí: http://arxiv.org/abs/hep-th/9707160 ). Esto sugiere fuertemente que podemos encontrar el modelo estándar en una compactación natural, y más aún, podemos encontrar varias incrustaciones diferentes.

para ii--- la respuesta no es tan diferente de otras teorías. Las "leyes" de baja energía no son leyes inmutables, se modifican golpeando las cosas de la dimensión extra, pueden ser cambiadas. No hay leyes inmutables en la teoría de cuerdas, la teoría de campos es una teoría de campos efectiva que describe las fluctuaciones de un sistema moderadamente complejo, tan complicado como una cerámica superconductora no biológica de alta Tc. Por tanto, las leyes son aleatorias sólo en la medida en que la materia prima a alta energía pueda ser reordenada de forma consistente, lo cual no es mucho.

para iii--- debes recordar que estoy hablando del peor de los casos. Tenemos muchas pistas en el modelo estándar, como la pequeña masa del electrón, y la SUSY (o la falta de ella) que encontraremos (o no) en el LHC. Estas pistas son cosas cualitativas que reducen drásticamente el número de posibilidades. Me parece muy poco probable que tengamos que hacer una búsqueda asistida por ordenador a través de $10^{40}$ vacua, pero a la hora de la verdad, también deberíamos poder hacerlo.

Nota histórica sobre Ptolmey, Aristarco, Arquímedes y Apolonio

Para ser estrictamente honesto sobre la historia que mencioné de paso, debo decir que creo que la preponderancia de la evidencia sugiere que Aristarco, Arquímedes y Apolonio desarrollaron un modelo heliocéntrico con órbitas elípticas, o quizás sólo órbitas circulares descentradas con movimiento no uniforme, ya en el siglo III a.C, pero no pudieron convencer a nadie más, precisamente porque la teoría no podía realmente hacer nuevas predicciones con las mediciones que estaban disponibles en ese momento, e hizo predicciones contraintuitivas y, para algunas denominaciones heréticas, de que la Tierra se movía sin fricción a través de un vacío al estilo de Demócrito. La razón por la que hay que creer esto sobre aquellos antiguos es que sabemos con certeza, por el Reckoner de Arena, que Arquímedes era un admirador del modelo heliocéntrico de Aristarco, que Apolonio y Arquímedes sentían una fuerte motivación para hacer un estudio detallado de las secciones cónicas -conocían lo que hoy llamaríamos la ecuación algebraica definitoria de la parábola, la elipse y la hipérbola. Fue Appolonius quien introdujo la idea de epiciclo y deferente, creo que como una aproximación centrada en la Tierra a una órbita cónica no uniforme en un modelo heliocéntrico. Me parece que Appolonius, contemporáneo de Arquímedes, era heliocentrista.

Además, el sistema deferente/epiciclo/equivalente de Ptolmey se explica en el Almaghest con una introducción que está repleta de un positivismo anacrónico a lo Heisenberg: Ptolmey señala que su sistema es observacionalmente equivalente a algunos otros modelos, lo que es una referencia obvia al modelo heliocéntrico, pero no podemos determinar las distancias a los planetas, por lo que nunca sabremos qué modelo es el correcto en un sentido abstracto, así que podríamos utilizar el modelo más conveniente que trata a la Tierra como estacionaria, y hace órbitas relativas a la Tierra. El modelo deferente/equivalente/epiciclo de Ptolmey es elegante. Si sólo lo conocieras de oídas, nunca sabrías esto - no había "epiciclos sobre epiciclos" en Ptolmey, sólo Copérnico hizo cosas así, y entonces sólo para igualar a Ptolmey en precisión, sólo usando órbitas circulares uniformes centradas en el sol, no círculos descentrados con ecuantes, o elipses de ley de área. El sistema de Ptolmey se puede obtener tomando un modelo heliocéntrico con órbitas circulares descentradas y una ley de áreas iguales y poniendo el dedo en la Tierra, y exigiendo que todo gire alrededor de la Tierra. Esta derivación hacia atrás a partir de un modelo heliocéntrico de órbitas descentradas preexistente me parece más plausible que decir que Ptolmey lo inventó desde cero, sobre todo porque Appolonius es el responsable de la idea básica.

Salvo un improbable descubrimiento de nuevas obras supervivientes de Arquímedes, Apolonio o Aristarco, una forma de comprobar si esta idea es cierta es buscar pistas en los textos antiguos, para ver si se mencionan los círculos descentrados en el modelo heliocéntrico, o el movimiento circular no uniforme. Aristóteles es demasiado precoz, muere antes de que Aristarco esté activo, pero su escuela continúa, y podría haberse opuesto a las ideas científicas que circulan por los textos posteriores.

5voto

Fernando Briano Puntos 3704

La respuesta de Ron me cubre, pero quiero elaborar un poco y los comentarios no permiten suficientes palabras, sobre su

(iii) En particular, la entrada fenomenológica necesaria (que corresponde aproximadamente a las condiciones de contorno en una teoría clásica) incluye ''la estructura cualitativa del modelo estándar, más la SUSY, más digamos datos de 2 decimales sobre 20 parámetros''. A partir de esto, se conjetura que los valores infinitamente precisos de todos los parámetros del modelo estándar están determinados por la teoría de cuerdas.

y su comentario al respecto

(iii) sólo se podría fundamentar si se pudiera demostrar, al menos para algunas de las muchas aproximaciones de baja energía, que conocer algunos números a baja pecisión fija todas las constantes de acoplamiento en teoría con una precisión arbitraria. ¿Existe un caso así, para poder estudiar la ciencia que hay detrás de esta afirmación?

También (iii) es un poco decepcionante, ya que significa que la mayor parte de la visión potencial que podría proporcionar una teoría subyacente ya debe ser asumida

Estás poniendo el carro delante de los bueyes, imo.

Toma un cristal, un diamante por ejemplo. Tenemos modelos muy precisos para ello y bastante predictivos de su comportamiento. ¿Diría usted que la mecánica cuántica, que es la verdadera teoría que está detrás de esta preciosa estructura, es inútil y no predictiva ya que para obtener un diamante hay que dar su estructura cristalina?

En la infinidad de soluciones de la mecánica cuántica estará la estructura del diamante y se podría poner un programa para cribar las soluciones y encontrar estructuras cristalinas que finalmente dependerán de unas pocas constantes intrínsecas a la teoría.

El modelo estándar es una construcción equivalente a la estructura de diamante, y la esperanza es que la teoría de cuerdas conduzca a un modelo específico que incorpore también la gravedad, del que saldrá de forma natural la estructura del Modelo Estándar, con menos constantes que las descriptivas que se necesitan ahora, y con plena capacidad de predicción gracias a la unificación de las interacciones.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X