Cuando la mecánica de Newton era nueva, la gente esperaba que una teoría del sistema solar produjera mejores descripciones de las cosas que Ptolmey había dejado sin explicar: las distancias equinocciales, los períodos del ciclo principal y las ubicaciones de los epiciclos. La teoría de Newton no hizo mucho al respecto: sólo cambió los parámetros de Ptolmey por los parámetros orbitales de los planetas. Pero el resultado predijo la distancias a los planetas (en términos de unidad astronómica), y al sol, y estas distancias podrían determinarse por triangulación. Además, la teoría explicaba la observación posterior de la abberación estelar y daba un valor a la velocidad de la luz. Si su idea de lo que una teoría debe predecir estaba cegada por haber sido criado en un universo ptolmeano, podría haber considerado la teoría de Kepler/Newton como intrascendente desde el punto de vista de la observación, ya que no modificaba los valores ptolmeanos para las ubicaciones observadas de los planetas de manera profunda.
Los puntos que planteas en la teoría de cuerdas son similares. La teoría de cuerdas te dice que debes relacionar el modelo estándar con una configuración microscópica de dimensiones y geometría extra, incluyendo quizás algunas branas de materia y casi seguramente algunos orbifolds. Estas predicciones se basan en el conocimiento de la estructura del modelo estándar, al igual que el modelo newtoniano se basa en la estructura del modelo ptolémico. Pero el resultado es que se obtiene un modelo gravitacional completo y autoconsistente sin que se desconozca nada, por lo que el número de predicciones es enormemente mayor que el número de entradas, incluso en el peor escenario que se pueda imaginar.
La idea de que tendremos $10^{40}$ modelo estándar como vacua con diferentes valores de la masa del electrón, la masa del muón, etc., es extremadamente pesimista. Adopté esta posición para mostrar que incluso en este peor de los mundos posibles, la teoría de cuerdas es predictiva. Es difícil ver cómo se pueden hacer tantas vacuas similares al modelo estándar, cuando nos cuesta tanto construir una sola.
Hay algunas predicciones que podemos hacer a partir de la teoría de cuerdas sin saber apenas nada sobre el vacío, sólo a partir de la observación de una escala de Planck alta y de los principios generales del recuento de grados de libertad. Estas predicciones son generalmente débiles. Por ejemplo, si descubrimos que el bosón de Higgs se encuentra en un sector tecnicolor, con una escala de Planck alta, y el grupo gauge tecnicolor es SO(1000) o SP(10000), es totalmente imposible explicar esto utilizando la teoría de cuerdas. El tamaño del grupo gauge en una compactificación heterótica es de dos E8s, y no mayor. Para violar este límite en el número de generadores gauge, se necesitan muchas branas en algún tipo de teoría de tipo II, y entonces no se podrá estabilizar la compactificación a una escala lo suficientemente pequeña, porque todo el flujo gauge de las branas empujará el volumen a ser demasiado grande, de modo que la escala GUT caerá demasiado bajo, y los problemas de las grandes dimensiones adicionales reaparecerán.
De forma similar, si se descubre un nuevo campo gauge ultradébil en la naturaleza, como una nueva carga que lleven los protones y que no lleven los electrones, se falsificará la teoría de cuerdas. No se pueden hacer cargas pequeñas sin masas pequeñas, y esta restricción es la más estricta de varias restricciones del modelo de cuerdas de baja energía en el programa de los pantanos.
Este tipo de cosas son demasiado generales descartan cosas que nadie propone seriamente (aunque al menos un grupo en los años 90 propuso cargas gauge ultradébiles como forma de estabilizar el protón). Pero es notable que el tipo de cosas que observamos a bajas energías son grupos gauge relativamente pequeños comparados con lo que podría ser teóricamente, y en ecos generacionales de un número relativamente limitado de representaciones, todas del tipo más básico. Este es el tipo de cosas que aparecen naturalmente en la teoría de cuerdas compactada, sin ningún ajuste fino.
Aun así, para poder hacer predicciones reales, es necesario conocer los detalles del vacío del modelo estándar en el que vivimos, la forma de la compactación y toda la porquería que hay en ella. La razón por la que aún no lo sabemos es, sobre todo, porque estamos limitados en nuestra capacidad de explorar compactificaciones no supersimétricas.
Cuando la teoría de baja energía es supersimétrica, suele tener parámetros, módulos, que se pueden variar manteniendo la teoría supersimétrica. Suelen ser cosas geométricas, el ejemplo más famoso es el tamaño de los círculos de compactación en una compactación toroidal de cuerdas de tipo II. En un vacío así, habría parámetros que tendríamos que determinar experimentalmente. Pero estos universos están generalmente vacíos. Si pones cosas aleatorias no supersimétricas en una compactificación toroidal, ya no es estable. Nuestro universo tiene muchas dimensiones ya colapsadas, y sólo unas pocas dimensiones creciendo rápidamente.
La constante cosmológica en nuestro universo es una pista importante, porque es, por lo que podemos ver, sólo una cancelación milagrosa entre la energía condensada de piones QCD y la energía condensada de gluones QCD, la energía condensada de Higgs, la densidad de energía de punto cero en los campos de baja energía, la energía de punto cero del campo de materia oscura (y cualquier condensado de materia oscura), y algo de energía que proviene de la configuración planckiana de las dimensiones extra. Si la constante cosmológica baja es accidental hasta 110 decimales, lo que me parece extremadamente improbable, la observación de su valor cercano a cero da 110 decimales de datos que restringen el modelo. Es mucho más probable que la constante cosmológica se anule en la escala de Higgs, o tal vez se trate de una cosa del tipo SO(16)xSO(16) en la que la constante cosmológica es tan cercana a cero porque la teoría es una proyección tipo orbifold de una teoría cercana a SUSY. En este caso, podrías tener sólo 20 decimales de datos de la constante cosmológica, o incluso menos.
Para responder a sus preocupaciones específicas:
i: podemos hacer compactaciones de cuerdas que contengan el MSSM emergiendo de una GUT SO(10) o SU(5) a bajas energías y sin materia exótica. aunque este tipo de compactificaciones son generalmente todavía demasiado supersimétricas, tienen el número correcto de generaciones, y los grupos gauge y el contenido de partículas adecuados. Estas ideas se encuentran aquí: http://arxiv.org/abs/hep-th/0512177 y el esquema general se basa en el trabajo de Candelas, Horowitz, Strominger, Witten de 1985, en compactificaciones geométricas supersimétricas de las teorías de cuerdas heteróticas de Gross,Harvey,Martinec,Rohm.
Kachru y sus colaboradores explicaron en la última década cómo se puede romper SUSY a bajas enegías utilizando sólo flujos gauge en las dimensiones extra. El tipo Orbifold puede incluso romper SUSY a altas energías, dejando sólo cosas no-SUSY, y el ejemplo clásico son las cuerdas SO(16)xSO(16) de Álvarez-Gaume, Ginsparg, Moore, Vafa (ver aquí: http://arxiv.org/abs/hep-th/9707160 ). Esto sugiere fuertemente que podemos encontrar el modelo estándar en una compactación natural, y más aún, podemos encontrar varias incrustaciones diferentes.
para ii--- la respuesta no es tan diferente de otras teorías. Las "leyes" de baja energía no son leyes inmutables, se modifican golpeando las cosas de la dimensión extra, pueden ser cambiadas. No hay leyes inmutables en la teoría de cuerdas, la teoría de campos es una teoría de campos efectiva que describe las fluctuaciones de un sistema moderadamente complejo, tan complicado como una cerámica superconductora no biológica de alta Tc. Por tanto, las leyes son aleatorias sólo en la medida en que la materia prima a alta energía pueda ser reordenada de forma consistente, lo cual no es mucho.
para iii--- debes recordar que estoy hablando del peor de los casos. Tenemos muchas pistas en el modelo estándar, como la pequeña masa del electrón, y la SUSY (o la falta de ella) que encontraremos (o no) en el LHC. Estas pistas son cosas cualitativas que reducen drásticamente el número de posibilidades. Me parece muy poco probable que tengamos que hacer una búsqueda asistida por ordenador a través de $10^{40}$ vacua, pero a la hora de la verdad, también deberíamos poder hacerlo.
Nota histórica sobre Ptolmey, Aristarco, Arquímedes y Apolonio
Para ser estrictamente honesto sobre la historia que mencioné de paso, debo decir que creo que la preponderancia de la evidencia sugiere que Aristarco, Arquímedes y Apolonio desarrollaron un modelo heliocéntrico con órbitas elípticas, o quizás sólo órbitas circulares descentradas con movimiento no uniforme, ya en el siglo III a.C, pero no pudieron convencer a nadie más, precisamente porque la teoría no podía realmente hacer nuevas predicciones con las mediciones que estaban disponibles en ese momento, e hizo predicciones contraintuitivas y, para algunas denominaciones heréticas, de que la Tierra se movía sin fricción a través de un vacío al estilo de Demócrito. La razón por la que hay que creer esto sobre aquellos antiguos es que sabemos con certeza, por el Reckoner de Arena, que Arquímedes era un admirador del modelo heliocéntrico de Aristarco, que Apolonio y Arquímedes sentían una fuerte motivación para hacer un estudio detallado de las secciones cónicas -conocían lo que hoy llamaríamos la ecuación algebraica definitoria de la parábola, la elipse y la hipérbola. Fue Appolonius quien introdujo la idea de epiciclo y deferente, creo que como una aproximación centrada en la Tierra a una órbita cónica no uniforme en un modelo heliocéntrico. Me parece que Appolonius, contemporáneo de Arquímedes, era heliocentrista.
Además, el sistema deferente/epiciclo/equivalente de Ptolmey se explica en el Almaghest con una introducción que está repleta de un positivismo anacrónico a lo Heisenberg: Ptolmey señala que su sistema es observacionalmente equivalente a algunos otros modelos, lo que es una referencia obvia al modelo heliocéntrico, pero no podemos determinar las distancias a los planetas, por lo que nunca sabremos qué modelo es el correcto en un sentido abstracto, así que podríamos utilizar el modelo más conveniente que trata a la Tierra como estacionaria, y hace órbitas relativas a la Tierra. El modelo deferente/equivalente/epiciclo de Ptolmey es elegante. Si sólo lo conocieras de oídas, nunca sabrías esto - no había "epiciclos sobre epiciclos" en Ptolmey, sólo Copérnico hizo cosas así, y entonces sólo para igualar a Ptolmey en precisión, sólo usando órbitas circulares uniformes centradas en el sol, no círculos descentrados con ecuantes, o elipses de ley de área. El sistema de Ptolmey se puede obtener tomando un modelo heliocéntrico con órbitas circulares descentradas y una ley de áreas iguales y poniendo el dedo en la Tierra, y exigiendo que todo gire alrededor de la Tierra. Esta derivación hacia atrás a partir de un modelo heliocéntrico de órbitas descentradas preexistente me parece más plausible que decir que Ptolmey lo inventó desde cero, sobre todo porque Appolonius es el responsable de la idea básica.
Salvo un improbable descubrimiento de nuevas obras supervivientes de Arquímedes, Apolonio o Aristarco, una forma de comprobar si esta idea es cierta es buscar pistas en los textos antiguos, para ver si se mencionan los círculos descentrados en el modelo heliocéntrico, o el movimiento circular no uniforme. Aristóteles es demasiado precoz, muere antes de que Aristarco esté activo, pero su escuela continúa, y podría haberse opuesto a las ideas científicas que circulan por los textos posteriores.