Sí, se podrían utilizar los datos del LHC para ese fin, y eso es exactamente lo que están haciendo en el LHC. Sin embargo, técnicamente es mucho más difícil de lo que imaginas.
Un experimento como ATLAS o CMS (los grandes detectores del LHC) no proporciona recuentos de sucesos útiles si se observan los datos en bruto. Hay demasiadas fuentes de error tanto en la física del punto de interacción (donde las partículas colisionan) como en la física de los sistemas detectores. La mayoría de los sucesos en los puntos de interacción, por ejemplo, son sucesos de dispersión "débil". En el lenguaje de la teoría de campos, esto está causado por divergencias IR, creo: el problema de dispersión para un potencial electrostático 1/r simplemente no está bien definido en amplitudes de dispersión ingenuas, ni siquiera en la física clásica, y muchos más sucesos son colisiones de "rozamiento" en lugar de colisiones de intercambio de alto momento. Esto significa que tenemos que saber cómo "sustraer" todos estos sucesos débiles de nuestros datos sin eliminar la información relevante. Al mismo tiempo, estos sucesos débiles nos proporcionarán información de calibración sobre las secciones transversales de los haces, que dependen en gran medida de la sintonización precisa de los campos magnéticos que guían los haces. Necesitamos esa información para que la máquina rinda al máximo nivel posible, ya que, de lo contrario, su utilización sería demasiado baja para poder realizar las mediciones que nos interesan.
Además de estos sucesos débiles, hay un montón de sucesos de fondo, que se parecen exactamente a los sucesos en los que uno está realmente interesado (por ejemplo, para identificar el Higgs). Esto se llama fondo irreducible, porque se basa en interacciones físicas que se enmascaran unas a otras. Hay que tener una muy buena teoría del modelo estándar para calcular estos fondos irreducibles con alta precisión. Sólo las desviaciones de estos fondos contienen la "nueva" física. Afortunadamente, muchos de estos fondos han sido investigados antes en máquinas anteriores a la construcción del LHC. Se han observado en LEP y en Fermilab, por ejemplo. Incluso antes de que pudiéramos construir el LHC, necesitábamos tener una comprensión muy firme de cómo serían estos eventos de fondo, de lo contrario no habríamos sido capaces de diseñar los detectores con la suficiente precisión para medir estos eventos lo suficientemente bien como para hacer la sustracción necesaria de la señal real.
En la práctica, el procedimiento es iterativo. Antes incluso de construir una máquina de este tipo, los teóricos y fenomenólogos utilizarán el modelo estándar para calcular cómo será la señal esperada. Para ello existe una serie de herramientas informáticas que crean simulaciones estocásticas de los sucesos esperados. El núcleo de estas herramientas son los cálculos teóricos de campos cuánticos que utilizan el Lagrangiano del modelo estándar. A partir de estos cálculos se determina el número, los tipos y los momentos de las partículas que se espera que escapen de las colisiones de protones.
A continuación, este amplio conjunto de datos cinemáticos simulados se introduce en otras herramientas de simulación diferentes, como GEANT, que calculan las interacciones partícula-materia con el modelo mecánico de los detectores. A partir de estos datos se crea un modelo eléctrico del detector, que simula la salida electrónica de los detectores (que recogen señales de ionización y/o centelleo óptico/Cherenkov). A continuación, un código de simulación convierte esta señal electrónica simulada en los unos y ceros que los físicos esperan ver procedentes de la electrónica de adquisición de datos de los detectores reales.
Estos datos DAQ simulados se introducen en otra capa de software que utiliza conocimientos físicos sobre los detectores para estimar los tipos y los momentos de las partículas simuladas que pasan por el detector simulado. A partir de ahí obtenemos una serie de parámetros de rendimiento para nuestro detector simulado: ¿cuántas partículas reales identificará correctamente y cómo serán los errores en las mediciones de los momentos? Esto se utiliza para optimizar el diseño y la tecnología de los detectores reales.
Por último, cuando las simulaciones demuestran que los detectores reales funcionarán bien, se construyen maquetas (normalmente pequeños segmentos) de estos detectores en el laboratorio y se introducen estos elementos de prueba en un haz de partículas real con propiedades caracterizadas con precisión por experimentos previos. Si las simulaciones coinciden con los datos de calibración de estos experimentos, están listas para utilizarse en el diseño del detector real. Si no es así, tenemos que ajustar tanto las maquetas del detector como las herramientas de simulación para asegurarnos de que comprendemos exactamente lo que ocurrirá cuando el haz real choque contra el detector real.
Finalmente, tras unos 20 años de este tipo de trabajo, se pueden construir los detectores y calibrar todos los paquetes de simulación para la medición real. Ahora empieza la verdadera diversión. Encendemos la máquina a baja energía y baja luminosidad y tomamos datos en un rango de energía que creemos comprender. Pasamos la salida de los detectores por los algoritmos de reconstrucción previamente calibrados y seguimos ajustando tanto los detectores como la reconstrucción, hasta que los resultados concuerden con nuestro conocimiento del modelo estándar. Sólo entonces podemos aumentar la energía del haz y la luminosidad en un rango de parámetros que nunca antes se ha realizado. A continuación, esos datos se pasan por el código de reconstrucción, que elimina todos los errores de los detectores, tiene en cuenta los parámetros del haz (que cambian con el tiempo) y nos da tasas de sucesos físicamente relevantes. Estas tasas de eventos son las que podemos comparar con las tasas de eventos simuladas para nuestro detector calibrado...
Finalmente, después de que miles de físicos hayan estado sudando sobre esto durante décadas, podemos decir con cierta certeza, que lo que estamos viendo en nuestros detectores es realmente comparable a lo que esperamos ver y si hay discrepancias entre los datos reales y los datos esperados que están más allá de las barras de error (también calibradas), entonces podemos hablar de haber descubierto nueva física. Ni que decir tiene que todo esto tiene que hacerse en paralelo en múltiples detectores y con varios conjuntos diferentes de herramientas teóricas (y de software) para descartar que alguien haya cometido un error trivial en alguna parte. Tampoco hace falta decir que he simplificado el proceso real hasta casi el absurdo en este post. En realidad es mucho más difícil que eso, aún así.
¿Todavía le gustaría meterse en el asunto de validar el modelo estándar frente a los datos del LHC?