Hay diferentes capas de la reconstrucción, en cada paso la cantidad de datos es reducido con el objetivo de inferir el momenta, el tipo y la dirección de las partículas se produce en primer lugar en la colisión:
- pulso de reconstrucción de la forma: las señales electrónicas causada por partículas que interactúan con el detector de células se digitaliza a una frecuencia de 40 MHz en el LHC. Algunos de electrónica de señales puede ser tan largo como 10 muestras. Por lo general uno quiere saber la altura del pulso y el tiempo de la altura máxima. Los algoritmos utilizados aquí van desde el simple cálculo de la suma o la media de las muestras a utilizar un máximo de probabilidad de la estimación de los parámetros (utilizando, por ejemplo, un algoritmo de descenso de gradiente) asumir una forma funcional de la forma.
Una vez que se ha calculado estos 'por celda' depósitos, que se encuentran agrupados (la mayoría de los depósitos en el detector de involucrar a un grupo de celdas adyacentes):
- en Calorímetros (absorción de los detectores de medir la energía de las partículas), el pulso de la altura corresponde a la energía depositada. Uno trata de identificar los grupos de células con importantes depósitos de energía. Un algoritmo básico es empezar con el celular con la energía más alta de depósito ('cluster de la semilla') y agregar las células vecinas, siempre y cuando su energía está por encima de un umbral determinado. Quitar las células de este recién construido clúster y continuar hasta que no de semilla por encima de un cierto umbral se encuentra.
- en el seguimiento de los detectores (no absorbentes detectores en donde las partículas cargadas dejar un rastro) uno tiene para 'dibujar un círculo a través de las celdas que había una señal (aquí uno realmente está más interesado en la posición de la celda que fue golpeado, pero también si el golpe fue más probable en el centro de la célula o a la izquierda, etc.). Mientras que esto puede sonar trivial para el ser humano, el principal problema es que las colisiones tienen cientos, si no miles de visitas. Un algoritmo estándar que se usa aquí es Filtrado de Kalman, que se propaga por ejemplo, de las capas más internas de un sistema de seguimiento del detector a la siguiente capa hasta que la capa más externa es alcanzado. Normalmente, en cada paso, varias posibles combinaciones de golpes se mantienen a cuenta por el hecho de que el hit patrón es ambiguo en cierta medida (por ejemplo, dos partículas cargadas que atraviesan la misma celda), el algoritmo debe ser tolerante en contra de una cierta cantidad de falta de células éxitos. Hay extensiones al estándar Filtro de Kalman (que asume que la medición de los errores siguen una distribución Gaussiana), por ejemplo, tomar en cuenta que 'problemillas' puede suceder cuando una partícula atraviesa un detector de trazas capa pierde una excepcionalmente alta cantidad de energía (y por lo tanto el radio de curvatura es significativamente más pequeño), donde se utiliza una suma de Gaussianas (en lugar de una sola de Gauss) para el modelo de la probabilidad de que donde la partícula ha llegado a la siguiente capa.
Ahora tenemos grupos de energía y pistas para las partículas cargadas.
- Las partículas cargadas dejar rastro en el seguimiento de las cámaras y en los calorímetros, la mayoría de las partículas neutras dejar toda su energía en uno o ambos de los calorímetros, los neutrinos no dejar huella en cualquiera de los detectores, etc. Anna v del post explica esto con mayor detalle. Para las partículas que dejan una huella en múltiples subdetectors (por ejemplo,
los electrones) uno debe asociar los depósitos de la persona
subdetectors a la misma partícula, esto suele hacerse mediante la combinación de los depósitos en diferentes detectores que están más cerca en dirección a cada uno de los otros. Uno comienza desde la más fácilmente identificable de partículas (muones), elimina los depósitos de los de la lista, a continuación, pasa al siguiente tipo de partaicle etc. Un posible algoritmo para hacer esto es la llamada 'partícula de flujo de algoritmo'.
- algunas partículas son inestables, pero vivir el tiempo suficiente que primero volar hasta un centímetro antes de que la caries. Estos pueden ser identificados mediante la búsqueda de las intersecciones de las pistas (vértices) que están lejos de la ubicación de los haces de partículas. El más simple algoritmo quisieran probar todas las combinaciones posibles de pares de pistas, a continuación, intente agregar más si una intersección se encuentra.
Ahora tenemos candidatos de cuasi partículas estables (aquellos que no están en descomposición en el interior del detector), es decir, conocemos el tipo (principalmente de electrones, fotones, cargada pions/kaons, neutral hadrones), su energía/fuerza y dirección.
- hadrones suelen venir en forma de 'jets' (aerosoles de partículas). Como la agrupación a nivel de las células anteriormente, uno de los ahora racimos cerca de partículas en los chorros. Lo que se suele hacer aquí es que uno mira para la mayoría de las partículas energéticas en el evento y los grupos, junto con las partículas en un cono de un determinado tamaño (existen variantes con varias pasadas donde el cono se ajusta después de cada pase, etc.) o que uno comienza a combinar las dos partículas que son más cercanos entre sí (varias métricas se utilizan para definir 'más cercano'), reemplaza estas dos partículas por el nuevo combinado de partículas y continúa hasta que por ejemplo, los pocos que partículas tienen una cierta distancia entre ellos (como una nota de lado, llevó a la comunidad un poco de tiempo para pasar de S($n^2$) O($n \log n)$ algoritmos). La idea detrás de los chorros es que su energía y la dirección es de aproximadamente de un quark gluon que se produjo en el primer lugar. Personas incluso han comenzado a investigar la visión por computador métodos para este propósito.
Ahora que hemos reducido la colisión más lejos aún, uno puede formar combinaciones de las partículas. Qué combinación que uno busca depende de cómo una partícula que se conoce a la decadencia (o se espera que la caries en caso de que aún no se ha descubierto partículas). En este nivel, uno puede computacionalmente darse el lujo de probar todas las combinaciones posibles de 'estable' partículas 'subir la decadencia de un árbol". Algunos ejemplos son:
- $J/\psi$: puede, por ejemplo, la desintegración de un positivo y un negativo de muones. Trate de encontrar dos muones (pistas en las cámaras de muones) de carga opuesta cuya suma de fourmomenta tiene una masa cercana a la masa de la $J/\psi$ de las partículas.
- Bosón de Higgs se desintegra: el "golden canal" es la decadencia a dos bosones Z, donde Z en vez de la caries a los electrones/positrones o muones. Así que busque un electrón, positrón, un muón positivo negativo muón. La suma de los fourmomenta de los electrones y positrones debe tener una masa cercana a la Z de la masa y la suma de fourmomenta de los aspectos positivos y negativos de muones debe tener una masa cerca de la Z a la masa. Calcular la masa de la suma de los fourmomenta de las cuatro partículas. Si, por hacer esto para todas las colisiones, uno ve a un enriquecimiento en una masa determinada, esto es probable que venga de una partícula decae en dos bosones Z.
- los decaimientos de la parte superior de quarks: se sabe Que la caries en un bosón W, además de un quark b, donde un posible modo de desintegración del bosón W es en un muón y un neutrino. Así que uno se busca un jet donde se ha desplazado el vértice (desde el quark b), falta de energía (desde el neutrino) y una hits en las cámaras de muones.
En el siguiente nivel uno tiene que separar "señal" (por ejemplo, nuevas partículas buscado) de 'fondo' (conocido en los procesos de protones protones colisiones de aspecto similar a la de la señal):
- un método básico es exigir a los criterios simples reconstruidos cantidades (energías, masas, ángulos, etc.) ser mayor o menor que un determinado umbral. Los umbrales se eligen de modo que la probabilidad de que los procesos en segundo plano para tener una fluctuación al alza tan grande como la señal es minimizada (el número de colisiones de un tipo determinado no es calculable exactamente, sigue un Poission de distribución). Más sofisticados métodos populares incluyen Bayes Naive de los clasificadores ('Probabilidad de combinación'), algoritmos evolutivos, redes neuronales artificiales y aumentó de árboles de decisión. De hecho, la tarea de separar 'señal' de 'fondo' es similar a un problema de clasificación en el aprendizaje de máquina (aunque nuestro objetivo de la función es diferente a los que comúnmente se utilizan en el aprendizaje de máquina).
Hay cientos de variantes de los algoritmos anteriores y, probablemente, como muchos de los parámetros a optimizar, optimizado para casos particulares, etc. Una gran parte de los esfuerzos de análisis de datos que realmente va a conseguir el la mayoría del detector (después de que el detector entra en operación, uno no puede mejorar más para varios años).
Simulación y reconstrucción de los códigos están en el rango de millones de líneas de código.
Una importante limitación viene desde el tiempo de CPU disponible, especialmente para la pista de encontrar que es computacionalmente uno de los más caros pasos. El compromiso entre la resolución alcanzado (con qué precisión se puede medir el momentum y la energía de una partícula) se vuelve importante en la segunda etapa de la en tiempo real de la reducción de la tasa ('trigger' -- de 100'000 de colisiones por segundo a 1000 por segundo). Un crudo de la reconstrucción de la colisión debe ser realizado dentro de 100-200 ms para decidir si una colisión debe ser mantenido por el almacenamiento fuera de línea. Si la colisión se mantiene y se escriben en el disco, más sofisticada, la reconstrucción, la cual puede tomar un par de segundos por la colisión de la siguiente manera dentro de un par de horas.