35 votos

¿Hasta qué punto podemos tomar en serio el éxito del Modelo Estándar cuando tiene tantos parámetros de entrada?

El Modelo Estándar de la física de partículas es inmensamente exitoso. Sin embargo, tiene muchos parámetros de entrada ajustados experimentalmente (por ejemplo, las masas de los fermiones, ángulos de mezcla, etc.). ¿Qué tan seriamente podemos tomar el éxito del Modelo Estándar cuando tiene tantos parámetros de entrada?

A simple vista, si un modelo tiene muchos parámetros de entrada, puede ajustar una gran cantidad de datos. ¿Existen predicciones cualitativas y, más importante aún, cuantitativas, del Modelo Estándar que sean independientes de estos parámetros ajustados experimentalmente? De nuevo, no dudo del éxito del ME pero esta es una preocupación que me gustaría que se aborde y se desmitifique.

45voto

Johan K. Jensen Puntos 1179

No es preciso pensar que todo el modelo estándar de la física de partículas fue determinado a través de experimentos. Esto está lejos de ser cierto. La mayoría de las veces, las predicciones teóricas de la física de partículas luego fueron confirmadas experimentalmente y, a menudo, con una alta precisión.

Por ejemplo, los físicos teóricos predijeron la existencia de los bosones $W^\pm$ y $Z$ y sus masas, el bosón de Higgs, la existencia de gluones y muchas de sus propiedades antes de que estas partículas fueran siquiera detectadas. Pauli postuló la existencia del neutrino para explicar la conservación de la energía en la desintegración beta, antes de que el neutrino fuera observado. El momento magnético anómalo del electrón, cuyo valor fue predicho por Julian Schwinger, coincide con el experimento hasta en 3 partes en $10^{13}$. La violación de la paridad en la interacción débil, predicha por Lee y Yang, fue posteriormente confirmada experimentalmente. La predicción del positrón por Dirac, fue detectada cuatro años después por Anderson.

La lista continúa y es extensa$^1$. La física de partículas es posiblemente la teoría de la física más exitosa porque una y otra vez sus predicciones luego fueron confirmadas por experimentos con una sorprendente precisión (aunque a veces nuestras teorías necesitaban ser mejoradas para explicar algunos detalles de los datos experimentales). Puede que esté sesgado por venir de un fondo en física de partículas teórica, pero siempre he estado de acuerdo en que el Modelo Estándar es el modelo más matemáticamente hermoso, profundo y profundo de toda la física. Esto se refleja en su poder predictivo casi milagrosamente preciso.


$^1$Algunos otros puntos destacados:
1935 Hideki Yukawa propuso la fuerza fuerte para explicar las interacciones entre nucleones.
1947 Hans Bethe utiliza la renormalización por primera vez.
1960 Yoichiro Nambu propone SSB (ruptura espontánea de simetría) en la interacción fuerte.
1964 Peter Higgs y François Englert proponen el mecanismo de Higgs.
1964 Murray Gell-Mann y George Zweig proponen las bases del modelo de quarks.
1967 Steven Weinberg y Abdus Salam proponen la interacción/unificación electrodébil.


32voto

Jos Gibbons Puntos 190

El Modelo Estándar puede tener muchos parámetros, pero también habla sobre muchas cosas, cada una típicamente solo involucra un número muy limitado de parámetros. Por ejemplo, la vida útil del muón$^\dagger$ $$\tau_\mu=\frac{6144\pi^3M_W^4}{g^4m_\mu^5}$$ depende solo de $M_W,\,g,\,m_\mu$ ($g$ es el acoplamiento débil del isoespín), y la vida útil del tauón $\tau_\tau$ satisface$$\frac{\tau_\tau}{\tau_\mu}=\frac{1}{3(|V_{ud}|^2+|V_{us}|^2)+2}\frac{m_\mu^5}{m_\tau^5},$$ que solo depende de $|V_{ud}|,\,|V_{us}|,\,m_\mu,\,m_\tau$. Por lo tanto, estas dos predicciones necesitan seis parámetros, lo cual no suena impresionante en sí mismo. Pero eso pasa por alto el punto aquí. La lista completa de predicciones del SM utiliza todos los parámetros en una variedad de subconjuntos, creando un sistema de ecuaciones simultáneas mucho, mucho más grande que la cantidad de parámetros. Si (por mencionar una estimación discutida aquí) hay $37$ parámetros, no es como si estuviéramos ajustando un polinomio de grado-$36$ $y=p(x)$ por OLS. Es más bien como requerir que los mismos pocos coeficientes ajusten simultáneamente muchos problemas de regresión diferentes.

$^\dagger$ Estoy seguro de que alguien objetará que mi fórmula para $\tau_\mu$ tiene un tiempo en el LHS y una inversa de masa en el RHS, está utilizando unidades naturales, y debería leer$$\tau_\mu=\frac{\hbar}{c^2}\frac{6144\pi^3M_W^4}{g^4m_\mu^5}$$ en unidades del SI para exponer el uso de dos parámetros más $c,\,\hbar$. De todas formas, estos tienen valores del SI exactos por definición. De todas formas, realmente no afecta el argumento.

16voto

JEB Puntos 325

El LHC ha producido 2,852 publicaciones hasta hoy: 24 de septiembre de 2021. Digamos que cada publicación tiene 5 gráficos. Cada gráfico tiene 50 puntos. Redondearemos eso a 1,000,000 de puntos de datos, junto con una comparación con la teoría.

¿Qué fracción de los datos de física de partículas es del LHC? ¿1%? No lo sé. La física de partículas comenzó en 1908 con el experimento de Rutherford con $^{197}{\rm Au}(\alpha,\alpha)^{197}{\rm Au}$. Digamos que el LHC es el 0.1% de todos los datos.

Eso significa 1 billón de puntos de datos explicados con $N$ parámetros libres. Recuerdo que $N=37$, pero tal vez haya cambiado. Wikipedia dice que $N=19$. No sé al respecto.

De cualquier manera, la cantidad de datos a lo largo de órdenes de magnitud de energía, que involucra todas las formas conocidas de materia, en los sectores EM, débil y fuerte, explicada por tan pocos parámetros es extraordinaria.

Las cosas oscuras no obstante.

11voto

Vadim Puntos 377

La pregunta no es en última instancia la de la física, sino de la estadística. Es por una buena razón que la física de partículas sigue siendo uno de los pocos campos de la física donde la estadística aún se practica a un nivel avanzado (en muchos otros campos, la alta precisión de las mediciones redujo la necesidad de análisis estadístico a calcular desviaciones estándar). En particular, el capítulo de estadísticas en PRD es un excelente curso intensivo sobre análisis estadístico.

¿Cuántos parámetros son muchos? 

En física estamos acostumbrados a modelos donde el número de parámetros se puede contar con los dedos de la mano, porque estamos apuntando a entender las interacciones/procesos/etc. elementales. Describir cualquier fenómeno del mundo real resulta necesariamente en combinar muchos elementos y usar más parámetros. Los modelos utilizados en ingeniería, por ejemplo, para diseñar aviones, o en la planificación gubernamental contienen cientos o miles de parámetros. La alta promesa del aprendizaje automático se debe a la capacidad computacional moderna de usar modelos con millones de parámetros, a menudo con un significado muy oscuro (para los humanos), pero aún funcionan muy bien, como vemos en el etiquetado de fotos de Facebook o en la creciente calidad de Google translate.

¿Cuántos datos? 

Si tenemos demasiados parámetros depende de la cantidad de datos que tengamos. La regla general es tener más puntos de datos que parámetros. Sin embargo, enfoques más fundamentados se construyen en torno a la verosimilitud, que es la probabilidad de observar datos, dados nuestros valores de parámetros: $$P(D|\theta).$$ Modelo en este contexto es el medio de expresar esta relación entre los parámetros y los datos matemáticamente.

Ahora bien, si nuestro modelo es bueno, la verosimilitud aumentará a medida que aumentemos la cantidad de datos (el número de puntos de datos) - aunque este aumento no es estrictamente monótono, debido a los efectos aleatorios. Si esto no sucede, nuestro modelo no es bueno - quizás es demasiado simplista o tiene muy pocos parámetros - esto se llama subajuste.

Comparación de modelos 

Dada una gran cantidad de datos, el modelo con más parámetros generalmente resultará en una mayor verosimilitud - aquí es donde radica el problema planteado en el OP. Permítanme señalar de paso que nunca podemos demostrar o refutar un modelo por sí solo - más bien, comparamos diferentes modelos y elegimos uno mejor. Un modelo con más parámetros puede ser simplemente mejor, porque se aproxima mejor a la realidad física. Pero dicho modelo puede resultar en una mayor verosimilitud simplemente porque tenemos más parámetros para ajustar - esto es lo que llamamos sobreajuste.

Se han desarrollado métodos para corregir el número de parámetros al corregir el modelo. Uno de los más conocidos es el criterio de información de Akaike (AIC), donde se comparan las cantidades $$AIC=k_M -\log P(D|M),$$

donde $k_M$ es el número de parámetros en el modelo $M$. El modelo con el valor más bajo de AIC se considera entonces el que logra los mejores resultados con el menor número de parámetros.

Por si acaso este criterio simple parece demasiado intuitivo, permítanme señalar que justificarlo rigurosamente requiere bastante matemáticas. También existen versiones más elaboradas, así como criterios alternativos, como el criterio de información bayesiano (donde $k_M$ se reemplaza por su logaritmo).

Así es como se elige el mejor modelo en pocas palabras. La física aparece en la formulación de los modelos lógicamente motivados para elegir. Sospecho que, si miramos las publicaciones en la época en que se formuló el modelo estándar, probablemente hubo bastantes propuestas alternativas, e incluso más probablemente se discutieron en las conversaciones entre los científicos. Sin embargo, la belleza de la física es que permite reducir significativamente la elección de modelos, como alternativa a los enfoques de aprendizaje automático, donde todos los modelos posibles son iguales y la elección se basa únicamente en su compatibilidad con los datos.

5voto

user3141592 Puntos 568

Si tienes $n$ parámetros de entrada en una teoría determinista, puedes ajustar perfectamente como máximo $n$ puntos de datos simplemente ajustando esos parámetros. En una teoría probabilística eso es más sutil, pero hay una asociación similar. Independientemente de cuántos parámetros necesite el modelo estándar, es mucho menos de lo que sería necesario para ajustar el 1 petabyte de datos recolectados en el LHC por segundo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X