9 votos

¿Tiene sentido la naturalidad para las teorías no fundamentales?

Naturalidad ha sido una filosofía que ha guiado la física de partículas durante mucho tiempo, pero hace unos años escuché una charla de Nima Arkani-Hamed en la que señalaba que parece habernos fallado en lo que respecta a la masa del bosón de Higgs y al problema de la pequeña jerarquía. Sugirió que la naturalidad como paradigma de la física de partículas puede no ser útil para entender los problemas actuales. Esto me hizo preguntarme:

¿Se ha demostrado que la naturalidad es útil para otros campos de la física que no sean la física de partículas o la alta energía?

Por ejemplo, ¿hay algo no trivial que la naturalidad pueda decirnos sobre los sistemas de materia condensada?

Comentario : Esto puede parecer una pregunta blanda, pero la naturalidad es intrínsecamente un concepto blando, y sin embargo forma parte de (al menos algunas partes de) la física.

14voto

Kevin Zhou Puntos 1670

Es precisamente lo contrario. La naturalidad es más más significativa, más fiable y menos subjetiva cuanto menos fundamental sea la teoría. Los argumentos de naturalidad como los utilizados en la masa de Higgs son tan comunes en la física de la materia condensada que la gente ni siquiera se molesta en mencionar cuándo los utiliza.

Permítanme resumir lo que ya se ha dicho.

  • La forma cuantitativa de expresar la naturalidad es mediante la estadística bayesiana. Una teoría es natural si puede explicar las observaciones con parámetros que son probables dadas nuestras preconcepciones sobre la distribución de los parámetros. Esto está en la respuesta de innisfree.
  • Uno podría quejarse de que esto depende de lo que sea nuestro previo, por lo que la naturalidad es una idea subjetiva. Eso significa que la objeción de que algo es improbable carece de sentido, siempre y cuando sea posible no hay ningún problema. Esta es la idea principal de Hossenfelder y el contenido de la respuesta de Pablo.

Es cierto que lo que pensamos que es natural depende de lo que creemos sobre la física en general. Pero eso no es un argumento de derribo, es sólo una descripción de cómo funciona toda la ciencia.

Naturalidad $=$ Ciencia

Supón que te encuentras con un viejo árbol en el parque a mediados de otoño. Todas las hojas se han caído, excepto una rama. Todas las hojas de esa rama siguen siendo llamativas. Se te ocurren dos teorías para explicar estas observaciones.

  1. "Así son las cosas". Por pura coincidencia, todas las hojas de esa rama se han mantenido, mientras que las otras se han caído. Otra persona podría considerar esto improbable, especialmente si piensa que cada hoja es tan buena como cualquier otra, pero ciertamente es una posible explicación.
  2. Se nota que esa rama ha sido injertada. Tal vez las hojas de las especies injertadas sean más resistentes y generalmente se caen más tarde.

Si se opta por la teoría (1), básicamente se ha desechado toda la ciencia, porque "improbable pero no literalmente imposible" es un listón extremadamente bajo para que una teoría pase. Si te quedas con la teoría (2), habrás avanzado aunque no tengas una respuesta completa. Al menos has identificado algo diferente sobre esa rama. (Esto es análogo a lo que ocurre cuando los teóricos muestran la "naturalidad técnica". El problema no se resuelve, pero al establecer una simetría, podemos conseguir un punto de apoyo que facilite su solución en una futura teoría).

Supón que estás en el casino jugando a la ruleta. Siempre apuestas al rojo. La primera vuelta es negra, así que pierdes. La segunda vuelta es negra, así que pierdes de nuevo. Pierdes $30$ veces seguidas sin interrupción. En ese momento empiezas a quejarte de que el juego está arreglado, pero el director del casino te informa de que no hay ninguna base sólida para pensar eso. Tantas pérdidas seguidas es poco probable, pero no imposible. E incluso si sospecharas que el juego es injusto, la probabilidad previa que asignas a esa posibilidad es subjetiva. ¿Y no es el futuro fundamentalmente impredecible de todos modos, debido a la problema de la inducción ? No hay ninguna razón lógica para no seguir jugando siempre.

Naturalidad en el Modelo Estándar

Suponga que es un físico experimental que mide los parámetros del Modelo Estándar. Resulta que hay dos ángulos que determinan la cantidad de violación del CP. En radianes y en binario, son $$\theta_1 = 1.01, \quad \theta_2 = 0.000000000000000000000000000000000000\ldots.$$ Estos son números medidos reales, $\theta_2$ es el término theta de la QCD. Hay más de $30$ ceros cuando se expresa en binario, y estamos encontrando nuevos ceros cada pocos años. La construcción de modelos es el acto de encontrar hipótesis que expliquen esto.

Incluso la gente que dice estar "por encima" del sucio acto de construir modelos lo sigue haciendo. Para inventar un ejemplo, tal vez un teórico de las cuerdas podría decir que el paisaje de las cuerdas resulta genéricamente en algunos ángulos extremadamente pequeños, por lo que no es tan extraño que $\theta_2$ es pequeño. Esto sigue siendo la construcción de un modelo, porque (1) la teoría de cuerdas no es más que un modelo extremadamente complicado, y (2) el modelo está siendo evaluado en su probabilidad dada una prioridad. (Por cierto, la masa de Higgs es aún más difícil de explicar, porque no se trata de números pequeños, sino de muchos números grandes que suman casi exactamente cero. No se puede arreglar simplemente tomando una prioridad que favorezca los valores pequeños de los parámetros. Esta distinción se suele eludir en la literatura popular).

O podría decirse que no hay necesidad de postular un mecanismo específico, simplemente hay algo diferente en $\theta_2$ que hace la comparación con $\theta_1$ irrazonable. En ese caso, sigues estando fundamentalmente de acuerdo con los constructores de modelos, porque, de nuevo, estás haciendo una afirmación basada en un previo inherentemente subjetivo. La única diferencia entre esta hipótesis y un modelo es que un modelo da una razón específica $\theta_2$ puede ser diferente.

La única forma de principio para evitar los argumentos de naturalidad es decir que no hay absolutamente ninguna explicación, ni ahora ni nunca, de por qué $\theta_2$ es pequeño; simplemente lo es. Pero esta es una posición difícil de adoptar para muchos. Si la toman, vamos al casino.

Naturalidad en la materia condensada

Los argumentos de naturalidad funcionan mejor cuanto más se sabe sobre un tema, porque las ideas previas son más precisas. Y sabemos mucho sobre la materia condensada a nivel fundamental, porque la teoría fundamental es simplemente la QED, la teoría física más precisamente probada de la historia. En algunas situaciones, casi podemos calcular las priores de forma semi-objetiva.

La naturalidad se utiliza constantemente en la física de la materia condensada de forma implícita. Por ejemplo, las cuasipartículas pueden venir con una "brecha", la energía que tienen en el momento cero. Los fonones se miden sin brecha, dentro del error experimental. Esto se explica diciendo que son los modos Goldstone asociados a la ruptura de la simetría traslacional. También se podría decir que los numerosos parámetros microscópicos que describen un sólido conspiran para que la brecha sea casualmente demasiado pequeña para detectarla, pero esa hipótesis es tan descabellada que los libros de texto ni siquiera se molestan en enunciarla. La motivación para explicar el pequeño "hueco" del bosón de Higgs es exactamente la misma.

El verdadero argumento en contra de la naturalidad, tal y como se utiliza en la física de partículas, es que podríamos saber demasiado poco sobre la física fundamental para que nuestras predicciones sean precisas. El problema no es que los modelos no resuelvan un problema real, sino que es tan improbable que estén en el camino correcto que intentarlo es una pérdida de tiempo. La confianza en nuestros conocimientos es una cuestión profundamente personal con una variación extrema entre las personas. En un extremo, algunos están convencidos de que todos los problemas del Modelo Estándar ya han sido resueltos: son sólo neutrinos estériles, axiones, el MSSM, un WIMP SUSY, más una GUT. En el otro extremo, algunos están convencidos de que pensar en $\theta_2$ no tiene sentido porque ni siquiera sabemos si la mecánica cuántica se mantendrá en el próximo experimento que hagamos. (Se podría ir más lejos, a la gente que piensa que ni siquiera sabemos si existe un mundo externo, pero en ese punto estarías en el departamento de filosofía).

El libro de Hossenfelder es una afirmación de que nuestros antecedentes pueden no ser tan precisos como se creía. En ese sentido, casi todo el mundo está de acuerdo con ella. Esto se oye constantemente en las charlas y en las reseñas más bien morosas en arXiv. Uno de los defensores originales de SUSY GUTs tiene ahora una descarada placa fuera de su oficina que declara que ha "abandonado la búsqueda de la verdad". Pero personalmente soy optimista: creo que todavía tiene algún valor pensar en la física fundamental durante el siglo XXI. Al igual que todas las opiniones previas son subjetivas, esta actitud también lo es.

1 votos

Gracias por esta precisión, es lo que necesita un experimentalista :)

0 votos

Creo que debería borrar mi respuesta en favor de la tuya, pero lo has mencionado... ¿Qué opinas?

1 votos

@Paul yo diría que te lo quedes. Es una pieza importante del puzzle.

4voto

AdrieanKhisbe Puntos 113

Como se menciona en el artículo de wikipedia (nótese que yo escribí y edité partes de esa página), la naturalidad es posiblemente una aplicación específica de la estadística bayesiana. En particular, la verosimilitud de un modelo puede escribirse como $$ p(\text{model}|\text{data}) \propto p(\text{data}|\text{model}) = \int p(\text{data}|\text{model}, x) \, p(x|\text{model}) d^nx $$ donde el primer factor -la probabilidad- mide la concordancia entre los datos y un punto del espacio de parámetros del modelo, y el segundo factor, $p(x|\text{model})$ es nuestra prioridad sobre los parámetros del modelo, $x$ .

La integral, que en realidad es la probabilidad promediada sobre nuestra prioridad, penaliza automáticamente los modelos no naturales. Si un modelo no es natural o está "ajustado", hace malas predicciones para los datos en la mayor parte de su espacio de parámetros. Por tanto, la probabilidad media es pequeña. Un buen modelo, en cambio, predice bien los datos sin un ajuste fino de sus parámetros, de modo que la probabilidad media es grande.

Por supuesto, esto depende de la elección de los parámetros a priori. Debe reflejar nuestra creencia sobre los parámetros antes de ver los datos. Desgraciadamente, en muchos casos es imposible construir una única prioridad que sea compatible con nuestro estado de conocimiento. Por lo tanto, hay que tener cuidado con la sensibilidad del resultado a los cambios de la prioridad dentro de una clase de prioridades que podrían reflejar razonablemente nuestro estado de conocimiento.

Nima nos dice que

la naturalidad como paradigma de la física de las partículas puede no ser útil para entender los problemas contemporáneos.

Esta es una observación de impar. Si queremos cuantificar la plausibilidad de los modelos contemporáneos, debemos utilizar la teoría de la probabilidad, que incorpora automáticamente una penalización por el ajuste fino/la falta de naturalidad. Por tanto, la naturalidad es un principio general de razonamiento, no un paradigma o principio ad hoc inventado para la física de partículas que podríamos descartar si no fuera útil.

¿Se ha demostrado que la naturalidad es útil para otros campos de la física que no sean la física de partículas o la alta energía?

Dado que la naturalidad no es más que la selección bayesiana de modelos, y su navaja de Occam automática, la respuesta es obviamente sí. No me cabe duda de que la selección bayesiana de modelos se ha utilizado en casi todas las ramas de la física.

0 votos

"El integrando penaliza automáticamente los modelos no naturales". Esto es bastante exagerado a partir de su ecuación, a menos que esto se deba a que $p(x|model)$ no permite modelos no naturales, y entonces el argumento es circular: "los modelos no naturales están penalizados porque nuestro priori lo penaliza"...

0 votos

Por favor, disculpen que haya habido un error tipográfico. Integrand debería haber dicho integral.

0 votos

No veo cómo eso resuelve el problema. La integral penaliza los "modelos no naturales" o no dependiendo de lo que pongas en el integrando...

2voto

Fernando Briano Puntos 3704

Esto debería ser realmente un comentario, ya que no puedo responder a la pregunta

En física, la naturalidad es la propiedad de que las relaciones adimensionales entre los parámetros libres o las constantes físicas que aparecen en una teoría física deben tomar valores "de orden 1" y que los parámetros libres no están afinados. Es decir, una teoría natural tendría relaciones de parámetros con valores como 2,34 en lugar de 234000 o 0,000234.

La exigencia de que las teorías satisfactorias sean "naturales" en este sentido es una corriente de pensamiento iniciada alrededor de los años 60 en la física de partículas. Es un criterio estético, no físico, que surge de la aparente falta de naturalidad del modelo estándar y de los temas más amplios del problema de la jerarquía, el ajuste fino y el principio antrópico. Sin embargo, tiende a sugerir una posible área de debilidad o desarrollo futuro para las teorías actuales como el Modelo Estándar, donde algunos parámetros varían en muchos órdenes de magnitud, y que requieren un amplio "ajuste fino" de sus valores actuales de los modelos en cuestión. La preocupación es que aún no está claro si estos valores aparentemente exactos que reconocemos actualmente, han surgido por casualidad (basados en el principio antrópico o similar) o si surgen de una teoría más avanzada aún no desarrollada, en la que estos resultan ser esperados y bien explicados, debido a otros factores que aún no forman parte de los modelos de la física de partículas.

He sido un físico de partículas experimental activo desde los años 60 y ahora en la jubilación la primera vez que noté el término "naturalidad" como se utiliza fue hace aproximadamente un año en una pregunta de la red como esta. Obviamente es un valor que preocupa a los teóricos que desarrollan teorías. Suena como una extensión numérica de La navaja de Occam

es el principio de resolución de problemas que establece esencialmente que "las soluciones más simples tienen más probabilidades de ser correctas que las complejas". Cuando se presentan hipótesis que compiten entre sí para resolver un problema, se debe seleccionar la solución con el menor número de supuestos. La idea se atribuye al fraile franciscano inglés Guillermo de Ockham (c. 1287-1347), filósofo y teólogo escolástico.

Puedo entender la preocupación de Nima Arkani-Hamed, que está desarrollando el amplituhedro . Ciertamente se puede defender con la navaja de Occam pero probablemente la naturalidad será un camino difícil :).

Ciertamente, la navaja de Occam es una herramienta que guía todas las disciplinas científicas, pero alguien más debería responder por la "naturalidad".

1voto

Paul Puntos 159

Sólo puedo recomendar el libro de Sabine Hossenfelder: "Lost in Math: How Beauty Leads Physics Astray" sobre este tema. Creo que todo lo que hay que decir sobre la naturalidad está escrito en ese libro. Ella argumenta que, al exigir que nuestra teoría fundamental tenga sólo parámetros naturales y ningún ajuste fino, suponemos saber qué números favorece la naturaleza.

EDIT: Para responder mejor a la pregunta: Es cuestionable que la naturalidad sea un concepto útil incluso en la física fundamental. Como todo modelo de física de grano más grueso debe ser derivable de las teorías más fundamentales, mientras que puede perder toda la naturalidad de la teoría fundamental (si es que existe en primer lugar), la naturalidad no tiene nada que decir sobre esos modelos. Por ejemplo, no hay ninguna razón por la que un modelo de materia condensada, que en principio tiene que ser derivable de la QFT, deba ser más natural en sus parámetros que la QFT, que ya tiene problemas de naturalidad sin SUSY.

0 votos

Este simple resumen del argumento revela malentendidos básicos sobre el significado de los priores y la probabilidad en la estadística bayesiana en ese libro.

1 votos

Se supone que la prioridad no es una "distribución subyacente" o un mecanismo físico a partir del cual se generan los parámetros. Se supone que refleja un estado de conocimiento o creencia sobre el parámetro.

0 votos

Por supuesto, existen retos y desacuerdos sobre la construcción de las priores apropiadas y su significado. Pero está claro que la comunidad bayesiana no los considera como algo que se pueda demostrar, y el libro no contiene ningún argumento o idea nueva al respecto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X