28 votos

Famosos ejemplos de "serendipia" en las matemáticas del siglo XX

El término "serendipia" se usa comúnmente en la literatura para referirse a la evidencia histórica de que muy a menudo los investigadores hacen descubrimientos inesperados y beneficiosos por casualidad, mientras buscan algo más o completamente opuesto. Me pregunto si existen ejemplos famosos en las matemáticas del siglo XX donde los matemáticos hicieron descubrimientos notables mientras buscaban algo completamente diferente. Como topólogo, el primer ejemplo que me vino a la mente es el Whitehead manifold. En 1935, Whitehead descubrió la primera variedad abierta y contractible exótica (no homeomórfica a $\mathbb R^3$) mientras trataba de probar la conjetura de Poincaré. El polinomio de Jones podría ser otro. Supongo que podría haber una larga lista de descubrimientos anecdóticos. Pero se agradecerían referencias.

Editar Un poco de antecedentes sobre la motivación de mi pregunta. El bioquímico Yaqub identificó recientemente la serendipia en 4 tipos básicos (Walpoliana, Mertoniana, Bushiana, Stephaniana). Una referencia sería Serendipia: Hacia una taxonomía y una teoría. Las definiciones se dan en los comentarios de la respuesta de wlad. Pero tal vez la siguiente tabla tomada prestada de Yaqub sea más directa. Dado que la investigación de Yaqub cubre todos los campos de la ciencia, me preguntaba si lo mismo se aplica a las matemáticas del siglo XX y qué tipo(s) ocurren con más frecuencia en matemáticas. Introduce la descripción de la imagen aquí

15 votos

Esta pregunta ya fue hecha y respondida aquí: hsm.stackexchange.com/questions/13409

4 votos

Un ejemplo canónico de teoría analítica de números es el descubrimiento de la conexión con la teoría de matrices aleatorias debido a una conversación de té entre Montgomery y Dyson. Si nadie más publica al respecto, y la pregunta sigue abierta más tarde hoy, convertiré esto en una respuesta.

6 votos

@AlexandreEremenko Gracias por señalar eso. En ese post, la mayoría de los ejemplos no están en el campo de las matemáticas o son un poco antiguos. Pero hay de hecho dos ejemplos legítimos relacionados con el descubrimiento de Lorenz y la constante de Feigenbaum (proporcionados por ti). Estoy interesado en ver un poco más de ejemplos en matemáticas del último siglo.

38voto

kixx Puntos 2452

El descubrimiento de la dinámica caótica e "impredecible" en un sistema determinista por Edward Lorenz en 1963 fue un descubrimiento fortuito.

Lorenz lo describe de la siguiente manera:

“En un momento decidí repetir algunos de los cálculos para examinar lo que estaba sucediendo con más detalle. Detuve la computadora, escribí una línea de números que había impreso algún tiempo antes, y la puse a funcionar de nuevo. Bajé por el pasillo a tomar una taza de café y regresé después de aproximadamente una hora, durante la cual la computadora había simulado unos dos meses de clima. Los números que se estaban imprimiendo no tenían nada que ver con los antiguos. Inmediatamente sospeché de un tubo de vacío débil u otro problema informático, que no era raro, pero antes de llamar al servicio decidí ver exactamente dónde se había producido el error, sabiendo que esto podría acelerar el proceso de mantenimiento. En lugar de una ruptura repentina, descubrí que los nuevos valores al principio repetían los antiguos, pero poco después diferían en uno y luego en varios unidades en el último lugar decimal, y luego comenzaron a diferir en el penúltimo lugar y luego en el anterior. De hecho, las diferencias aumentaban más o menos de manera constante en tamaño cada cuatro días aproximadamente, hasta que toda semejanza con la salida original desapareció en algún lugar del segundo mes. Esto fue suficiente para decirme qué había ocurrido: los números que había escrito no eran los números originales exactos, sino los valores aproximados que habían aparecido en la impresión original. Los errores iniciales de redondeo eran los culpables; se estaban amplificando constantemente hasta que dominaron la solución."

Un primer plano del gráfico original de Lorenz muestra dos series temporales generadas con las mismas ecuaciones pero con condiciones iniciales ligeramente diferentes. Las series divergen de manera exponencial con el tiempo debido a la dependencia sensible de las condiciones iniciales.

Fuente: Chaos at Fifty.

9 votos

Esto ya fue preguntado y respondido aquí: hsm.stackexchange.com/questions/13409

4 votos

Me pregunto cuántas veces la gente ha intentado "arreglar" computadoras o códigos con errores porque la salida era genuinamente correcta pero parecía incorrecta. (Creo recordar vagamente algo similar sucedió con las integrales de Borwein, aunque puedo estar equivocado). En este caso al menos se dio cuenta de lo que estaba sucediendo.

0 votos

@AkivaWeinberger Eso me recuerda a este XKCD, donde mencionan ese mismo tema usado como una broma.

24voto

Como mencioné en el comentarios Un ejemplo particularmente sorprendente de serendipia es la conexión entre las teorías de las funciones L y las matrices aleatorias.

El IAS acogió un conferencia recientemente, conmemorando los 50 años del descubrimiento de esta conexión, y recomiendo encarecidamente el charlas de historia dadas por Montgomery, Sarnak y Keating.

La historia, parafraseada un poco, es la siguiente. A principios de los años 70, Hugh Montgomery (entonces estudiante de posgrado de Davenport), motivado por un planteamiento para resolver el problema del cero de Siegel, formuló lo que ahora se denomina la conjetura de correlación de pares de Montgomery para los ceros de $\zeta(s)$ . Según cuenta el propio Montgomery, cuando uno demostraba algo "nuevo" en la teoría analítica de números de la época, lo primero que hacía era preguntar a Atle Selberg si ya lo había demostrado y lo había dejado sin publicar en algún cajón. Así que Montgomery visitó a Selberg en el IAS para hablar con él al respecto.

Resultó que, de hecho, Selberg no había hecho ya lo que Montgomery le enseñó. Tras su conversación con Selberg, Sarvadaman Chowla llevó a Montgomery a tomar el té y le presentó a Freeman Dyson (para disgusto de Montgomery: Para entonces, Dyson ya era un físico famoso y Montgomery "no quería molestarle").

Dyson preguntó a Montgomery en qué estaba trabajando, y Montgomery dijo algo así como "Creo que la función de distribución de los espacios entre ceros de la función zeta de Riemann es $1 - (\frac{\sin \pi u}{\pi u})^2$ ...", a lo que Dyson habría respondido sin perder un segundo algo así como "... eso es la correlación de pares de los valores propios de matrices aleatorias del conjunto GUE". Ambas citas no son precisas -no creo que nadie de los que estaban allí recuerde con exactitud lo que se dijo-, pero no está muy lejos. Sugiero este enlace y la página 5 de este documento para consultar algunos relatos de divulgación científica sobre la conversación. Este artículo del IAS, compartido por Stopple en los comentarios también es muy bonito.

(En caso de que se pregunte por qué Dyson sabía esto: la teoría de matrices aleatorias comenzó como un enfoque para modelar estados de energía en núcleos de átomos pesados, y los físicos -incluido el propio Dyson- desarrollaron gran parte de la teoría inicial).

En cuanto a las matemáticas, supongamos RH y definamos

$$F(\alpha) = \frac{1}{N(T)} \sum_{\gamma,\gamma'\leqslant T} T^{i\alpha (\gamma - \gamma')} w(\gamma - \gamma'),$$

donde la suma corre sobre ordenadas $\gamma,\gamma'$ de ceros no triviales de $\zeta(s)$ en el intervalo $[0,T]$ , $w(t) = \frac{4}{4+t^2}$ es una función de peso explícita que debe considerarse como amortiguadora de los efectos de las grandes distancias $\gamma - \gamma'$ y $$N(T) = \sum_{\gamma \leqslant T} 1,$$ es la función de recuento de los ceros. $F$ debe considerarse como la transformada de Fourier normalizada de la distribución de $\gamma - \gamma'$ .

Montgomery probado que $$ F(\alpha) = |\alpha| + o(1),$$ uniformemente para $\epsilon \leqslant |\alpha| \leqslant 1 - \epsilon$ (hay algunos términos de orden inferior que estoy omitiendo en aras de la exposición), y conjeturado sobre la base de heurísticos que implican primo $k$ -tuplas que $$F(\alpha) = 1 + o(1),$$ uniformemente para $1 \leqslant \alpha \leqslant 1 + \delta$ para todos $\delta > 0$ .

Si se asume la conjetura de Montgomery y se aplica la inversión de Fourier, se obtiene que $$ \sum_{\substack{\gamma,\gamma' \leqslant T\\0 < \frac{\gamma - \gamma'}{2\pi/\log T} \leqslant \beta}} 1 \sim \frac{1}{N(T)}\int_0^\beta\bigg(1 - (\tfrac{\sin \pi u}{\pi u})^2\bigg) du, $$ que espero aclare la historia anterior. (Obsérvese que se divide $\gamma - \gamma'$ por $\frac{2\pi}{\log T}$ ya que es la separación media entre ceros para $\zeta$ que se deduce de $N(T) \sim \frac{1}{2\pi}T \log T$ .)

Si sustituye los ceros de $\zeta$ con valores propios de matrices GUE en el límite de dimensión grande, entonces era bien conocido un análogo de lo anterior. De hecho, los valores propios de las matrices GUE son un ejemplo a proceso determinante y su $n$ -Las correlaciones de nivel eran bien conocidas por los físicos. Montgomery especula, basándose en ello, que la distribución de ceros en la línea crítica es la misma que la de las matrices GUE, lo que suele denominarse "hipótesis GUE". Esta especulación cuenta con muchas pruebas numéricas de apoyo, debido a la obra de Andrew Odlyzko Por esta razón, la hipótesis GUE se denomina a veces ley de Montgomery-Odlyzko.

Hejhal calculado la triple correlación y Rudnick--Sarnak calculado el $n$ -(con un soporte de Fourier tan amplio como permitan los métodos actuales) para $\zeta(s)$ y demostró que concuerdan con la hipótesis GUE. Rudnick y Sarnak en realidad calculado $n$ -correlaciones de nivel para todos los ceros altos de los principales automórficos $L$ -y concuerdan con la GUE.

Esta conexión ha resultado fructífera en más aspectos de los indicados anteriormente. Los dos ejemplos más destacados son:

  1. Las conjeturas de densidad de Katz--Sarnak. Motivado por su trabajo sobre análogos de campos de funciones, Katz y Sarnak conjeturaron que la distribución baja de ceros (es decir, los ceros con ordenada imaginaria $\ll \frac{1}{\log \mathfrak{q}_f}$ donde $\mathfrak{q}_f$ es el conductor de $L(s,f)$ y $f \in \mathcal{F}$ se extiende sobre alguna "familia" automórfica) de $L$ -depende únicamente de un tipo de simetría asociado a $\mathcal{F}$ que puede ser unitaria, simpléctica u ortogonal (impar/par) y coincide con la estadística correspondiente para conjuntos de matrices aleatorias. Se puede considerar lo anterior como un caso especial de estas conjeturas, ya que $t \mapsto \zeta(1/2 + it)$ puede considerarse una familia continua de $L$ -parametrizadas por $t$ con simetría de tipo unitario. Un resultado seminal sobre estas conjeturas es el trabajo de Iwaniec--Luo--Sarnak, donde se demostraron estas conjeturas para muchas familias y funciones limitadas en banda con soporte de Fourier suficientemente pequeño.
  2. Las conjeturas del momento Keating--Snaith. Puesto que el polinomio característico de una matriz desaparece en sus valores propios, mientras que $\zeta(s)$ desaparece (obviamente...) en sus ceros, cabe preguntarse si $t \mapsto \zeta(\tfrac12 + it)$ podría modelarse mediante el polinomio característico de una matriz aleatoria. Keating y Snaith utilizó esta idea para generar conjeturas sobre los momentos de $\zeta(s)$ calculando los momentos de los polinomios característicos en el conjunto CUE [que es un análogo de GUE donde los valores propios están en el círculo unitario complejo en lugar de la recta real], y comparando con $\zeta(s)$ . Esta idea es sólida y aplica a momentos en las familias Katz--Sarnak.

3 votos

Gran respuesta con muchos enlaces útiles. También está esta exposición publicada por IAS: ias.edu/ideas/2013/primes-random-matrices

0 votos

@Stopple: ¡Gracias por compartir, es un artículo muy interesante que no había visto antes. Lo he añadido a la respuesta.

16voto

Idan K Puntos 10037

[Siéntete libre de sugerir o aplicar mejoras a esta respuesta; es Comunidad Wiki]

El Aprendizaje Automático es sin duda un ejemplo de serendipia en las matemáticas del siglo XX, pero probablemente no lo que la gente tenía en mente. El hecho de que a veces se pueda hacer solo con un ordenador lo convierte en algo tan autónomo como el resto de las matemáticas:

Tomamos un clasificador lineal (SVM, regresión logística) o regresión lineal, que tiene una baja precisión en la mayoría de los problemas, y luego introducimos una simple no linealidad, haciendo que la precisión en muchas tareas difíciles pase de casi un 0% a más de un 99%.

Después intentamos aprender la no linealidad usando descenso de gradiente, y obtenemos Perceptrones Multicapa, e iteramos esto llevando al descubrimiento del Aprendizaje Profundo del siglo XXI.

Es serendipitous porque:

  • Una no linealidad tiene un efecto positivo dramático.
  • El algoritmo de aprendizaje es Descenso de Gradiente Estocástico, que a menudo se considera muy rudimentario.
  • Solo encuentra mínimos locales para las funciones de pérdida, pero de alguna manera esto no es un problema.
  • Aumentar el número de variables libres, o el número de "capas", en realidad mejora la precisión. Creo que antes se esperaba que tuviera el efecto contrario.

Actualmente, los algoritmos SOTA para la inteligencia artificial en juegos de computadora/tablero, traducción entre idiomas, chatbots, automatización de trabajos de ilustración, etc. utilizan estos enfoques.

2 votos

Gracias. Esta es sorprendentemente buena respuesta. Creo que puede arrojar algo de luz sobre la investigación acerca de cuantificar el papel de la serendipia o estimular la serendipia para los investigadores humanos. Tenga en cuenta que el bioquímico Yaqub obtuvo una subvención de 1.7 millones de dólares estadounidenses para cuantificar el papel de la serendipia en la ciencia. Identificó la serendipia en 4 tipos básicos (Walpoliana, Mertoniana, Bushiana, Stephaniana) junto con cuatro mecanismos de la serendipia (liderada por la teoría, liderada por el observador, nacida del error, emergente de la red). Aquí hay una referencia sciencedirect.com/science/article/pii/S0048733317301774.

0 votos

Me pregunto si tus 4 puntos clave pueden de alguna manera relacionarse con los 4 tipos básicos de Yaqub. "Serendipia walpoliana: descubrimiento de cosas que los descubridores no estaban buscando. Serendipia mertoniana donde el descubrimiento puede llevar a la solución de un problema dado a través de una ruta inesperada, a diferencia del tipo más tradicional de serendipia donde el descubrimiento lleva a la solución de un problema completamente diferente. El tipo bushiano es que el descubrimiento lleva a una solución no buscada porque la investigación no estaba dirigida, o no era investigación en absoluto."

0 votos

"El descubrimiento stephaniano sirve para despertar la curiosidad de uno, aunque no resuelva directamente un problema inmediato, y mantiene el interés hasta que resuelve un problema posterior." Supongo que la comparación puede dar algunas pistas sobre cómo funciona el cerebro humano y viceversa.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X