Este El artículo de 18 páginas parece bastante bueno como un relato histórico de quién fue responsable de qué.
En general, el impulso del rigor suele responder a la incapacidad de demostrar el tipo de resultados que se desean. Suele ser relativamente fácil demostrar que existen objetos con ciertas propiedades, pero se necesitan definiciones precisas para demostrar que no existe tal objeto. El ejemplo clásico de esto es el de los problemas no computables y las máquinas de Turing. Hasta que no te sientas y dices "esto precisamente y nada más es lo que significa ser resuelto por computación" es imposible probar que algo no es una computación, así que cuando la gente empieza a preguntarse "¿hay algún algoritmo que haga $ \ldots $ para preguntas donde la respuesta "debería ser" no, de repente necesitas una definición precisa. Cosas similares ocurrieron con el análisis real.
En el análisis real, como se mencionó en un excelente comentario, hubo un cambio en la concepción de la gente sobre la noción de función. Esta concepción ampliada de una función permite de repente construir una serie de funciones famosas de "contra-ejemplo". Estas a menudo requieren una comprensión razonablemente rigurosa del tema para construir o analizar. La más famosa es la función de Weierstrass, que no se puede diferenciar en ninguna parte. Si no se tiene una definición muy precisa de la continuidad y la diferenciabilidad, demostrar que esa función es una y no la otra es extremadamente difícil. La búsqueda de funciones extrañas con propiedades y combinaciones de propiedades inesperadas fue una de las fuerzas motrices para desarrollar concepciones precisas de esas propiedades.
Otro tema que interesaba mucho a la gente era el de las series infinitas. Hay un montón de resultados extraños que pueden surgir si no se tiene cuidado con las series infinitas, como muestra el famoso teorema de la cautela:
Teorema (Teorema de Reorganización de la suma): Deje que $a_n$ ser una secuencia tal que $ \sum a_n$ converge condicionalmente. Entonces por cada $x$ hay algunos $b_n$ que es un reordenamiento de $a_n$ de tal manera que $ \sum b_n=x$ .
Este teorema significa que hay que ser muy cuidadoso al tratar con sumas infinitas, y durante mucho tiempo la gente no lo fue y así empezó a derivar resultados que no tenían sentido. De repente, el enfoque habitual de manipulación algebraica libre para resolver sumas infinitas ya no estaba bien, porque a veces al hacerlo cambiaba el valor de la suma. En su lugar, se tuvo que desarrollar una teoría más rigurosa de manipulación de sumas, así como conceptos como la convergencia uniforme y absoluta.
Aquí hay un ejemplo de un problema que rodea un producto infinito creado por Euler:
Considere la siguiente fórmula: $$x \prod_ {n=1}^ \infty \left (1- \frac {x^2}{n^2 \pi ^2} \right )$$ ¿Esta expresión tiene sentido? Asumiendo que lo tiene, ¿esto equivale $ \sin (x)$ o $ \sin (x)e^x$ ? ¿Cómo puedes saber (nota que ambas funciones tienen los mismos ceros que esta suma, y la misma relación con su derivado)? Si no es igual a $ \sin (x)e^x$ (lo cual no es así, realmente es igual a $ \sin (x)$ ) ¿cómo podemos modificarlo para que lo haga?
Preguntas como esta eran muy populares en el siglo XIX, ya que los matemáticos estaban notablemente obsesionados con los productos y sumas infinitas. Sin embargo, la mayoría de las preguntas de esta forma requieren una comprensión muy sofisticada del análisis para poder ser manejadas (y no fueron manejadas particularmente bien por las herramientas del siglo anterior).