121 votos

La motivación para el rigor del análisis real

Estoy a punto de terminar mi primer año de estudios de matemáticas en la universidad y he completado la secuencia básica de álgebra/cálculo lineal. He comenzado a mirar algunos análisis reales y he disfrutado mucho hasta ahora.

Una cosa que siento que me falta es motivación. Es decir, la diferencia de rigor entre la introducción habitual a la clase de cálculo y el análisis real parece ser bastante fuerte. Aunque aprecio el rigor por razones estéticas, tengo problemas para entender por qué fue necesaria la transición del estilo de cálculo de Euler del siglo XVIII a la rigurosa formulación de cálculo "delta-epsilon".

¿Hay algún libro que proporcione alguna motivación histórica para el desarrollo riguroso del cálculo? Tal vez algo que dé varios contraejemplos que ocurren cuando uno sólo está equipado con una formulación no rigurosa (es decir, de primer año de licenciatura) de cálculo. Por ejemplo, ¿hubo resultados que se creían verdaderos pero que resultaron ser falsos cuando se reforzaron los fundamentos del cálculo? Supongo que si alguien conoce buenos contra-ejemplos por sí mismo podría enumerarlos aquí también.

98voto

Stella Biderman Puntos 3809

Este El artículo de 18 páginas parece bastante bueno como un relato histórico de quién fue responsable de qué.

En general, el impulso del rigor suele responder a la incapacidad de demostrar el tipo de resultados que se desean. Suele ser relativamente fácil demostrar que existen objetos con ciertas propiedades, pero se necesitan definiciones precisas para demostrar que no existe tal objeto. El ejemplo clásico de esto es el de los problemas no computables y las máquinas de Turing. Hasta que no te sientas y dices "esto precisamente y nada más es lo que significa ser resuelto por computación" es imposible probar que algo no es una computación, así que cuando la gente empieza a preguntarse "¿hay algún algoritmo que haga $ \ldots $ para preguntas donde la respuesta "debería ser" no, de repente necesitas una definición precisa. Cosas similares ocurrieron con el análisis real.

En el análisis real, como se mencionó en un excelente comentario, hubo un cambio en la concepción de la gente sobre la noción de función. Esta concepción ampliada de una función permite de repente construir una serie de funciones famosas de "contra-ejemplo". Estas a menudo requieren una comprensión razonablemente rigurosa del tema para construir o analizar. La más famosa es la función de Weierstrass, que no se puede diferenciar en ninguna parte. Si no se tiene una definición muy precisa de la continuidad y la diferenciabilidad, demostrar que esa función es una y no la otra es extremadamente difícil. La búsqueda de funciones extrañas con propiedades y combinaciones de propiedades inesperadas fue una de las fuerzas motrices para desarrollar concepciones precisas de esas propiedades.

Otro tema que interesaba mucho a la gente era el de las series infinitas. Hay un montón de resultados extraños que pueden surgir si no se tiene cuidado con las series infinitas, como muestra el famoso teorema de la cautela:

Teorema (Teorema de Reorganización de la suma): Deje que $a_n$ ser una secuencia tal que $ \sum a_n$ converge condicionalmente. Entonces por cada $x$ hay algunos $b_n$ que es un reordenamiento de $a_n$ de tal manera que $ \sum b_n=x$ .

Este teorema significa que hay que ser muy cuidadoso al tratar con sumas infinitas, y durante mucho tiempo la gente no lo fue y así empezó a derivar resultados que no tenían sentido. De repente, el enfoque habitual de manipulación algebraica libre para resolver sumas infinitas ya no estaba bien, porque a veces al hacerlo cambiaba el valor de la suma. En su lugar, se tuvo que desarrollar una teoría más rigurosa de manipulación de sumas, así como conceptos como la convergencia uniforme y absoluta.

Aquí hay un ejemplo de un problema que rodea un producto infinito creado por Euler:

Considere la siguiente fórmula: $$x \prod_ {n=1}^ \infty \left (1- \frac {x^2}{n^2 \pi ^2} \right )$$ ¿Esta expresión tiene sentido? Asumiendo que lo tiene, ¿esto equivale $ \sin (x)$ o $ \sin (x)e^x$ ? ¿Cómo puedes saber (nota que ambas funciones tienen los mismos ceros que esta suma, y la misma relación con su derivado)? Si no es igual a $ \sin (x)e^x$ (lo cual no es así, realmente es igual a $ \sin (x)$ ) ¿cómo podemos modificarlo para que lo haga?

Preguntas como esta eran muy populares en el siglo XIX, ya que los matemáticos estaban notablemente obsesionados con los productos y sumas infinitas. Sin embargo, la mayoría de las preguntas de esta forma requieren una comprensión muy sofisticada del análisis para poder ser manejadas (y no fueron manejadas particularmente bien por las herramientas del siglo anterior).

20voto

Eagnaidh Mhòir Puntos 18

Un buen ejemplo motivador que tengo es el Función de Weierstrass que es continuo en todas partes pero diferenciable en ninguna. A lo largo de los siglos XVIII y XIX (hasta que se descubrió este contra-ejemplo) se pensó que cada función continua era también (casi en todas partes) diferenciable y se intentó un gran número de "pruebas" de esta afirmación. Sin una definición rigurosa de conceptos como "continuidad" y "diferenciabilidad", no hay forma de analizar este tipo de casos patológicos.

En la integración, una serie de funciones que no son integrables por Riemann (véase también aquí ) fueron descubiertos, allanando el camino para los Stieltjes y, más importante aún, para las teorías de integración de Lebesgue. Hoy en día, la mayoría de las integrales consideradas en matemáticas puras son integrales de Lebesgue.

Un gran número de estos casos, especialmente los relativos a la diferenciación, la integración y la continuidad, fueron factores que motivaron el establecimiento de un análisis riguroso.

Por último, el desarrollo de las matemáticas rigurosas a finales del siglo XIX y principios del XX cambió el enfoque de la investigación matemática. Antes de esta revolución, las matemáticas, especialmente el análisis, eran extremadamente concretas. Se investigaba una función específica o una clase de funciones -por ejemplo, las funciones de Bessel, las funciones elípticas, etc.- pero una vez que los métodos rigurosos expusieron la estructura subyacente de muchas clases y tipos de funciones diferentes, la investigación comenzó a centrarse en la naturaleza abstracta de estas estructuras. Como resultado, prácticamente toda la investigación en matemáticas puras de hoy en día es abstracta, y la principal herramienta de la investigación abstracta es el rigor.

11voto

polfosol Puntos 96

Algunas otras respuestas ya han proporcionado excelentes conocimientos. Pero veamos el problema de esta manera: ¿De dónde proviene la necesidad de rigor ? Creo que la respuesta se encuentra detrás de una palabra: contra-intuición.

Cuando alguien está desarrollando o creando matemáticas, en la mayoría de los casos necesita tener una intuición sobre lo que está hablando. No sé mucho sobre la historia, pero por ejemplo, apuesto a que la noción de derivativa fue introducida por primera vez porque necesitaban algo que expresara la "velocidad" o "aceleración" en movimiento. Quiero decir, primero hubo un fenómeno natural para el cual se desarrolló un concepto matemático. Estas matemáticas podían describir perfectamente la cosa con la que trataban, y los resultados coincidían con la expectativa/intuición. Pero con el paso del tiempo, surgieron algunos problemas nuevos que llevaron a resultados inesperados/contra-intuitivos. Así que sintieron la necesidad de proporcionar algunos conceptos más rigurosos (y en consecuencia, más abstractos). Por eso, cuanto más nos desarrollamos en matemáticas, más difícil se vuelve su intuición.

Un ejemplo clásico, como se menciona en otras respuestas, es la función de Weierstrass. Antes de conocer el cálculo, podemos tener alguna idea sobre la noción de continuidad así como de la pendiente, y esto nos ayuda a entender el cálculo más a fondo. Pero la función de Weierstrass es algo inesperado y difícil de imaginar, lo que nos lleva al hecho de que "a veces las matemáticas pueden no tener sentido, pero es verdad".

Otro ejemplo (relacionado de alguna manera) es la paradoja de Bertrand en la probabilidad. De la misma manera, podemos tener alguna intuición sobre la probabilidad incluso antes de estudiarla. Esta intuición es útil para entender los conceptos iniciales de probabilidad, hasta que nos enfrentamos a la paradoja de Bertrand y nos preguntamos, Oh... ¿qué podemos hacer acerca de que ?

Hay algunas buenas preguntas en este sitio y mathoverflow sobre algunos resultados contra-intuitivos en varios campos de las matemáticas, algunos de los cuales fueron el incentivo inicial para desarrollar matemáticas más rigurosas. Recomiendo echarles un vistazo también.

9voto

lhf Puntos 83572

Puedes disfrutar de estos libros. El primero es un clásico.

7voto

Daniel Evans Puntos 144

Enumero aquí algunos textos excelentes sobre el Análisis Real, échales un vistazo.

1)Análisis de la comprensión por Stephen Abbott

2) Análisis matemático real de Pugh

3) Contra-ejemplos en el análisis de Gelbaum

Para los que se inclinan por la historia pero son matemáticos, pueden intentar La galería de cálculo de William Dunham

Llegando a su pregunta de que había una necesidad de pruebas del delta de la épsilon, eche un vistazo a esto https://en.m.wikipedia.org/wiki/Non-standard_analysis

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X