Desde que empecé a aprender más o menos formalmente los fundamentos del cálculo, me encontré naturalmente con la definición de Riemann de la integral. Al principio consideré esta definición intuitiva, pero no realmente útil, ya que para obtener una expresión de forma cerrada, había que sumar una cantidad infinita de valores. Más adelante, un ejercicio me llevó a calcular una integral de Riemann, y a partir de la definición y la expresión de la suma de cuadrados, pude calcular el límite sin más que lo que había aprendido en la escuela.
Esto fue una revelación para mí, ya que hasta ahora había considerado la definición como un mero formalismo. Ahora sabía cómo daba resultados. La siguiente integral que intenté calcular de esta manera fue, por razones obvias $\sqrt {1-x^2}$ . Desgraciadamente, la suma me pareció intratable y me rendí.
Empecé a cuestionar de nuevo la utilidad de la definición. Si sólo sirve para funciones sencillas como los polinomios, ¿cómo pudimos descubrir que la integral de $\sin (x)$ es $-\cos (x)$ ? ¿Hemos utilizado la definición de Riemann o simplemente hemos dicho "la derivada de $-\cos (x)$ es $\sin (x)$ y por lo tanto su integral debe ser $-\cos (x)$ ?
Me gustaría conocer la teoría así como la historia que llevó a las tablas de integrales que tenemos hoy en día
Respuestas
¿Demasiados anuncios?Esta es una pregunta interesante y entiendo las implicaciones más amplias, pero me centraré en la afirmación de que el cálculo de una integral (definida) utilizando la definición básica como límite de las sumas de Riemann es intratable para todas las funciones, excepto las más simples.
Es cierto que el cálculo mediante el Teorema Fundamental del Cálculo es a menudo el enfoque más conveniente, pero llega un punto en el que encontrar la antiderivada en términos de funciones elementales también es intratable. Además, el listón para el cálculo a través de la definición básica quizás no sea tan alto como pareces creer.
Es de suponer que en su ejercicio ha computado algo así como
$$\int_0^1 t^2 dt = \lim_{n \to \infty}\frac{1}{n} \sum_{k=1}^n\left( \frac{k}{n}\right)^2 = \frac{1}{3}, $$ o, incluso más generalmente, $$\int_0^x t^2 dt = \lim_{n \to \infty}\frac{1}{n} \sum_{k=1}^n\left( \frac{kx}{n}\right) = \frac{x^3}{3}, $$
y esto fue facilitado por conocer
$$\sum_{k=1}^n k^2 = \frac{n(n+1)(2n+1)}{6}.$$
Ahora considere su ejemplo, $\sin x$ . Supongo que conoce propiedades básicas como $\cos 2x = 1 - 2 \sin^2 x$ y $\lim_{x \to 0} \sin x / x = 1.$ Posiblemente menos aparente es
$$\tag{1}\sum_{k=1}^n \sin (ky) = \frac{\sin \left(\frac{ny}{2} \right) \sin\left(\frac{(n+1)y}{2} \right)}{\sin\left(\frac{y}{2} \right)}.$$
Esta identidad puede derivarse de varias maneras, una de ellas es tomando la parte imaginaria de la suma geométrica $\sum_{k=1}^n (e^{iy})^k.$ Al igual que en el ejercicio en el que conocías la forma cerrada de la suma de los cuadrados, puedes utilizar $(1)$ para calcular
$$\int_0^x \sin t \, dt = \lim_{n \to \infty}\sum_{k=1}^n\sin \left(\frac{kx}{n} \right)\left(\frac{kx}{n} - \frac{(k-1)x}{n} \right) = \lim_{n \to \infty}\frac{x}{n}\sum_{k=1}^n\sin \left(\frac{kx}{n} \right).$$
Utilizando $(1)$ con $y = x/n$ tenemos
$$\begin{align}\frac{x}{n}\sum_{k=1}^n\sin \left(\frac{kx}{n} \right) &= \frac{x}{n}\frac{\sin \left(\frac{x}{2} \right) \sin\left(\frac{x}{2} + \frac{x}{2n} \right)}{\sin\left(\frac{x}{2n} \right)} \\ &= \frac{x}{n}\frac{\sin \left(\frac{x}{2} \right) \left[\sin\left(\frac{x}{2}\right)\cos\left(\frac{x}{2n}\right)+ \sin\left(\frac{x}{2n}\right) \cos\left(\frac{x}{2}\right)\right]}{\sin\left(\frac{x}{2n} \right)} \\ &= \frac{x\sin \left(\frac{x}{2} \right) \cos \left(\frac{x}{2} \right) }{n} + \frac{2\sin^2 \left(\frac{x}{2} \right) \cos\left(\frac{x}{2n}\right) }{\sin\left(\frac{x}{2n} \right)/ \frac{x}{2n} }\end{align}.$$
Ahora bien, si tomamos el límite como $n \to \infty $ vemos $ \frac{x}{2n} \to 0$ y
$$\int_0^x \sin t \, dt = \lim_{n \to \infty}\frac{x}{n}\sum_{k=1}^n\sin \left(\frac{kx}{n} \right) = 2\sin^2 \left(\frac{x}{2}\right) = 1 - \cos x = \cos 0 - \cos x.$$
Puede ser un poco fuera de tema, pero aquí es cómo usted puede rigoursouly introducir esas funciones trigonométricas y sus derivados (por lo que sus primitivas, así en este caso) de una manera compleja (juego de palabras).
Escribo esto en parte de memoria por lo que leí en Rudin, Análisis Real y Complejo (creo que está en el prólogo del libro).
En primer lugar, defina esta función :
$$\exp(z)=1+z+\dfrac {z^2} 2+\cdots+\dfrac {z^n} {n!}+\cdots$$ Esa función va de $\mathbb{C}$ a sí mismo. (Esta suma es normalmente convergente en cualquier conjunto compacto de $\mathbb{C}$ .)
Por el producto de series de Cauchy y la fórmula de Newton, podemos deducir la primera propiedad de esa función, que es $$\exp(a+b)=\exp(a) \exp(b).$$
Entonces, si definimos $e=\exp(1)$ entonces denotamos $\exp(z)=e^z$ desde $$e^{a+b}=\exp(a+b)=\exp(a) \exp(b)=e^ae^b.$$ (Nótese que se trata de una notación, "afortunadamente" es coherente con las reglas de cálculo de las potencias).
Entonces dejemos que $x \in \mathbb{R}$ entonces $|e^{ix}|^2=e^{ix} \overline{e^{ix}}=e^{ix}e^{-ix}=e^{ix-ix}=e^0=1$ .
Entonces definimos $\cos(x)=\Re(e^{ix})$ y $\sin(x)=\Im(e^{ix})$ Así que..: $e^{ix}=\cos(x)+i\sin(x)$ .
Pero $(e^{ix})'=\left(1+ix+\dfrac {(ix)^2} 2+\cdots+\dfrac {(ix)^n} {n!}+\cdots \right)'$ .
Ya que esa serie y la serie de las derivadas $(\frac {(ix)^k} {k!})'$ es normalmente convergente en $\mathbb{R}$ se puede deducir :
$$(e^{ix})'=ie^{ix}.$$
Pero entonces $(\cos(x))'+i(\sin(x))'=(e^{ix})'=-\sin(x)+i\cos(x)$ .
Al identificar, finalmente encontramos : $(\cos(x))'=-\sin(x)$ y $(\sin(x))'=\cos(x)$ .
PD : Por supuesto que se puede decir MUCHO más, he ido directamente a lo que quería explicar, recomiendo encarecidamente leer el prólogo mencionado al principio de esa respuesta, es una lectura muy interesante.
Ampliando los comentarios de Doug M y benguin: esta es una versión muy simplificada de la historia.
Gregory/Barrow/Newton demostraron (más o menos) el Teorema Fundamental del Cálculo con integral = área bajo la curva.
Sobre las fórmulas $\sin' = \cos$ , $\cos' = -\sin$ es realmente difícil decir quién demostró primero. ¿Tal vez Roger Cotes? Ver El cálculo de las funciones trigonométricas para más detalles y también ¿Cómo se descubrieron las derivadas de las funciones trigonométricas?
También es muy interesante: Algo de historia del cálculo de las Funciones trigonométricas incluye la prueba de Arquímedes de nuestra fórmula $$\int_0^\pi\sin = 2$$ que puede ser fácilmente generalizado (Arquímedes no lo hace) a $$\int_0^\alpha\sin x\,dx = 1 - \cos\alpha.$$ La sección sobre Pascal es igualmente interesante.
1 votos
En comentario a una de tus frases: siendo realistas, las expresiones de forma cerrada no son tan útiles. Si la integral de Riemann existe, puedes calcularla mediante una secuencia de aproximaciones construidas con particiones de tamaño finito que tienden a cero.
3 votos
La integral de Riemann se formalizó unos 200 años después del teorema fundamental del cálculo. Así, se demostró que $\int \sin x \;dx = -\cos x + c$ porque "la derivada de $- \cos x = \sin x$ mucho antes de que existiera la integral de Riemann.
2 votos
No estoy seguro de la historia, pero el teorema fundamental del cálculo es el teorema que conecta el "área bajo la curva" y los aspectos "antiderivados" de la integración. Así que podría valer la pena mirar la demostración del teorema fundamental del cálculo y la historia que hay detrás.