Digamos que estaba tratando de encontrar la derivada de $x^2$ usando la diferenciación desde los primeros principios. El argumento usual sería algo así:
Si $f(x)=x^2$, entonces \begin{align} f'(x) &= \lim_{h \to 0}\frac{(x+h)^2-x^2}{h} \\ &= \lim_{h \to 0}\frac{2hx+h^2}{h} \\ &= \lim_{h \to 0} 2x+h \end{align} A medida que $h$ se acerca a $0$, $2x+h$ se acerca a $2x$, por lo que $f'(x)=2x$.
A lo largo de este argumento, asumí que $$ \lim_{h \to 0}\frac{f(x+h)-f(x)}{h} $$ era un objeto realmente significativo, que el límite realmente existía. Realmente no entiendo qué justifica esta suposición. Para mí, a veces la suposición de que un objeto está bien definido puede llevarte a sacar conclusiones incorrectas. Por ejemplo, asumiendo que $\log(0)$ tiene sentido, podemos concluir que $$ \log(0)=\log(0)+\log(0) \implies \log(0)=0 \, . $$ Así que la suposición de que $\log(0)$ representaba algo significativo nos llevó a concluir incorrectamente que era igual a $0$. A menudo, para demostrar que un límite existe, lo manipulamos hasta que podemos escribirlo en una forma familiar. Esto se puede ver en las demostraciones de la regla de la cadena y la regla del producto. Pero a menudo parece que esa manipulación solo puede justificarse si sabemos que el límite existe en primer lugar. Entonces, ¿qué está realmente sucediendo aquí?
Como otro ejemplo, la regla de la cadena a menudo se enuncia como:
Supongamos que $g$ es diferenciable en $x$, y que $f$ es diferenciable en $g(x)$. Entonces, $(f \circ g)$ es diferenciable en $x$, y $$ (f \circ g)'(x) = f'(g(x))g'(x) $$
Si la prueba de que $(f \circ g)$ es diferenciable en $x$ simplemente consiste en calcular la derivada usando la definición de límite, entonces nuevamente me siento insatisfecho. ¿Esta computación no hace nuevamente la suposición de que $(f \circ g)'(x)$ tiene sentido en primer lugar?