Publiqué un hilo sobre cierto problema en el que estaba trabajando y surgió esta laguna en mis conocimientos, considere por ejemplo la función $g: (0,\infty)\to \mathbb R $ para lo cual $g\left(x\right)\cdot g\left(\frac{1}{x}\right)<0$ para cada $0<x1$ y $g(x)$ es continua en $1$ .
Así que la forma en que definimos la continuidad es
".. para cada $ > 0$ existe un $ > 0$ tal que para cada $|x a| < $ tenemos $| f(x) f(a)| < $ ."
Por tanto, cuando calculo el límite de la expresión anterior cuando x tiende a 1, y llego a que $g(x)^2$ 0, ¿cómo puedo justificar el uso de la desigualdad dada anteriormente? porque x PUEDE ser 1, y si f(1) es realmente 1, no no tiende a 1 entonces no puedo usar la desigualdad? ¿No es correcta mi forma de verlo? También pensé en una posibilidad, que como sólo calculo el límite y no la expresión real, ¡obtendría un límite positivo para una función que no puede ser positiva! así que si asumo que f(1) no es 0, llegaría a una contradicción.. Pero aún no me aclaro con los límites de funciones continuas y la diferencia entre el valor del límite y la expresión en el punto al que tiende x..