Estoy intentando resolver el siguiente ejercicio del libro "Rudin's Principles of Mathematical Analysis" de Rudin: (Ex 4.1)
Supongamos que $f$ es una función real definida en $R^1$ que satisface $$\lim_{h\to 0}[f(x+h)-f(x-h)]=0$$ por cada $x\in R^1$ . ¿Implica esto que $f$ es continua?
La respuesta a esta pregunta es simplemente no, y se puede demostrar utilizando la función $f(x) = 1$ si $x\in \mathbb{Z}$ y $f(x) =0$ de lo contrario.
Sin embargo, estoy un poco confundido con este resultado, ya que obtengo lo contrario utilizando las definiciones de límites y continuidad. En particular, tengo la siguiente derivación:
Definir la función $$g(h) := f(x+h) - f(x-h)$$ para una x fija. Entonces la hipótesis implica que $$\lim_{h\to 0}g(h)=0.$$ Utilizando la definición de límite, tenemos que $\forall \varepsilon >0$ , $\exists \delta>0$ , de tal manera que $|g(h)| < \varepsilon$ y $|h|< \delta/2$ .
Ahora dejemos que $p, q \in \mathbb{R}$ . Supongamos que $p < q$ sin pérdida de generalidad. Definir $h := \frac{q-p}{2}$ , $x := \frac{q+p}{2}$ . Arreglar $\varepsilon >0$ . Entonces, para $$|f(q)- f(p)| = |f(x+h)-f(x-h)| < \varepsilon,$$ sabemos que $$|q-p| = |x+h-x+h| = 2 |h| < \delta.$$ Por lo tanto, $f$ es continua.
Mi pregunta es: ¿en qué parte de esta derivación estoy cometiendo un error?
Tenga en cuenta que ha habido otras preguntas relacionadas con este ejercicio, por ejemplo, véase este . Sin embargo, tengo una preocupación diferente, cuya solución creo que podría ser útil para otras personas.