3 votos

Confusión en los Principios del Análisis Matemático de Rudin, Ex 4.1

Estoy intentando resolver el siguiente ejercicio del libro "Rudin's Principles of Mathematical Analysis" de Rudin: (Ex 4.1)

Supongamos que $f$ es una función real definida en $R^1$ que satisface $$\lim_{h\to 0}[f(x+h)-f(x-h)]=0$$ por cada $x\in R^1$ . ¿Implica esto que $f$ es continua?

La respuesta a esta pregunta es simplemente no, y se puede demostrar utilizando la función $f(x) = 1$ si $x\in \mathbb{Z}$ y $f(x) =0$ de lo contrario.

Sin embargo, estoy un poco confundido con este resultado, ya que obtengo lo contrario utilizando las definiciones de límites y continuidad. En particular, tengo la siguiente derivación:

Definir la función $$g(h) := f(x+h) - f(x-h)$$ para una x fija. Entonces la hipótesis implica que $$\lim_{h\to 0}g(h)=0.$$ Utilizando la definición de límite, tenemos que $\forall \varepsilon >0$ , $\exists \delta>0$ , de tal manera que $|g(h)| < \varepsilon$ y $|h|< \delta/2$ .

Ahora dejemos que $p, q \in \mathbb{R}$ . Supongamos que $p < q$ sin pérdida de generalidad. Definir $h := \frac{q-p}{2}$ , $x := \frac{q+p}{2}$ . Arreglar $\varepsilon >0$ . Entonces, para $$|f(q)- f(p)| = |f(x+h)-f(x-h)| < \varepsilon,$$ sabemos que $$|q-p| = |x+h-x+h| = 2 |h| < \delta.$$ Por lo tanto, $f$ es continua.

Mi pregunta es: ¿en qué parte de esta derivación estoy cometiendo un error?

Tenga en cuenta que ha habido otras preguntas relacionadas con este ejercicio, por ejemplo, véase este . Sin embargo, tengo una preocupación diferente, cuya solución creo que podría ser útil para otras personas.

2voto

dmay Puntos 415

El error está en "Por lo tanto, $f$ es continua". No hay nada antes de esa afirmación que la justifique. Demostrar que $f$ es continua significa demostrar que, para cada $x\in\mathbb R$ y cada $\varepsilon>0$ Hay un $\delta>0$ tal que $\lvert h\rvert<\delta\implies\bigl\lvert f(x+h)-f(x)\bigr\rvert<\varepsilon$ y usted no lo ha demostrado.

2voto

AOrtiz Puntos 38

Creo que lo que te confunde es que has mostrado algo que parece continuidad, pero que en realidad no lo es. Para mostrar que $f$ es continua, tendríamos que demostrar que $f$ es continua en $x$ para cada $x$ . Eso implicaría demostrar que $\pmb{|f(x+h)-f(x)|}$ puede hacerse arbitrariamente pequeño tomando $h$ suficientemente pequeño.

Esto es lo que su prueba no muestra: en su lugar demostró que $\pmb{|f(x+h)-f(x-h)|}$ puede hacerse arbitrariamente pequeño tomando $h$ suficientemente pequeño, que en realidad es sólo la condición $$\lim_{h\to0}[f(x+h)-f(x-h)] = 0.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X