6 votos

Demuestra que $\frac{1}{x^2}$ es uniformemente continua en $[1,\infty)$ pero no en $(0,1)$.

Demuestra que $\frac{1}{x^2}$ es uniformemente continua en $[1,\infty)$ pero no en $(0,1)$.

Prueba

En $[1,\infty)$:

$$\left|f(x) - f(y)\right| = \left| \frac{1}{x^2} - \frac{1}{y^2} \right| = \frac{(x+y)\left|x -y\right|}{x^2y^2} = \left(\frac{1}{xy^2} + \frac{1}{x^2y}\right)\left|x-y\right|\leq 2 \left|x-y\right| $$

Por lo tanto, $f$ es una función Lipschitz en $[1,\infty)$, lo que implica uniformidad de continuidad.

En $(0,1)$::

Elija $\epsilon_0 = 1$ y considere las secuencias definidas por $x_n = \frac{1}{\sqrt{n}}$ y $y_n = \frac{1}{\sqrt{n+1}}$. Vemos que $\lim(x_n - y_n) = 0$ pero

$$\left|f(x_n) - f(y_n)\right| = \left|n - (n+1)\right| = 1$$

por lo tanto, $f$ no es uniformemente continua en $(0,1)$.


Por favor comente sobre la validez, legibilidad y/o estilo. Gracias.

0 votos

Con una lectura rápida me parece bien. Esto podría ayudar con la intuición y llevar a una respuesta algo más breve. math.stackexchange.com/questions/2540090/…

0 votos

Una prueba más indirecta de la primera parte: $ f $ se extiende a una función continua en la compactificación de un punto $ [1, \infty] $, y por lo tanto la extensión es uniformemente continua; y luego esto pasa al subespacio $ [1, \infty) $.

2voto

Michael Hardy Puntos 128804

La única crítica que tendría es que el uso de secuencias parece complicar las cosas más de lo necesario.

Para $0

  • $0
  • $|x-y| \to 0$ cuando $x\to0$ y
  • $|f(x)-f(y)|=1.$

Eso es esencialmente lo mismo que hiciste pero sin secuencias; es decir, si $x=\text{tu }x_n$ entonces $y$ definido aquí coincide con tu $y_n$.

0 votos

Quizás debería agregar que usar secuencias puede ser más fácil la primera vez, pero luego se puede reorganizar la prueba para que se lea como en esta respuesta.

0 votos

Entonces, déjame entender, tu forma de pensar al respecto: estás diciendo que para cualquier $\delta >0$ que tu elección de $x$ e $y$ garantiza que existe $|x - y| < \delta$ (esa es la parte del límite) y aún así tenemos $|f(x) - f(y)| = 1$. No se requiere secuencia. Parece mucho más limpio. Entonces, ¿cuándo es más conveniente usar secuencias?

1 votos

@Zduff: En general, no sé una regla general sobre cuándo es mejor usar secuencias, excepto esto: Cuando el problema se trata de secuencias.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X