4 votos

$f: [0,\infty) \to \mathbb{R}$ es continua y $\displaystyle \lim_{x \to \infty}f(x) = L < \infty$. Demostrar que $f$ es uniformemente continua.

Supongamos que $f: [0,\infty) \to \mathbb{R}$ es una función continua y $\displaystyle \lim_{x \to \infty}f(x)$ existe. Demostrar que $f$ es uniformemente continua en a $[0,\infty)$.

Aquí está mi solución, pero debido a que el problema se ha dado en un concurso de matemáticas programa de preparación me temo que hay algún punto que me puede estar faltando.

Desde $\displaystyle \lim_{x \to \infty}f(x)$ existe, existe $L \in \mathbb{R}$ tal forma que:

$\forall \epsilon>0, \exists M>0 \text{ such that } x > M \implies |f(x)-L|<\epsilon/2$

$\forall \epsilon>0, \exists M>0 \text{ such that } y > M \implies |f(y)-L|<\epsilon/2$

Por lo tanto, $\forall x,y \in (M,\infty)$ hemos demostrado que: $|f(x)-f(y)|<\epsilon$.

Ahora, consideremos $f$$[0,M]$. Desde $[0,M]$ es un intervalo compacto y $f$ es continua, $f$ es uniformemente continua en a $[0,M]$:

$\forall \epsilon>0, \exists \delta_1>0, \forall x,y \in [0,M]: |x-y|<\delta_1 \implies |f(x)-f(y)|<\epsilon$.

Ahora vamos a centrar nuestra atención en $x=M$.

Desde $f: [0,\infty) \to \mathbb{R}$ es continua, es continua en a$x=M$. Por lo tanto:

$\epsilon>0, \delta_2>0, \forall x: |x-M|<\delta_2 \implies |f(x)-f(M)|<\epsilon/2$

Así que, para cualquier $x,y \in (M-2\delta_2,M+2\delta_2)$ tenemos $|f(x)-f(y)|<\epsilon$

Ahora bien, si establecemos $\delta=\min\{\delta_1,\delta_2\}$ vemos que todas las $3$ de los casos por encima de convertirse en verdaderos y llegamos a la conclusión de que $\forall x,y \in [0,\infty): |x-y|<\delta \implies |f(x)-f(y)|<\epsilon$. Esto demuestra que $f$ es uniformemente continua en a $[0,\infty)$.

Es mi falta de sentido considerar una prueba?

2voto

Martin Murphy Puntos 1210

¿Cometió un error en "... para cualquier$x, y \in (x-2\delta_2, x+2\delta_2)$ ..."? Porque M'd desapareció. Pero creo que ya casi estás allí.

Vale la pena probar esto con secuencia. Si el resultado es falso, entonces hay$\epsilon>0$ y secuencias$x_n$ y$y_n$ de manera que

$$|x_n - y_n| < 1/n$ $ y$$|f(x_n)-f(y_n)|\geq \epsilon.$ $

La hipótesis muestra que$y_n$ y$x_n$ están limitados, y Bolzano Weierstrass da una contradicción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X