Hay una buena probabilidad de que yo soy más de complicar esta.
Si $(f_n)$ es una secuencia de funciones reales que convergen uniformemente en $[0,1]$ a una función $f$, y si $f_n$ continua en$x_n \in [0,1]$$x_n \to x$, no se sigue que la $f$ es continua en a $x$?
Así que no voy a escribir de todo, pero mi intento de prueba esencialmente va:
$|f(x)-f(y)| \le |f(x)-f_n(x)|+ |f_n(x)-f_n(x_n)| + |f_n(x_n)-f_n(y)| +|f_n(y)-f(y)|$ por el triángulo de la desigualdad.
El primer y último términos puede hacerse arbitrariamente pequeña por la convergencia de $f_n$$f$, y, en particular, convergencia uniforme para que el último término.
Ahora me la banda de rodadura con temor, ya que cometió un error similar en un problema diferente. Si puedo obligado el segundo término que, sin duda, puedo obligado el tercero desde que puedo elegir cómo cerrar $y$ necesitan ser $x$. Pero no estoy seguro de que puedo utilizar la continuidad de $f_n$ $x_n$ solo para mostrar el segundo término puede hacerse arbitrariamente pequeña, ya que cualquier $\delta$ dependerá $n$, y, por supuesto, $n$ aumenta a medida $x_n \to x$. Supongo que tengo que usar la convergencia uniforme de $f_n$, pero no estoy seguro de cómo. ¿Cómo debo proceder? Alternativamente, la proposición puede ser falso en el que por favor, hágamelo saber sin estropear el contraejemplo.