¿Cómo demuestro que $\sum_{n=1}^{\infty} \frac{x}{(1+x)^n}$ no converge uniformemente en $[0,\infty)$?
No sé cómo abordar este problema.
Gracias.
¿Cómo demuestro que $\sum_{n=1}^{\infty} \frac{x}{(1+x)^n}$ no converge uniformemente en $[0,\infty)$?
No sé cómo abordar este problema.
Gracias.
$\frac x{(1+x)^n}=\frac {x+1-1}{(1+x)^n}=\frac 1{(1+x)^{n-1}}-\frac 1{(1+x)^n}$ Podemos escribir la suma parcial es $1-\frac 1{(1+x)^n}$. Sólo tenemos que mirar la convergencia uniforme en $[0,+\infty)$ $f_n(x):=\frac 1{(1+x)^n}$. Converge pointwise a la función $x\mapsto \begin{cases}1&\mbox{ if }x=0\\\ 0 &\mbox{ if }x>0\end{cases}$, que no es continua. Así que la convergencia no puede ser uniforme en $[0,+\infty)$.
Este es casi el mismo como Davide' respuesta: vamos $$f_n(x)={x\over (1+x)^n},\ n\in\Bbb N^+;\ \ \text{ and }\ \ f(x)= \sum\limits_{n=1}^\infty {x\over(1+x)^n}.$$ Since, for $x>0$, the series $\sum\limits_{n=1}^\infty {1\over(1+x)^n}$ is a Geometric series with $r={1\over 1+x}$: $$ f(x)=x\sum_{n=1}^\infty {1\over(1+x)^n} =x\cdot{ 1/(1+x)\más de 1\bigl(1/(1+x)\bigr)} =x\cdot{1\over x}=1, $$ para $x>0$.
Como $f(0)=0$, podemos ver que $f(x)$ converge pointwise a una función discontinua en $[0,\infty)$. Desde un límite uniforme de una suma de funciones continuas es continua, y como cada plazo $f_n$ es continua en a $[0,\infty)$, se deduce que el $f(x)$ no converge uniformemente en $[0,\infty)$.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.