6 votos

límite de los derivados de una función

Quiero que $f:(0,\infty)\rightarrow\mathbb R, x\mapsto\exp(-\frac1{x^2})$la suma de los derivados de % de $f$, así $\sum\limits_{n=0}^\infty f^{(n)}(x)$, converge a $0$, que $$\lim\limits_{x\rightarrow0}\sum\limits_{n=0}^\infty f^{(n)}(x)=0$ $

Es intuitivamente claro, pero tengo algunas cuestiones en escribirlos. ¿Puede alguien ayudar? ¡Gracias!

1voto

Pedro Tamaroff Puntos 73748

Usted puede probar los siguientes: $$\eqalign{ & y = \exp \left( { - \frac{1}{{{x^2}}}} \right) \cr & \log y = - \frac{1}{{{x^2}}} \cr} $$

Así que

$$y' = \frac{2}{{{x^3}}}\exp \left( { - \frac{1}{{{x^2}}}} \right)$$

Al igual:

$$y'' = \left( {\frac{2}{{{x^3}}} - \frac{3}{x}} \right)\left( {\frac{2}{{{x^3}}}\exp \left( { - \frac{1}{{{x^2}}}} \right)} \right)$$

Entonces, se puede demostrar que, para cualquier $k>0$

$$\mathop {\lim }\limits_{x \to 0} \frac{1}{{{x^k}}}\exp \left( { - \frac{1}{{{x^2}}}} \right) = 0$$

Luego resulta (tal vez por inducción) que los derivados serán combinaciones lineales de esa expresión va a hacer el trabajo - básicamente, vamos a

$$F(x) = \exp \left(-\frac 1 {x^2}\right) \sum_{k=1}^r\frac{a_k}{x^k}$$

y demostrar que el $F^{(n)}$ será del mismo tipo (producto de la regla y de la inducción).

AGREGAR: yo no detectar la $\infty$ en la serie. El hecho de que

$$\lim_{x \to 0}\sum_{k=0}^n f^{(k)}(x)=0 $$

para finitos $n$ no significa que

$$\lim_{x \to 0}\sum_{k=0}^\infty f^{(k)}(x)=0$$

Esto está relacionado con la noción de convergencia uniforme de la serie, lo que explica por qué el límite no puede ser evaluado termwise. Como Robert señalado, el límite podría ser interpretado como $$\int\limits_0^\infty {\exp \left( { - x - \frac{1}{{{x^2}}}} \right)dx} $$

en el que se evalúa a $\approx 0.293$

Se obtiene de la anterior por algunas series de Taylor de la manipulación,

Expanda la función como una serie de Taylor

$$f\left( {x + t} \right) = \sum\limits_{n = 0}^\infty {{f^{\left( n \right)}}\left( x \right)} \frac{{{t^n}}}{{n!}}$$

Multiplicar por $e^{-t}$ e integrar más de $(0,\infty)$:

$$\eqalign{ & \int\limits_0^\infty {{e^{ - t}}f\left( {x + t} \right)dt} = \sum\limits_{n = 0}^\infty {{f^{\left( n \right)}}\left( x \right)\frac{1}{{n!}}\int\limits_0^\infty {{t^n}{e^{ - t}}dt} } \cr & \int\limits_0^\infty {{e^{ - t}}f\left( {x + t} \right)dt} = \sum\limits_{n = 0}^\infty {{f^{\left( n \right)}}\left( x \right)\frac{1}{{n!}}n!} = \sum\limits_{n = 0}^\infty {{f^{\left( n \right)}}\left( x \right)} \cr} $$

La integral de la función $$\int\limits_0^\infty {\exp \left( { - t - \frac{1}{{{{\left( {x + t} \right)}^2}}}} \right)dt} $$

converge para cualquier $x$ y es continua por lo que podría ser razonable esperar que

$$\mathop {\lim }\limits_{x \to 0} \sum\limits_{n = 0}^\infty {{f^{\left( n \right)}}\left( x \right)} = \mathop {\lim }\limits_{x \to 0} \int\limits_0^\infty {\exp \left( { - t - \frac{1}{{{{\left( {x + t} \right)}^2}}}} \right)dt} = \int\limits_0^\infty {\exp \left( { - t - \frac{1}{{{t^2}}}} \right)dt} \approx 0.293$$

1voto

Jez Puntos 469

La serie $$ \sum_{n=0}^\infty f^{(n)}(x) $$ no converger, al menos para $x$ cerca de cero. De hecho, uno demuestra por inducción que $$ f^{(n)}(x)=P_n(1/x)f(x) \quad \forall \ x>0, \ n \in \mathbb{N}, $$ donde $\{P_n\}_{n \ge 0}$ es una secuencia de polinomios tales que el $\deg P_n=3n$ y $$ P_0(t)=1, \quad P_n(t)=2t^3 P_{n-1}(t)+P_{n-1}'(t) \quad \forall \ t \in \mathbb{R}, \ n \in \mathbb{N}. $$ Para cada $x>0$ $n \in \mathbb{N}$ hemos $$ q_n(x)=\frac{P_{n+1}(1/x)}{P_n(1/x)}=\frac{2}{x^3}+\frac{P_n'(1/x)}{P_n(1/x)}. $$ Así $$ \lim_{x \to 0+}q_n(x)=\infty. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X