5 votos

¿Cómo puedes demostrar absolutamente que una función tiene una representación de serie de potencias infinita?<html></html>

Estoy empezando a comprender la idea de una serie de potencias y la forma en que podemos "buscar" las constantes en una expansión de serie de Maclaurin. Sin embargo, lo que aún no entiendo es cómo sabemos que hay una representación infinita en primer lugar.

5 votos

No siempre lo hacemos. Hay ejemplos de funciones suaves que no admiten una serie de Taylor en un punto particular. Afortunadamente, la mayoría de tus funciones favoritas aparecen como soluciones a ecuaciones diferenciales en un punto ordinario, por lo tanto, son analíticas, lo que significa que hay una serie de potencias para ellas. Para obtener más información sobre funciones no analíticas, consulta math.stackexchange.com/q/189841/36530

2 votos

Esta es una pregunta muy importante ¡y no tiene una respuesta simple! Gran parte del estudio moderno del análisis comenzó como un intento de entender cuándo las funciones tienen expansiones en series de potencias y bajo qué condiciones esas series de potencias convergen.

0 votos

Se vuelve un poco más claro cuando se trabaja con números y funciones complejas. Tener una serie de potencias convergente en algún intervalo abierto de los números reales significa que la función se puede extender a una función compleja "analítica", que es relativamente fácil de definir.

3voto

Aram Puntos 1265

Tomado del primer capítulo del Análisis Complejo de Markushevich, Vol 1:

Una función $f(x)$ definida en un entorno de $x_0$ es analítica allí si y solo si

  1. $f(x) \in C^{\infty}$ en un entorno de $x_0$
  2. Existen números positivos $\delta$ y $M^{'}$, tal que para cualquier $x \in (x_0 - \delta, x_0 + \delta)$ la desigualdad: $$|f^k(x)| \leq M^{'} \dfrac{k!}{\delta^k}$$

Se cumple para cualquier $k \geq 0.

Ya que no puedo ver el interior del libro para enlazar desde google books, dejaré la prueba aquí.

Prueba: Supongamos que $f$ es analítica en $x_0$, esto significa que en algún entorno de $(x_0 - \varepsilon, x_0 + \varepsilon)$ tenemos $$f(x) = a_0 + a_1 (x-x_0) + a_2 (x-x_0)^2 + \dots$$

También sabemos que puede ser diferenciada término a término obteniendo $$f^{(k)}(x) = k!a_k + \dfrac{(k+1)!a_{k+1}}{1!}(x-x_0) + \dfrac{(k+2)!a_{k+2}}{2!}(x-x_0)^2 + \dots$$

Ahora, si $0 < 2\delta < \varepsilon$, si $|x-x_0| < 2\delta$, entonces la serie converge en $x$. Esto significa que $\lim\limits_{n\to \infty} a_n(2\delta)^n = 0$ (¿Por qué?).

O en otras palabras, el conjunto $\{a_n(2\delta)^n\}$ está acotado, lo que significa que tenemos un $M > 0$, tal que $M > |a_n(2\delta)^n|$ para todo $n.$

Pero ahora, si estamos en el intervalo $(x_0 - \delta, x_0 + \delta)$: $$|f^{(k)}(x)| \leq k!|a_k|+ \dfrac{(k+1)!|a_{k+1}|}{1!}\delta + \dfrac{(k+2)!|a_{k+2}|}{2!}\delta^2 + \dots$$

$$\leq k!\dfrac{M}{2\delta^k}+ \dfrac{(k+1)!}{1!}\dfrac{M}{(2\delta)^{k+1}} \delta + \dfrac{(k+2)!}{2!} \dfrac{M}{(2\delta)^{k+2}} \delta^2 + \dots$$

$$ = \dfrac{k!M}{(2 \delta)^k} \bigg[1 + \dfrac{k+1}{1!} \dfrac{1}{2} + \dfrac{(k+1)(k+2)}{2!} \dfrac{1}{2^2}+ \dots \bigg] $$

$$ = \dfrac{k!M}{2^k \delta^k} \bigg(1-\dfrac{1}{2}\bigg)^{-(k+1)} \quad \text{(¿Por qué?)}$$

$$ = 2M\dfrac{k!}{\delta^k}$$

Para terminar, solo pon $M^{'} = 2M$

Ahora, necesitamos probar en la otra dirección, supongamos que $f$ es infinitamente diferenciable en $(x_0 - \delta, x_0 + \delta)$ y se cumple la desigualdad para todas las derivadas de $f$ en ese intervalo. Expandiendo en una serie de Taylor con un resto de Lagrange obtenemos:

$$f(x) = f(x_0) + \dfrac{f^{(1)}(x_0)(x-x_0)}{1!} + \dfrac{f^{(2)}(x_0)(x-x_0)^2}{2!} + \dots + \dfrac{f^{(n+1)}(\xi)}{(n+1)!}(x-x_0)^{n+1}$$

Con $0 < |\xi - x_0| < |x-x_0|$. Aplicando 2 obtenemos que:

$$\bigg\lvert \dfrac{f^{(n+1)}(\xi)}{(n+1)!} \bigg\vert |x-x_0|^{(n+1)} \leq \dfrac{M(n+1)!}{\delta^{n+1}(n+1)!}|x-x_0|^{n+1} = M \bigg( \dfrac{|x-x_0|}{\delta} \bigg)^{n+1}$$

Pero esto significa que si $|x-x_0| < \delta$ cuando $n \rightarrow \infty$ el término de error tiende a $0$. Significa que $f$ es analítica allí.

Ambas condiciones son necesarias, si solo tuvieras ($1$) por ejemplo, no sería suficiente, ¡ya que hay funciones que son infinitamente diferenciables ($C^{\infty}$) pero que no tienen una representación infinita en series de Taylor en ningún punto! Esto se puede demostrar usando el Teorema de la Categoría de Baire, la afirmación adecuada sería:

El conjunto de funciones en $C^{\infty}$ que en ningún lugar son analíticas es de la segunda categoría.

Esto significa que las funciones en ningún lugar analíticas son un conjunto denso en el conjunto de funciones infinitamente diferenciables. Una prueba se puede encontrar en la Topología de Dugundji pág.$301$.

2 votos

Por ejemplo, $f: x-> exp(\frac{-1}{x^2})$ es $C^ $ en ]0, +[, pero se puede demostrar bastante fácilmente que tal función no tiene una expansión en series (usando la propiedad $a_n =\frac{f^{(k)}(0)}{k!}$)

2voto

Joe Manlove Puntos 550

En un nivel intuitivo, pensamos algo así: "Creo que entiendo los polinomios, pero todas esas otras funciones son súper confusas. ¿Hay alguna forma en la que podría pensar en esas otras cosas como 'grandes' polinomios o algo así?"

La respuesta es un poco complicada, pero en resumen es esto: ciertamente puedes intentarlo, a veces este enfoque de 'gran' polinomio es genial, a veces no funciona tan bien. Veamos por qué (Esto es la serie de Taylor, para MacLaurin con a=0).

si escribimos $$f(x) = a_0 + a_1 (x-a) + a_2 (x-a)^2 + \dots$$ entonces si reemplazamos $a$ descubrimos que $a_0 = f(a)$. Si diferenciamos ambos lados vemos que $$f'(x) = a_1 + 2a_2 (x-a) + 3a_3 (x-a)^2 + \dots$$ entonces si reemplazamos $a$ vemos que $a_1 = f'(a)$. Continuando este proceso encontramos que $$a_n = \frac{f^{(n)}(a)}{n!}.$$ Siempre podemos pensar en escribir un 'gran' polinomio (serie de Taylor) siempre y cuando todas las derivadas que necesitamos existan. (Esta es la parte que requiere que $f$ tenga infinitas derivadas continuas.)

El problema surge cuando intentamos usar esta serie para algo que no sea $a$. En $a$ sabemos que la serie converge ya que es solo $f(a) + 0$. Ahora necesitamos hacernos una pregunta difícil: ¿Hasta qué punto podemos alejarnos de $a$ antes de que las cosas se estropeen? La respuesta es el radio de convergencia de la serie. Por lo general encontramos esto con la prueba de la razón.

Si el radio es 0, lo cual sucede a veces, tenemos que abandonar el enfoque de la serie. Si el radio de convergencia es distinto de cero, llamamos a la función analítica en $a$ y podemos (¡con cuidado!) tratarla un poco como un polinomio realmente largo.

0voto

HappyEngineer Puntos 111

Ver este artículo de Wikipedia sobre funciones analíticas.

La condición de que exista una extensión analítica compleja de la función real $ f $ significa que hay un par de funciones, $ u, v $ de dos variables tal que:

$$ u (x,0) = f (x), v (x,0) = 0 \\ \frac {\partial u} {\partial x} = \frac {\partial v} {\partial y} \\ \frac {\partial u} {\partial y} = - \frac {\partial v} {\partial x} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X