5 votos

Las series trigonométricas desaparecen implica que podemos "agrupar" elementos.

Definir $$ f_i(x) = A_i\sin(a_i x + \alpha_i) + B_i\cos(a_i x + \beta_i) $$ y supongamos que $$ \sum_{i=1}^\infty f_i(x) = \sum_{i=1}^\infty \left[A_i\sin(a_i x + \alpha_i) + B_i\cos(a_i x + \beta_i)\right] = 0 $$ para todos los $x\in \mathbb{R}$. Estoy leyendo una prueba en la que el autor afirma que si lo anterior es cierto, entonces el elemento $f_i \not\equiv 0$ cancelar en "grupos". Es decir, si $f_i\not\equiv 0$, entonces existe un subconjunto $I\subseteq \mathbb{N}$ contiene $i$ tal que $\lvert a_j\rvert$ es constante a lo largo de $j\in I$y $$ \sum_{j\in I}^\infty f_j(x) = 0 \qquad\forall x\in\mathbb{R}. $$ En el texto, esto es simplemente dijo que sin justificación. Mientras que el resultado hace algunas sentido, no es claro para mí por qué tiene que ser verdadera. Cómo puedo ir, se trata de probar esto? Ni siquiera estoy seguro de cómo ir sobre una prueba si la suma es finita, mucho menos infinito.

3voto

jmerry Puntos 219

En primer lugar, una simplificación: podemos deshacernos de algunas de las constantes, que expresan $f_i$ como un único desplazado de la onda sinusoidal. Eliminando todos los subíndices por conveniencia, \begin{align*}f(x) &= A\sin(ax+\alpha)+B\cos(ax+\beta)\\ &= A\sin(\alpha)\cos(ax) + A\cos(\alpha)\sin(ax) + B\cos(\beta)\cos(ax) - B\sin(\beta)\sin(ax)\\ &= (A\cos(\alpha)-B\sin(\beta))\sin(ax) + (A\sin(\alpha)+B\cos(\beta))\cos(ax)\\ &= C\cos(ax+\gamma)\end{align*} donde $C=\sqrt{\left(A\cos(\alpha)-B\sin(\beta)\right)^2+\left(A\sin(\alpha)+B\cos(\beta)\right)^2}=\sqrt{A^2+B^2+2AB\sin(\alpha-\beta)}$ e $\gamma$ es elegido de manera que $\cos\gamma=\frac{A\sin(\alpha)+B\cos(\beta)}{C}$ e $\sin(\gamma)=\frac{A\cos(\alpha)-B\sin(\beta)}{C}$.

Parte 1: Finito de sumas

Ahora, una prueba para el caso de una suma finita. Esta es una independencia lineal resultado; nos muestran que el complejo de funciones exponenciales $e_j(x)=\exp(i\alpha_j x)$ para los distintos real $\alpha_j$ son linealmente independientes. Para ello, utilizamos la Wronskian: $$W(x) = \begin{vmatrix}\exp(i\alpha_1x)&\exp(i\alpha_2x)&\cdots&\exp(i\alpha_nx)\\ i\alpha_1\exp(i\alpha_1x)&i\alpha_2\exp(i\alpha_nx)&\cdots&i\alpha_n\exp(i\alpha_nx)\\ \vdots&\vdots&\ddots&\vdots\\ (i\alpha_1)^n\exp(i\alpha_1x)&(i\alpha_2)^n\exp(i\alpha_2x)&\vdots&(i\alpha_n)^n\exp(i\alpha_nx)\end{vmatrix}$$ Tire de la exponenciales, y lo que queda es un determinante de Vandermonde. Tenemos $$W(x)=\exp\left(ix\sum_{j=1}^n \alpha_j\right)\cdot\prod_{1\le j< k\le n}(i\alpha_k-i\alpha_j)$$ Que nunca es cero, por lo tanto las funciones $e_j$ que entró en ella son linealmente independientes en cualquier intervalo. En orden para que la suma de ellos para ser idéntica a cero, cada coeficiente debe ser cero.

Volviendo a la forma real de senos y cosenos, el par $\exp(i\alpha x)$ e $\exp(-i\alpha x)$ corresponde a el par $\sin(\alpha x)$ e $\cos(\alpha x)$. Podemos descomponer todos los términos con el mismo (hasta firmar) la velocidad angular $\alpha$ en complejo exponencial de las partes, y la independencia lineal nos demostró nos dice que la suma de los coeficientes de $\exp(i\alpha x)$ e $\exp(-i\alpha x)$ deben ser cero si la función es cero.El finito versión de el resultado es true.

Parte 2: Infinitas sumas

Si las constantes $A_i$ e $B_i$ están restringidos suficiente, se puede obtener la convergencia uniforme. A continuación, en el interior del producto $\langle g,h\rangle = \lim_{M\to\infty}\frac1{2M}\int_{-M}^M f(x)g(x)\,dx$, $f_i$ e $f_j$ son ortogonales si tienen diferentes ángulos, y una estimación de la $2$-norma nos da lo que queremos.

Pero espera - no hay ninguna restricción en el enunciado del problema que yo veo. Y que permite algunos ejemplos patológicos, en la que podemos obtener pointwise convergencia empujando el mal comportamiento fuera de a $\infty$. Voy a construir ahora un ejemplo de ello, lo que demuestra el resultado reivindicado en falso.

Deje $c_k=\frac1{k!}$ - o, en realidad, cualquier suficientemente rápida descomposición de la secuencia. Vamos a construir nuestro suma en etapas, mediante la suma de los productos de la identidad en repetidas ocasiones. Para la primera etapa, vamos a $$g_1(x)=\sin(c_1x)$$ Eso es $f_1$. Para la segunda etapa, vamos a $$g_2(x) = \sin(c_1x)-\sin([c_1+c_2]x) = -2\sin\left(\frac{c_2}{2}x\right)\cos \left(\left[c_1+\frac{c_2}{2}\right]x\right)$$ Eso es $f_1+f_2$; $f_2(x)=-\sin([c_1+c_2]x)$. Para la tercera etapa, vamos a \begin{align*}g_3(x) &= -2\sin\left(\frac{c_2}{2}x\right)\cos \left(\left[c_1+\frac{c_2}{2}\right]x\right) + 2\sin\left(\left[\frac{c_2}{2}+\frac{c_3}{2}\right]x\right)\cos \left(\left[c_1+\frac{c_2}{2}\right]x\right)\\ &= 4\sin\left(\frac{c_3}{4}x\right)\cos \left(\left[\frac{c_2}{2}+\frac{c_3}{4}\right]x\right)\cos\left(\left[c_1+\frac{c_2}{2}\right]x\right)\end{align*} ¿Cómo podemos llegar desde $g_2$? Añadimos dos términos $-\sin\left(\left[c_1-\frac{c_3}{2}\right]x\right)$ e $\sin\left(\left[c_1+c_2+\frac{c_3}{2}\right]x\right)$. La cuarta etapa es \begin{align*}g_4(x) &= g_3(x)- 4\sin\left(\left[\frac{c_3}{4}+\frac{c_4}{4}\right]x\right)\cos \left(\left[ \frac{c_2}{2}+\frac{c_3}{4}\right]x\right)\cos\left(\left[c_1+\frac{c_2}{2}\right]x\right)\\ &= -8\sin\left(\frac{c_4}{8}x\right)\cos\left(\left[\frac{c_3}{4}+\frac{c_4}{8}\right]x\right)\cos \left(\left[ \frac{c_2}{2}+\frac{c_3}{4}\right]x\right)\cos\left(\left[c_1+\frac{c_2}{2}\right]x\right)\end{align*} Que cuatro nuevos términos $-\sin\left(\left[c_1+\frac{c_4}{4}\right]x\right)$, $\sin\left(\left[c_1+c_2-\frac{c_4}{4}\right]x\right)$, $\sin\left(\left[c_1-\frac{c_3}{2}-\frac{c_4}{4}\right]x\right)$, e $-\sin\left(\left[c_1+c_2+\frac{c_3}{2}+\frac{c_4}{4}\right]x\right)$.

Seguimos en esta línea, para $$g_k(x)=(-2)^{k-1}\sin\left(\frac{c_k}{2^{k-1}}x\right)\prod_{j=1}^{k-1}\cos \left(\left[\frac{c_j}{2^{j-1}}+\frac{c_{j+1}}{2^j}\right]x\right)$$ A partir de la estimación de $|\sin(t)|\le t$ e $|\cos t|\le 1$, obtenemos $|g_k(x)|\le c_kx$ para todos los $x$. Como $k\to\infty$ para cualquier fija $x$, que llega a cero.

No estamos muy de hacer con este; cuando nos desempaquetar $g_{k+1}-g_k$ a $2^{k-1}$ individual sine términos, cada uno de ellos tiene amplitud coeficiente de $1$. Si usamos esos como el $f_i$ directamente, las sumas parciales iba a cambiar tanto como $1$ por cada nuevo término, en puntos no muy lejos del origen.

Para evitar esto, hemos dividido cada uno de los nuevos sine términos en $g_{k+1}-g_k$ a $N=4^{k-1}$ trozos iguales, y agruparlos en bloques que se suma a $\frac1{N}(g_{k+1}-g_k)$. Por la estimación básica $|\sin t|\le 1$, la suma de la parte de dicho bloque en la mayoría de las $2^{k-1}\cdot\frac1{N}=2^{-k+1}$ en valor absoluto, de manera uniforme. Por los más fuertes, (cerca de cero) la estimación de $|\sin t|\le t$ e $|\cos t|\le 1$, \begin{align*}|g_{k+1}(x)-g_k(x)| &= \left|-(-2)^{k-1}\sin\left(\left[\frac{c_k}{2^{k-1}}+\frac{c_{k+1}}{2^{k-1}}\right]x\right)\prod_{j=1}^{k-1}\cos \left(\left[\frac{c_j}{2^{j-1}}+\frac{c_{j+1}}{2^j}\right]x\right)\right|\\ &\le (c_k+c_{k+1})x\end{align*} por lo que la suma de un bloque completo es en la mayoría de las $\frac1N (c_k+c_{k+1})x$ en valor absoluto. Tomando un bloqueo parcial y cualquier número de bloques completos, la diferencia entre los $g_k(x)$ y cualquier suma parcial de la $f_i$ entre $g_k$ e $g_{k+1}$ es en la mayoría de las $2^{-k+1}+(c_k+c_{k+1})x$. Esto va a cero, como se $k\to\infty$ para cualquier fija $x$.

Combinado con el anterior resultado que $g_k(x)\to 0$ pointwise, tenemos que $\sum_i f_i(x)$ converge pointwise a cero en el pleno de la línea real. También, por la $\alpha_i$, sólo un número finito de términos que se han angular coeficiente de $\alpha_i$, y se suma a los distinto de cero de la función $\sin(\alpha_i x)$. El resultado reivindicado falla.

Que en realidad no necesita $c_k$ a decaer rápidamente por la pointwise convergencia; basta para la $c_k$ a ir a cero. En su lugar, la rápida desintegración asegura que los diversos velocidad angular coeficientes son todos diferentes, y no tenemos accidental de la cancelación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X