Actualmente estoy estudiando para un análisis de examen de calificación, y este problema ha sido que me molesta: Supongamos que tenemos una secuencia $\{f_n\}$ $L^2(\mathbb{R})$ tal que $\sum_{n=1}^{\infty}||f_n||_2^2<\infty$ $\sum_{n=1}^{\infty} f_n(x)=0$ para casi todas las $x\in\mathbb{R}$. A continuación, para cada $g\in L^2(\mathbb{R})$, $\sum_{n=1}^{\infty}\int_{\mathbb{R}}f_n(x)g(x)d\mu(x)$ existe y es igual a cero.
Mi primer pensamiento fue el uso de Cauchy-Schwarz, pero el problema es que la norma de $f_n$ es el cuadrado de la suma anterior. Mi otra idea era probar y usar algo como el Teorema de Convergencia Dominada en una función de $h_m(x)=\sum_{n=1}^{m}f_n(x)$, pero creo que me estoy olvidando de algo fácil acerca de la relación entre el$|f_n(x)|$$||f_n||_2$. Los punteros se agradece. Gracias de antemano!