Sea $I$ un intervalo en $\mathbb{R}$
Sea $f_n$ limitado en $H^1(I),$ entonces podemos extraer una subsecuencia como $f_n \rightarrow f$ fuertemente en $L^2(I)$
2- Deja $g_n$ limitado en $L^{\infty}(I)$ y podemos extraer una subsecuencia como $g_n \rightharpoonup g$ estrella débil en $L^{\infty}(I)$
3- y que $u_n$ como $u_n \rightharpoonup u$ débilmente en $H^1_0(I)$
mi pregunta es: Como podemos justificar que, cuando pasamos a un límite en la ecuación $g_n(x) f_n(x) = \dfrac{d u_n}{dx}$ obtenemos $g(x) f(x) = \dfrac{d u}{dx}$ ?