La pregunta es: si $f_i$ es una secuencia de funciones en $L^p$ convergentes a $f$ $g_i$ una secuencia en $L^q$ convergentes a $g$ muestran que $f_ig_i$ converge a $fg$ $L^1$ $p,q$ finito y $\frac{1}{p}+\frac{1}{q}=1$. ¿Este resultado si $p=1, q=\infty$?
Así que creo que me mostró la primera parte. $||f_ig_i-fg||_1=||f_ig_i-f_ig+f_ig-fg||_1\leq||f_ig_i-f_ig||_1+||f_ig-fg||_1 = ||f_i(g_i-g)||_1+||g(f_i-f)||_1\leq||f_i||_p||g_i-g||_q+||g||_q||f_i-f||_p$
(por el Titular de la desigualdad) que va a$0$$i\rightarrow\infty$.
Sin embargo, la segunda parte de la pregunta me lanza fuera porque yo no veo por qué esta prueba no funciona igual de bien para $p=1,q=\infty$. Me estoy perdiendo algo? ¿La segunda parte también?