Mi pregunta es demostrar eventualmente la siguiente desigualdad: para $f\in H^1(\mathbb{R})=\{f,f'\in L^2\}$ $$\|f\|_{L^\infty}\leq a\|f\|_{L^2}+\frac{1}{a}\|f'\|_{L^2}, \forall a>0.$$
Aquí están mis pensamientos:
1). La incrustación de Sobolev nos dice: $$ H^1(\mathbb{R})\hookrightarrow C^{0,1/2}(\mathbb{R}),$$ para $\Omega$ siendo un subconjunto compacto de $\mathbb{R}$ .
2). La cobertura en $C^{0,1/2}$ implica Converger en $L^\infty$ (¿todavía necesita un soporte compacto?)
3). Parece que ahora podemos tener $\|f\|_{L^\infty}\leq C\|f\|_{H^1}$ sobre cualquier subconjunto compacto.
Mi confusión es cómo eliminar el requisito de compacidad (¿teorema de convergencia dominado por Lebesgue?) y cómo demostrar la versión final de esa desigualdad?
Nuevos pensamientos :
Supongamos que $f_n=f \chi_{[-n.n]}$ entonces, a través de FTC, tenemos $$f_n(z)=\int^z_af'(s)ds+f(a),$$ aquí podemos elegir $a$ tal que $|f(a)|\leq \frac{1}{2n}\int_{-n}^n|f(s)|ds$ , entonces por la desigualdad de Cauchy-Schwartz, $$|f_n(z)|\leq \sqrt{2n}\|f'\|_{L^2}+\frac{1}{\sqrt{2n}}\|f\|_{L^2}.$$ Entonces intento aplicar el DCT, que no está permitido en este caso.