5 votos

Integral de Lebesgue en valor absoluto como diferencia va a cero

Supongamos que $f\in L^1(\mathbb{R},\mu)$. Demostrar que

$$\lim_{t\rightarrow 0}\int_\mathbb{R}|f(x)-f(x+t)|d\mu=0$$

Cuando veo un límite como esta, quiero mover el límite dentro del signo integral. Generalmente, esto se puede hacer por el teorema de convergencia monótona o el teorema de convergencia dominada. Pero aquí el límite es de $t\rightarrow 0$ en lugar de una secuencia de funciones con $n\rightarrow\infty$. ¿Qué podemos hacer?

2voto

Arash Puntos 6587

Trato de demostrar que para Riemann integrable funciones y acotada. La prueba de que funciona para funciones continuas.

Tenemos $\left|f(x)-f(x+t)\right|\leq |f(x)|+|f(x+t)|$ y por lo tanto está limitada por una función en $ L^1(\mathbb R,\mu)$.

Utilizando la Fatou lema, para todas las secuencias de $\{a_n\}$, podemos decir: $$ \limsup_{n\to\infty}\int_\mathbb R |f(x)-f(x+a_n)|~d\mu\leq \int_\mathbb R \limsup_{n\to\infty}|f(x)-f(x+a_n)|~d\mu $$ Ahora, para cada secuencia de $\{a_n\}$ convergentes a cero, tenemos la de arriba. Esto es suficiente para mostrar que los puntos de discontinuidad de $f$ tiene cero de la medida y de $f$ está acotada. Ahora, debido a que la función es Riemann integrable y acotado, podemos decir que es casi todos, donde continua la cual concluye la prueba.

1voto

Deje $ f \in {C_{c}}(\mathbb{R}) $. Definir un $ \mathbb{R} $-indexada secuencia $ (f_{t})_{t \in \mathbb{R}} $ $ \mathbb{C} $funciones con valores en $ \mathbb{R} $ por $$ \forall t \in \mathbb{R}, ~ \forall x \in \mathbb{R}: \quad {f_{t}}(x) \stackrel{\text{def}}{=} f(x + t). $$ Como está claro que $ f \in {L^{1}}(\mathbb{R}) $, la traducción de la invariancia de $ \mu $ rendimientos $ f_{t} \in {L^{1}}(\mathbb{R}) $, por lo tanto $ f - f_{t} \in {L^{1}}(\mathbb{R}) $, para todos los $ t \in \mathbb{R} $. Así, podemos definir una función de $ F: \mathbb{R} \to \mathbb{C} $ por $$ \forall t \in \mathbb{R}: \quad F(t) \stackrel{\text{def}}{=} \int_{\mathbb{R}} (f - f_{t}) \ d{\mu}. $$ Una vez que hemos demostrado que $ \displaystyle \lim_{n \to \infty} F(t_{n}) = 0 $ por cada secuencia $ (t_{n})_{n \in \mathbb{N}} $ $ \mathbb{R} $ que converge a $ 0 $, podemos concluir que $ \displaystyle \lim_{t \to 0} F(t) = 0 $, que es precisamente lo que queremos.

Comencemos nuestro argumento mediante la selección de una secuencia arbitraria $ (t_{n})_{n \in \mathbb{N}} $ $ \mathbb{R} $ que converge a $ 0 $. Deje $ M := \| f \|_{\infty} $ y $$ E := \bigcup_{n \in \mathbb{N}} \text{supp} \left( f_{t_{n}} \right) = \bigcup_{n \in \mathbb{N}} [\text{supp}(f) - t_{n}]. $$ Como $ (t_{n})_{n \in \mathbb{N}} $ es un almacén de secuencia y $ \text{supp}(f) $ es compacto, se sigue que $ E $ es un acotado medible subconjunto de $ \mathbb{R} $. Por la Desigualdad de Triángulo, obtenemos $$ \forall n \in \mathbb{N}: \quad |f - f_{t_{n}}| \leq |f| + |f_{t_{n}}| \leq |f| + M \cdot \chi_{E} \in {L^{1}}(\mathbb{R}), $$ lo que muestra que $ (f - f_{t_{n}})_{n \in \mathbb{N}} $ está dominado por una sola $ {L^{1}} $-función. La continuidad de $ f $ asegura que $ (f - f_{t_{n}})_{n \in \mathbb{N}} $ converge pointwise a la función cero, por lo que la aplicación de Lebesgue del Teorema de Convergencia Dominada, obtenemos $$ \lim_{n \to \infty} F(t_{n}) = \lim_{n \to \infty} \int_{\mathbb{R}} (f - f_{t_{n}}) \ d{\mu} = \int_{\mathbb{R}} 0 \, d{\mu} = 0. $$

Para resolver el problema original, utilice el hecho de que $ {C_{c}}(\mathbb{R}) $ es denso en $ ({L^{1}}(\mathbb{R}),\| \cdot \|_{{L^{1}}(\mathbb{R})}) $. Usted puede tomar este hecho por hecho, o usted puede demostrar que el uso de ambos Urysohn del Lexema (o más bien, un caso especial de éste), y el hecho más fundamental que $ \mu $ es regular la medida en $ (\mathbb{R},\mathscr{B}(\mathbb{R})) $.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X