Estoy aprendiendo la teoría de la medida y el concepto $\sigma$ -la medida infinita me confunde un poco. ¿Por qué necesitamos la $\sigma$ -¿se supone en muchos teoremas importantes?
Respuesta
¿Demasiados anuncios?Quiero ampliar un poco más la respuesta dada en los comentarios aquí. En primer lugar, creo que es útil dar una explicación intuitiva de por qué es tan potente. A continuación, comentaré algunos ejemplos en los que $\sigma$ -se necesita la finitud.
La intuición:
La intuición principal es pensar en $\sigma$ -como una colección de espacios de medidas finitas contables que se pegan entre sí. Así, cuando probamos resultados para $\sigma$ -espacios finitos estamos esencialmente encontrando una manera de "encadenar" el resultado para estos finito espacios. Esto debería darnos una idea de por qué es tan potente, ya que trabajar dentro de un espacio de medidas finito es una suposición muy fuerte. Aplicando esta intuición vemos que $\sigma$ -Los espacios finitos no son realmente una gran generalización de los espacios finitos.
Algunas aplicaciones:
Para comprender mejor esta condición, creo que es útil ver algunos resultados que se pueden obtener utilizando $\sigma$ -medidas finitas. El teorema de Radon-Nikodym es ciertamente un ejemplo y, de hecho, es una piedra angular de la teoría de la probabilidad. Sin embargo, creo que hay algunos otros resultados que pueden ayudar a arrojar algo de luz adicional sobre esta condición.
En primer lugar, desde la perspectiva de la teoría de la probabilidad, todas las $\sigma$ -Las medidas finitas son equivalentes a las medidas de probabilidad. Es decir, coinciden en conjuntos de medida cero. Por tanto, existe una función medible $g: X\to (0,\infty)$ con $\int g d\mu = 1$ tal que, $$P(A)=\int_A g d\mu$$
Puedes encontrar una prueba de este resultado aquí . La única modificación es utilizar la función $g := f/\int f d\mu$ para crear una medida de probabilidad.
Otro teorema muy importante que suele requerir $\sigma$ -espacios de medida finita es Teorema de Fubini . En concreto, desde la perspectiva de la teoría de la probabilidad, este resultado nos permite trabajar con distribuciones conjuntas. Por ejemplo, calcular las expectativas de variables aleatorias independientes.
Además, un concepto muy relacionado aquí es el único ampliación de las medidas. Para los no $\sigma$ -espacios finitos, obtenemos un fallo del teorema de Fubini porque las medidas del producto no se extenderán de forma única sin esta condición (aquí hay un ejemplo de esto). De hecho, observe que el Teorema de la extensión de Caratheodory requiere que la medida previa sea $\sigma$ -finito para una extensión única.
Una última razón de la importancia de $\sigma$ -finalidad viene de, quizás, un resultado un poco más profundo conocido como el Teorema de descomposición de Lebesgue . Este resultado nos dice que dados dos $\sigma$ -medidas definidas, $\mu$ y $\nu$ podemos escribir,
$$\nu = \nu_a + \nu_s$$
donde $\nu_a << \mu $ (es absolutamente continua con respecto a $\mu$ ) y $\nu_s \perp \mu$ (en singular con respecto a $\mu$ ). Este teorema puede usarse para escribir una prueba corta del teorema de Radon-Nikodym (esto se llama típicamente la prueba de von Neumann).
Por último, debemos señalar que hay generalizaciones de $\sigma$ -que nos permiten desarrollar el teorema de Fubini y el de Radon-Nikodym . Aun así, necesitamos alguna generalización de esta condición. Además, la equivalencia de $\sigma$ -de las medidas finitas a las medidas de probabilidad es ciertamente una fuerte motivación para utilizar $\sigma$ -finitenes cuando desarrollamos estos resultados en la teoría de la probabilidad.