Desde que la Marca ya se dio, en los comentarios, una prueba usando dobles, permítanme esbozar aquí una prueba de uso de la convexidad.
Hacemos los siguientes supuestos simplificadores:
- Usted es la integración de más de un espacio de $X$ con un límite de volumen total. (Si no, aproximado $f$ cut-offs de $f$ en los subconjuntos finitos de volumen. Que $f$ es integrable garantías de que puede hacerlo (Chebychev de la desigualdad).)
- $X$ tiene un volumen total de 1. Esto se puede hacer por un reescalado, ya que la norma escala linealmente por definición.
Observar que la norma es una función convexa. Vamos a demostrar la desigualdad de Jensen para una probabilidad del espacio, que luego implica la deseada triángulo de la desigualdad.
Teorema (la desigualdad de Jensen)
Deje $(X,\Sigma,\mu)$ ser un espacio de probabilidad (es decir, es una medida de espacio con un volumen total de 1). Deje $f:X\mapsto V$ ser un integrable función toma los valores de algunos (real) espacio vectorial topológico $V$. Deje $\Psi:V\to\mathbb{R}$ una función convexa, entonces tenemos
$$ \Psi(\int f d\mu) \leq \int \Psi(f) d\mu $$
Croquis de la Prueba:
Deje $g = \int f d\mu \in V$. Por convexidad, existe una subdifferential de $\Psi$$g$, en el sentido de que no existe un funcional lineal $k\in V^*$ tal que $\Psi(g) + k(h-g) \leq \Psi(h) $ cualquier $h\in V$. (Esta es la generalización de la justificación de la hyperplane teorema; en el finito dimensionales caso puede utilizar el hyperplane teorema.) Integrar la expresión obtenemos
$$ \int \Psi(g) d\mu + \int k(f-g) d\mu \leq \int \Psi(f) d\mu $$
Desde el espacio, tiene masa total 1, y $g$ es independiente de la posición $x\in X$, la primera integral en el LHS es sólo $\Psi(g) = \Psi(\int f d\mu)$. Ahora $k$ es lineal y funcional, por lo que los viajes con la integración, pero
$$ \int (f-g)d\mu = \int f d\mu - \int f d\mu = 0 $$
por tanto, el segundo término en el lado izquierdo es 0. Q. E. D.