10 votos

Desigualdad de Jensen (con probabilidad uno)

En el siguiente teorema, tengo un problema con la segunda parte. Es decir, si $f$ es estrictamente convexa, entonces $X=EX$ con probabilidad $1$ . Aunque veo que esto debe ser cierto, no sé cómo demostrar que se cumple con probabilidad $1$ . Me interesa especialmente el caso en que $X$ es s variable aleatoria continua en reales. enter image description here

Muchas gracias de antemano por la explicación.

1 votos

¿Sabes -no?- que dice que "si es estrictamente convexa y si el igualdad se mantiene, entonces $X=E[X]$ con prob $1$ "? Sólo comprobaba.

1 votos

En aras de la exhaustividad, la declaración debería añadir que $X$ es una variable aleatoria con $\mathrm{E}(X)$ siempre que exista.

18voto

Nilesh Thakkar Puntos 108

Sea $f : \mathbb{R} \to \mathbb{R}$ sea convexa. Esto significa que en cada punto $a \in \mathbb{R}$ existe una función lineal afín $l_a : \mathbb{R} \to \mathbb{R}$ que está dominado por $f$ es decir $$ l_a(x) \leq f(x) $$ y $l_a(a) = f(a)$ . En $f$ es diferenciable, por ejemplo, entonces $l_a$ es la tangente a $f$ en $a$ .

En $f$ es estrictamente convexa, tenemos la condición adicional $$ l_a(x) = f(x) ~\Rightarrow ~ x = a $$ Antes de definir $a$ en este problema concreto (y barriendo los problemas de integrabilidad bajo la alfombra), obsérvese que $$ l_a(X) \leq f(X) $$ por lo tanto $E l_a(X) \leq E f(X)$ . Además $E l_a(X) = l_a(E X)$ debido a la linealidad de $l_a$ . Por último, fijamos $a = EX$ y han obtenido $$ f(EX) \leq E f(X) $$ Supongamos ahora que $f(EX) = E(fX)$ que puede escribirse como $E l_a(X) = E f(X)$ con nuestra elección $a = E X$ .

Con esta configuración, considere $E [f(X) - l_a(X)] = 0$ . Dentro de la expectativa tenemos una variable aleatoria no negativa (por convexidad) y tiene expectativa cero. Concluimos que $f(X) = l_a(X)$ en casi todas partes (¡porque hemos utilizado la integral para hacerlo! la integral no ve conjuntos de medida cero).

Ahora utilizamos la convexidad estricta: $f(X) = l_a(X) ~\Rightarrow~ X = a = EX$ casi seguro, es decir $X$ es una constante.

Adenda: Reclamación: Si $Y$ es una variable aleatoria de valor no negativo y $E Y = 0$ entonces $Y = 0$ casi seguro.

Para verlo, veamos $A_n = \{Y \geq 1/n\}$ es decir, el conjunto en el que $Y$ es mayor que $1/n$ . Tenga en cuenta que $\cup_n A_n = A := \{Y > 0\}$ . Demostremos que $P A_n = 0$ para cualquier $n$ donde $P$ es la medida de probabilidad.

$$ \frac{1}{n} P A_n \leq E (Y I_{A_n}) \leq E Y = 0 $$ Recordemos que $P \cup_n A_n \leq \sum_n P A_n$ que a menudo se denomina propiedad de "subaditividad contable". Esto implica que $P A = 0$ y se cumple la afirmación.

0 votos

En primer lugar, muchas gracias. He seguido su respuesta hasta la equivalencia L1 en $E[f(X)-l_a(X)]=0$ pero no entiendo cómo pasaste de L1 a casi seguro. ¿Podrías explicarlo un poco más? No he aprendido que L1 implique convergencia o equivalencia casi segura.

1 votos

@MLT He añadido una explicación.

0 votos

El hecho de que la probabilidad de una unión de sucesos sea menor que la suma de probabilidades es la "desigualdad de Boole": es.wikipedia.org/wiki/Boole%27s_inequality

1voto

Michael Puntos 5270

He aquí una prueba alternativa (dada varios años más tarde) que es un poco más general, ya que no requiere la existencia de una función limitadora afín (los subgradientes no siempre existen para funciones convexas definidas sobre dominios restringidos).


Fijar $n$ como un número entero positivo, sea $\mathcal{X} \subseteq \mathbb{R}^n$ sea un conjunto convexo, y sea $f:\mathcal{X}\rightarrow\mathbb{R}$ sea una función estrictamente convexa, lo que significa que $$f(px + (1-p)y) < pf(x) + (1-p)f(y)$$ siempre que $0<p<1$ y $x, y \in \mathcal{X}$ , $x \neq y$ .

Sea $X$ sea un vector aleatorio que toma valores en $\mathcal{X}$ y que tiene una expectativa finita $E[X]$ . Sabemos que $E[X] \in \mathcal{X}$ (esto es un precursor de la desigualdad de Jensen). Supongamos que $f(E[X]) = E[f(X)]$ . Demostramos que $X=E[X]$ con probabilidad 1.

Prueba:

Defina $m=E[X]$ . Supongamos que $P[X>m] >0$ (llegamos a una contradicción).

Caso 1: Supongamos $P[X>m]=1$ . Entonces $X-m$ es una variable aleatoria positiva con probabilidad 1 y por tanto $E[X-m]>0$ que significa $m-m>0$ una contradicción.

Caso 2: Supongamos $0 < P[X>m] < 1$ . Defina $m_1 = E[X|X\leq m]$ y $m_2 = E[X|X>m]$ . Tenga en cuenta que $m_1 \leq m < m_2$ y $$m_1P[X\leq m] + m_2 P[X>m] = m$$ También \begin{align} f(m) &\overset{(a)}{=} E[f(X)] \\ &= E[f(X)|X\leq m]P[X\leq m] + E[f(X)|X>m]P[X>m] \\ &\overset{(b)}{\geq} f(E[X|X\leq m])P[X\leq m] + f(E[X|X>m])P[X>m] \\ &= f(m_1)P[X\leq m] + f(m_2)P[X>m] \\ &\overset{(c)}{>} f(m_1 P[X\leq m] + m_2 P[X>m])\\ &= f(m) \end{align} donde (a) se cumple por la hipótesis $f(E[X]) = E[f(X)]$ (b) se cumple por la desigualdad de Jensen aplicada a las expectativas condicionales; (c) se cumple por convexidad estricta. Por lo tanto, $f(m)>f(m)$ una contradicción.

Los casos 1 y 2 juntos implican que $P[X>m]=0$ . Del mismo modo, puede demostrarse que $P[X<m]=0$ . $\Box$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X