4 votos

Ayuda para demostrar la desigualdad de Jensen generalizada $\mathbf{E}[f(\cdot,X(\cdot))\mid \mathscr{G}] \geq f(\cdot,\mathbf{E}[X\mid\mathscr{G}](\cdot))$

Estoy leyendo la obra seminal de Meyer Probabilidad y potenciales (1966), en el que enuncia el siguiente teorema "prestado" de Dubins "Rises and Upcrossings of Nonnegative Martingales" (1961).

LEMA. ( Desigualdad de Jensen generalizada ) Dejemos $(\Omega, \mathscr{F}, \mathbf{P})$ sea un espacio de probabilidad, $X$ una variable aleatoria integrable en este espacio, y $\mathscr{G}$ a sub- $\sigma$ -campo de $\mathscr{F}$ . Denotaremos por $Y$ una versión de $\mathbf{E}[X\mid \mathscr{G}]$ .

Sea $f$ sea un mapeo medible de $\Omega \times \mathbf{R}$ (con el producto natural $\sigma$ -campo) en $\mathbf{R}$ tal que

(a) La cartografía $\omega \mapsto f(\omega,t)$ es $\mathscr{G}$ -medible para cada $t\in\mathbf{R}$ .

(b) La cartografía $t\mapsto f(\omega,t)$ es convexa para cada $\omega \in \Omega$ .

Supongamos que la variable aleatoria $\omega \mapsto f(\omega,X(\omega))$ es integrable. [ ] $$\mathbf{E}[f(\cdot,X(\cdot))\mid \mathscr{G}] \geq f(\cdot,Y(\cdot))\ \text{a.s.}$$

Indica que se podría demostrar el teorema para los simples $X$ y luego pasa a un límite "que es un poco más delicado de lo habitual" y luego omite la prueba. Como nota al margen, he buscado en el artículo de Dubins y no encuentro nada ni remotamente parecido en él.

No veo cómo asumir $X$ es simple ayudaría, pero esto es lo que he probado hasta ahora.

Prueba. Por el supuesto de convexidad, para todo $x,x_0,\omega$ tenemos $$ f(\omega,x) \geq \partial_2 f(\omega,x_0)(x-x_0) + f(\omega,x_0) $$ donde $$ \partial_2 f(\omega,x_0) = \lim_{n\to\infty} \frac{f(\omega,x_0+1/n)-f(\omega,x_0)}{1/n} $$ es la derivada a la derecha en $f$ de la segunda variable. Nótese que $\partial_2 f(\cdot,x_0)$ es un límite de $\mathscr{G}$ -y, por lo tanto, también lo es, para cada $x_0$ . Ahora conecte $x=X(\omega)$ por lo que tenemos $$ f(\omega,X(\omega)) \geq \partial_2 f(\omega,x_0)(X(\omega)-x_0) + f(\omega,x_0) $$ para todos $x_0$ . En este punto me gustaría como para condicionar ambos lados en relación con $\mathscr{G}$ para obtener $$ \mathbf{E}[f(\cdot,X(\cdot))\mid \mathscr{G}](\omega) \geq \partial_2 f(\omega,x_0)(Y(\omega)-x_0) + f(\omega,x_0) $$ para casi todos los $\omega$ en $\Omega_{x_0}$ con $\mathbf{P}(\Omega_{x_0})=1$ y, por tanto, para todo $\omega \in \Omega^*$ donde $\Omega^* = \cap_{q \in \mathbf{Q}} \Omega_{x_0}$ tiene plena medida. Entonces para todos $\omega \in \Omega^*$ Puedo tomar una secuencia $q_n \searrow Y(\omega)$ para obtener $$ \mathbf{E}[f(\cdot,X(\cdot))\mid \mathscr{G}](\omega) \geq f(\omega,Y(\omega)) $$ donde aquí hacemos uso de la acotación local de $x_0 \mapsto \partial_2 f(\omega,x_0)$ que nos da la convexidad, y la continuidad de $x_0 \mapsto f(\omega,x_0)$ que también nos da la convexidad.

He dicho como en negrita porque no sé que $\omega \mapsto \partial_2 f(\omega, x_0)X(\omega), \omega\mapsto \partial_2 f(\omega,x_0)$ y $\omega \mapsto f(\omega, x_0)$ son integrables, así que no puedo simplemente sacar la $\mathscr{G}$ -partes medibles. ¿Hay alguna forma de resolverlo?

EDIT: Puede ser útil señalar que $f$ es en realidad $\mathscr{G}\otimes \mathscr{B}(\mathbf{R})$ -medible: definir $f_n(\omega,x) := f(\omega, d_n(x))$ donde $d_n(x) = \inf\{ \frac{k}{2^n} : \frac{k}{2^n} \geq x, k \in \mathbf{Z}\}$ . Entonces $\{ f_n \in B \} = \cup_{\frac{k}{2^n}, k \in \mathbb{Z}}( \{\omega:f(\omega,\frac{k}{2^n}) \in B\} \times [\frac{k}{2^n},\frac{k+1}{2^n}))$ . En $f_n$ son demostrablemente $\mathscr{G} \otimes \mathscr{B}(\mathbf{R})$ medibles y $f_n \to f$ por continuidad de $f$ .

0 votos

Una de las formas de demostrar la desigualdad de Jenson en el caso clásico es demostrándola para funciones afines $f(x)=ax+b$ y luego utilizando el hecho de que cualquier función convexa puede expresarse como la envolvente de funciones afines. Un argumento similar debería funcionar aquí.

0 votos

@Alex Lo intenté pero no tuve éxito. La prueba clásica funciona porque se puede elegir un conjunto contable de $a_n,b_n$ tal que $f(x) = \sup_n a_n x + b_n$ . No veo cómo podría funcionar en este caso porque el $a_n,b_n$ tendrías que elegir tener que depender de $\omega$ . Si pudiera explicarme cómo pretende superar este problema, me interesaría conocer esa prueba alternativa.

0 votos

Para sacar un $G$ función medible $f$ de la expectativa condicional, debería bastar con saber que $f$ es cuasi-integrable. Usted sabe esto, porque el $f$ en cuestión está limitada por encima por $f(\omega, X(\omega))$ .

1voto

nullUser Puntos 12160

Creo que ya lo tengo, gracias a @PhoemueX por la idea.

La clave es que todo lo que realmente necesito es que $$ \mathbf{E}[f(\cdot,X(\cdot))\mid \mathscr{G}](\omega) \geq \partial_2 f(\omega,x_0)(Y(\omega)-x_0) + f(\omega,x_0) $$ a.s., no necesito necesariamente llegar allí tomando la expectativa condicional relativa a $\mathscr{G}$ del anterior $$ f(\omega,X(\omega)) \geq \partial_2 f(\omega,x_0)(X(\omega)-x_0) + f(\omega,x_0). $$ En su lugar, tome cualquier $G \in \mathscr{G}$ y calcula $$ \int f(\omega,X(\omega))1_G d\mathbf{P}(\omega) \geq \int(\partial_2 f(\omega,x_0)(X(\omega)-x_0) + f(\omega,x_0))1_Gd\mathbf{P}(\omega) $$ y como la integral de la izquierda es finita, la de la derecha se puede dividir en la integral finita de su parte positiva, y la integral posiblemente infinita de su parte negativa. Así la integral anterior es igual a $$ = \lim_n\int(\partial_2 f(\omega,x_0)(X(\omega)-x_0) + f(\omega,x_0))1_G 1_{|\partial_2 f(\omega,x_0)|, |f(\omega,x_0)| \leq n}d\mathbf{P}(\omega) $$ que, desde ahora $\partial_2f, f$ están acotadas, podemos entonces aplicar la propiedad de la condición de expectativa para $X$ a la línea anterior $$ = \lim_n\int(\partial_2 f(\omega,x_0)(Y(\omega)-x_0) + f(\omega,x_0))1_G 1_{|\partial_2 f(\omega,x_0)|, |f(\omega,x_0)| \leq n}d\mathbf{P}(\omega) $$ y por la misma razón que antes (siendo esa razón cuasi-integrabilidad es decir $\int h d\mu $ existe pero puede ser infinito), el anterior es igual a $$ = \int(\partial_2 f(\omega,x_0)(Y(\omega)-x_0) + f(\omega,x_0))1_G d\mathbf{P}(\omega). $$ Así, hemos demostrado que para todos los $G \in \mathscr{G}$ $$ \int f(\omega,X(\omega))1_G d\mathbf{P}(\omega) \geq \int(\partial_2 f(\omega,x_0)(Y(\omega)-x_0) + f(\omega,x_0))1_G d\mathbf{P}(\omega). $$ Como el integrando de la derecha es él mismo $\mathscr{G}$ -medible, esto implica la desigualdad deseada $$ \mathbf{E}[f(\cdot,X(\cdot))\mid \mathscr{G}](\omega) \geq \partial_2 f(\omega,x_0)(Y(\omega)-x_0) + f(\omega,x_0), $$ aunque el lado derecho no sea integrable. (Si no, compara las integrales sobre el $\mathscr{G}$ -conjunto medible donde el lado derecho excede estrictamente al izquierdo para llegar a una contradicción). El resto de la prueba sigue su curso.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X