3 votos

Técnicas de Optimización Estocástica

Estoy buscando recolectar técnicas de optimización estocástica que digan bajo qué condiciones \begin{align} E[ f(X_2)] \le E[ f(X_1)]. \end{align> para algunas variables aleatorias $X_1$ y $X_2. Aquí hay un ejemplo de un resultado de ese tipo que conozco

Si $X_1$ domina estocásticamente a $X_2$ y $f(x)$ es no decreciente, entonces \begin{align> E[ f(X_2)] \le E[ f(X_1)]. Donde $X_1$ domina estocásticamente a $X_2$ si $F_{X_1}(x) \le F_{X_2}(x)$ para todo $x.

Lo anterior es un ejemplo de dominancia estocástica de primer orden. Hay otras nociones similares llamadas segundo y tercer orden de dominancia estocástica.

Esta herramienta puede ser muy poderosa en algunos escenarios de optimización estocástica. Sin embargo, tiene sus limitaciones. Por eso me gustaría recolectar algunos otros resultados que indiquen bajo qué condiciones la esperanza con respecto a la distribución $X_1$ es mayor (o menor) que la esperanza con respecto a $X_2.

Si alguien conoce algún otro resultado con un sabor similar o alguna buena referencia, por favor avíseme. Gracias.

2voto

Michael Puntos 5270

Supongamos que $f:\mathbb{R}^n\rightarrow\mathbb{R}$ es una función convexa. Deja que $\vec{X}_1$ y $\vec{X}_2$ sean vectores aleatorios con la misma media, de modo que $E[\vec{X}_1]=E[\vec{X}_2]=\vec{m}$ para algún vector $\vec{m}\in \mathbb{R}^n$. Además, supongamos que $\vec{X}_2$ tiene la misma distribución que $\vec{m} + \theta(\vec{X}_1-\vec{m})$ para alguna constante $\theta \in [0,1]$. Por lo tanto, $\vec{X}_2$ tiene una distribución que está escalada para hacerla más concentrada alrededor de la media. Entonces:

$$E[f(\vec{X}_2)] \leq E[f(\vec{X}_1)] $$

Esto puede ser visto como una generalización de la desigualdad de Jensen (el caso $\theta=0$ es exactamente la desigualdad de Jensen y nos da $f(\vec{m}) \leq E[f(\vec{X}_1)]$).

Proof: \begin{align} E[f(\vec{X}_2)] &= E[f(\vec{m} + \theta(\vec{X}_1-\vec{m}))]\\ &=E[f((1-\theta)\vec{m} + \theta \vec{X}_1)] \\ &\leq E[(1-\theta) f(\vec{m}) + \theta f(\vec{X}_1)] \quad \mbox{[since $f$ is convex]}\\ &= (1-\theta)f(E[\vec{X}_1]) + \theta E[f(\vec{X}_1)]\\ &\leq (1-\theta)E[f(\vec{X}_1)] + \theta E[f(\vec{X}_1)] \quad \mbox{[by Jensen's inequality]}\\ &= E[f(\vec{X}_1)] \end{align} $\Box$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X