3 votos

Derivación de la mejora esperada para la optimización bayesiana.

Dado que $$I(x) = f_{t+1}(x) - f(x^+)$$ y $f_{t+1}$ sigue una distribución gaussiana caracterizada por $\mu(x), \sigma^2(x)$ ¿cómo demostrar que

\begin{align*} & E(I(X)) \\ &= \displaystyle{\int_{I=0}^{I=\infty} I \cdot \frac{1}{\sqrt{2\pi \sigma(x)}} \exp{(-\frac{(\mu(x)-f(x^+) - I)^2}{2\sigma^2(x)}})dI} \\ &= \sigma(x) [\frac{\mu(x) - f(x^+)}{\sigma(x)} \Phi(\frac{\mu(x)-f(x^+)}{\sigma(x)}) + \phi(\frac{\mu(x) - f(x^+)}{\sigma(x)})]? \end{align*}

1voto

Testbench Puntos 1

Supongo que $x^+=\text{argmax}_{i<t+1}f(x_i)$ . Puedes evaluar la integral por sustitución: prueba $u=(\mu(x)-f(x^+)-I)/\sigma(x)$ s.t. $I = \mu(x)-f(x^+)-\sigma(x)u$ y cambiar el límite inferior en consecuencia. Esto da 3 integrales separadas de que se pueden expresar en términos de la pdf y cdf de $\mathcal{N}(0,1)$ que suman la expresión anterior.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X