5 votos

Convergencia al gradiente en el límite de la varianza

Encontré esta ecuación en el documento original de la GAN (página 2) https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf ): $$\lim_{\sigma \rightarrow 0} \nabla_{\bf x} \mathbb{E}_{\epsilon \sim \mathcal{N}(0, \sigma^2 I)}[{f({\bf x} + \epsilon)}] = \nabla_{\bf x} f({\bf x}).$$

¿Es un resultado conocido o fácil de demostrar? No estoy seguro de cómo proceder más allá de lo siguiente:

$$\begin{align*} \lim_{\sigma \rightarrow 0} \nabla_{\bf x} \mathbb{E}_{\epsilon \sim \mathcal{N}(0, \sigma^2 I)}[{f({\bf x} + \epsilon)}] &= \lim_{\sigma \rightarrow 0} \int_{\epsilon} \nabla_{\bf x} f({\bf x} + \epsilon) p(\epsilon) d \epsilon \end{align*}. $$

Cualquier consejo o fuente sería muy apreciado.

2voto

mclaughlinj Puntos 1099

Creo que esto es cierto cuando $f$ tiene un gradiente continuo, en cuyo caso $$\lim_{h \rightarrow \vec0} \nabla_x f(x+h) = \nabla_x f(x)$$ lo que equivale a $$\lim_{\sigma \rightarrow 0} \nabla_x f(x+\sigma z) = \nabla_x f(x)$$ para cualquier valor de $z$ .

Entonces $$\begin{align}&\quad\ \lim_{\sigma \rightarrow 0} \nabla_x \mathbb{E}_\epsilon \left[f(x+\epsilon )\right] \\ &= \lim_{\sigma \rightarrow 0} \nabla_x \mathbb{E}_{z \sim \mathcal{N}(0,I)}\left[f(x + \sigma z)\right] \\ &= \mathbb{E}_{z \sim \mathcal{N}(0,I)}\left[\lim_{\sigma \rightarrow 0} \nabla_x f(x + \sigma z) \right] \\ &= \mathbb{E}_z \left[ \nabla_x f(x)\right] \\ & = \nabla_x f(x)\end{align}$$

0 votos

(+1) Por supuesto, algunos tecnicismos más sobre $f$ son necesarios para intercambiar formalmente el límite y la expectativa, pero este es seguramente el nivel de tecnicismo en el que el documento de la GAN estaba pensando.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X