1 votos

Gradiente de una función convexa multivariante

Dejemos que $f: \mathbb{R}^n \rightarrow \mathbb{R}$ sea una función estrictamente convexa. Supongamos que $x^*$ es su único mínimo. Se puede demostrar que para cualquier $x \in \mathbb{R}^n$ el producto escalar $\langle \frac{\partial f}{\partial x}, x^* - x \rangle$ es estrictamente negativo siempre que $x \ne x^*$ . Sea $\tilde{x} = x^* - x$ . Supongamos también que $\frac{\partial f}{\partial x}$ depende linealmente de $x$ .

Es posible demostrar que existen algunas constantes $\alpha, \beta$ tal que $\langle \frac{\partial f}{\partial x}, x^* - x \rangle \le - \alpha \| \tilde{x} \|^{\beta}$ y, en particular, $\beta=2$ si el gradiente depende linealmente de $x$ ?

1voto

David-W-Fenton Puntos 16613

Sin pérdida de generalidad $x^\ast = 0$ . Si $\frac{\partial f}{\partial x}$ depende linealmente de $x$ como usted supone, entonces tiene la forma $Ax$ donde $A$ es simétrica. Así, $f(x) = \frac{1}{2}x^TAx$ . Desde $f$ es estrictamente convexo, $A$ es positiva definida. Entonces $$ \langle \frac{\partial f}{\partial x}, -x \rangle = -2 x^TAx \le - \alpha \|x\|^2 $$ donde $\alpha$ es el menor valor propio de $A$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X