Dejemos que $f: \mathbb{R}^n \rightarrow \mathbb{R}$ sea una función estrictamente convexa. Supongamos que $x^*$ es su único mínimo. Se puede demostrar que para cualquier $x \in \mathbb{R}^n$ el producto escalar $\langle \frac{\partial f}{\partial x}, x^* - x \rangle$ es estrictamente negativo siempre que $x \ne x^*$ . Sea $\tilde{x} = x^* - x$ . Supongamos también que $\frac{\partial f}{\partial x}$ depende linealmente de $x$ .
Es posible demostrar que existen algunas constantes $\alpha, \beta$ tal que $\langle \frac{\partial f}{\partial x}, x^* - x \rangle \le - \alpha \| \tilde{x} \|^{\beta}$ y, en particular, $\beta=2$ si el gradiente depende linealmente de $x$ ?