Para su primera pregunta, la respuesta es básicamente sí.
Los métodos de gradiente suelen ser métodos de descenso, por lo que la función de coste disminuye en los puntos que no son óptimos. Muchos de estos métodos también tienen la propiedad de que cualquier punto de acumulación de la secuencia generada no puede tener un gradiente distinto de cero (se denominan métodos de descenso "garantizados"). (Esta incómoda formulación permite que la función de coste sea no diferenciable en un mínimo).
He aquí una condición suficiente que se aplica al problema anterior: Sea el punto inicial $x_0$ y que $L_{x_0} = \{x | f(x) \leq f(x_0) \}$ . Supongamos que $L_{x_0}$ es compacto y el gradiente es distinto de cero en todos los puntos distintos del minimizador. Entonces cualquier método de descenso "garantizado" convergerá al minimizador. (Estoy asumiendo que la función de coste $f$ es $C^1$ en puntos no óptimos). El problema que tienes arriba satisface estas condiciones.
La segunda pregunta es más bien un tema de debate. Algunos puntos a tener en cuenta:
La dualidad es otra gran ventaja para los problemas convexos. Los problemas duales suelen ser más fáciles de resolver.
Los problemas pueden transformarse a menudo en problemas convexos, siendo los posinomios un buen ejemplo.
A menudo, la convexidad de los conjuntos de niveles es el criterio importante. Varias generalizaciones (por ejemplo, la pseudoconvexidad y la cuasi-convexidad) pueden extender la utilidad de la convexidad a entornos más amplios.
0 votos
Según tengo entendido, las funciones convexas son más "fáciles" de minimizar desde el punto de vista de la complejidad computacional. Es decir, se puede encontrar la solución en tiempo polinómico hasta una precisión preestablecida. Tal vez quieras consultar el libro "Introductory Lectures on Convex Optimization: A Basic Course" de Yurii Nesterov. Supongo que está disponible parcialmente en Google Books. (Te sugiero que mires el primer capítulo de ese libro.) O ve a su página web y mira algunas de sus diapositivas.
0 votos
No soy experto en análisis convexo, pero creo que pedir que se aíslen los problemas teniendo un único minimizador es abandonar un marco conceptual en favor de una conclusión concreta. Por ejemplo, en el análisis se trabaja con funciones continuas en un intervalo cerrado y acotado $[a,b]$ porque tienen muchas propiedades convenientes, como alcanzar un valor máximo/mínimo. No hay ningún teoría de la clase de todas las funciones sobre $[a,b]$ alcanzar un valor máximo/mínimo, por lo que no se puede hacer cualquier cosa tan amplia.
1 votos
La función anterior es susceptible de optimización convexa tras la transformación $x \mapsto 1/x$ .
1 votos
En pocas palabras, la convexidad implica que un mínimo local es un mínimo global.
2 votos
Tyrell Rockafellar : "...la gran divisoria de aguas en la optimización no es entre la linealidad y la no linealidad, sino entre la convexidad y la no convexidad".
0 votos
La "Optimización Convexa" de Rockafellar es una obra increíble.
1 votos
Su función de ejemplo es cuasiconvexo .
0 votos
@copper: ¿Te refieres a su Análisis convexo ¿texto, por casualidad?
0 votos
Oops, sí, quise decir análisis.
5 votos
Desde el artículo de Wikipedia sobre las funciones cuasiconvexas se pueden inferir las ventajas y desventajas de esta clase de funciones en relación con las convexas. Una que me parece especialmente llamativa es que la suma de dos funciones cuasiconvexas no tiene por qué ser cuasiconvexa.
1 votos
@YuvalFilmus Exactamente esto es lo que no es la diferencia entre funciones convexas y cuasiconvexas. Para mí el principal problema es que la convergencia de Newton ya no está garantizada.