La optimización convexa es un campo matemáticamente riguroso y bien estudiado. En la programación lineal, toda una serie de métodos manejables permiten obtener los óptimos globales en un tiempo récord. La programación cuadrática es casi igual de fácil, y hay una buena cantidad de métodos de programación semidefinida, cónica de segundo orden e incluso de programación entera que pueden funcionar bastante bien en muchos problemas.
Sin embargo, la optimización no convexa (y en particular las formulaciones extrañas de ciertos problemas de programación entera y optimización combinatoria) son generalmente heurísticas como la "optimización de colonias de hormigas". Básicamente, todos los algoritmos generalizables de optimización no convexa que he encontrado son una combinación (a menudo inteligente, pero aún así) de descenso de gradiente y algoritmos genéticos.
Puedo entender por qué es así -en superficies no convexas la información local es mucho menos útil- pero me imagino que al menos habría un algoritmo que aprendiera de forma demostrable para una amplia clase de funciones si las características locales indican un óptimo global cercano o no. También, tal vez, teorías generales sobre si se puede proyectar una superficie no convexa en dimensiones superiores para hacerla convexa o casi convexa, y cómo hacerlo.
Edición: Un ejemplo. Un polinomio de grado k conocido sólo necesita k + 1 muestras para ser reconstruido - ¿te da esto también el mínimo dentro de un rango dado de forma gratuita, o todavía tienes que buscarlo manualmente? Para cualquier clase más general de funciones, ¿la "capacidad de reconstruir" se traslada a la "capacidad de encontrar óptimos globales"?
0 votos
Aunque la cuestión Creo que La motivación que has escrito es muy polémica y probablemente podría ser un poco más neutra.
0 votos
Muy bien, he cambiado un par de cosas - estos cambios en realidad hacen que la pregunta sea más clara, así que gracias por sugerirlo.
0 votos
@DoubleJay: Buena reescritura. Así que, sólo para aclarar, su pregunta es algo así como "¿Existen algoritmos distintos de descenso gradiente + genética con propiedades demostrablemente agradable? ¿Podemos reducir la optimización no convexa a optimización convexa de forma sistemática?"
2 votos
Sí, o si no podemos hacerlo, ¿podemos al menos facilitar la iteración a través de mínimos locales, suavizar nuestra superficie de forma productiva o garantizar límites en la densidad de muestreo del espacio de búsqueda?