Hace poco, un profesor de mi universidad afirmó que todos los problemas de optimización son convexos (tras una transformación adecuada, si es necesario). Es conocido por sus importantes contribuciones a la optimización convexa, así que supongo que su afirmación es correcta. Me gustaría entender por qué es así y si siempre se puede construir explícitamente dicha transformación. Un ejemplo particular que me convenció de que la afirmación es cierta es la optimización basada en momentos (cf. este papel que se encuentra en línea a través de Google). La idea es que los problemas de optimización polinómica de dimensión finita (no convexa) son equivalentes a los problemas de optimización de dimensión infinita (convexa) sobre medidas.
Me gustaría saber hasta qué punto se puede generalizar esta idea. ¿Es posible para programas no lineales generales (no convexos) de dimensión finita? En caso afirmativo, ¿la contraparte convexa será siempre infinitamente dimensional? ¿Y podemos también transformar problemas de optimización no convexos de dimensión infinita en problemas convexos?
PD: Soy consciente de que la afirmación anterior no significaría que los problemas de optimización no convexos fueran de repente más fáciles de resolver. Me interesa esto por razones puramente teóricas.
Edición: Como ya se ha dicho, el artículo de Lasserre utiliza el hecho de que los problemas de optimización polinómica no convexa son equivalentes a los problemas de optimización convexa sobre medidas. Sin embargo, la prueba (corta) de este hecho no hace uso de la naturaleza polinómica de la función objetivo. Creo que esto se puede demostrar para cualquier función objetivo (¿medible/continua?). Esto significaría que cualquier problema de optimización no convexo de dimensión finita es equivalente a un problema de optimización convexo sobre medidas. ¿He pasado algo por alto?
0 votos
¿Acaso dijo que todos los problemas de optimización convexos son cónicos? Si no es así, deberías pedirle que apoye su afirmación.
0 votos
No, la reclamación fue definitivamente como la anterior. Además, como muestra el caso de la optimización polinómica, parece ser cierta al menos hasta cierto punto. Me pregunto si la afirmación es cierta en toda su generalidad (es decir, para problemas no polinómicos o incluso de dimensiones infinitas) y, en caso afirmativo, por qué.
0 votos
Desde luego, esto no es correcto en ningún sentido práctico. Y no, esto no hace que los problemas no convexos sean "más fáciles de resolver". Nada en el documento de Laserre refuta la intratabilidad de la optimización no convexa.
0 votos
Considere: lo que dice el documento de Laserre es que un problema no convexo puede resolverse con una precisión determinada y distinta de cero resolviendo un número finito de problemas convexos; y que a veces tendrá suerte y obtendrá la solución exacta. Esta descripción se aplica también a los distintos métodos de ramificación para los LP mixtos enteros, por ejemplo. Es bastante inteligente que esto proporcione un enfoque muy general, pero no es revolucionario.
2 votos
Esto me recuerda la noción (verdadera) de que los programas semidefinidos pueden expresarse como programas lineales semi-infinitos: seas.ucla.edu/~vandenbe/publications/sip.pdf (De hecho, Lasserre también se fijó en esto)
3 votos
Como he dicho antes, no me interesan las aplicaciones prácticas de la afirmación anterior. En cuanto a mi pregunta, el punto clave del artículo de Lasserre es que los problemas de optimización polinómica no convexos son equivalentes a los problemas de optimización convexos (de dimensión infinita) sobre medidas, lo cual se muestra al principio. La parte en la que Lasserre trunca las secuencias de momentos para llegar a relajaciones convexas (a veces exactas) de dimensión finita es irrelevante para la pregunta anterior.
0 votos
La relación entre los SDP y los programas lineales semi-infinitos parece interesante, pero creo que no es lo suficientemente general como para responder a (partes de) mi pregunta
1 votos
Me gustaría saber qué quiso decir tu profesor con este comentario. ¿Puedes pedirle que lo explique y que nos informe? A ser posible, con un enlace a alguna referencia que explique a qué se refería el profesor.
0 votos
En cuanto a su último párrafo: La afirmación también me parece razonable. Para explicarlo, cualquier problema de optimización $\min_x f(x) \text{ s.t. } x\in\Omega$ debería ser equivalente a una minimización convexa (de hecho, lineal) $\min_\mu \int f\,\mathrm d\mu$ donde $\mu$ es una medida de probabilidad sobre $\Omega$ . El mínimo se alcanza cuando $\mu$ es una medida discreta concentrada en el o los mínimos globales de $f$ .