6 votos

¿Son todos los problemas de optimización convexos?

Hace poco, un profesor de mi universidad afirmó que todos los problemas de optimización son convexos (tras una transformación adecuada, si es necesario). Es conocido por sus importantes contribuciones a la optimización convexa, así que supongo que su afirmación es correcta. Me gustaría entender por qué es así y si siempre se puede construir explícitamente dicha transformación. Un ejemplo particular que me convenció de que la afirmación es cierta es la optimización basada en momentos (cf. este papel que se encuentra en línea a través de Google). La idea es que los problemas de optimización polinómica de dimensión finita (no convexa) son equivalentes a los problemas de optimización de dimensión infinita (convexa) sobre medidas.

Me gustaría saber hasta qué punto se puede generalizar esta idea. ¿Es posible para programas no lineales generales (no convexos) de dimensión finita? En caso afirmativo, ¿la contraparte convexa será siempre infinitamente dimensional? ¿Y podemos también transformar problemas de optimización no convexos de dimensión infinita en problemas convexos?

PD: Soy consciente de que la afirmación anterior no significaría que los problemas de optimización no convexos fueran de repente más fáciles de resolver. Me interesa esto por razones puramente teóricas.

Edición: Como ya se ha dicho, el artículo de Lasserre utiliza el hecho de que los problemas de optimización polinómica no convexa son equivalentes a los problemas de optimización convexa sobre medidas. Sin embargo, la prueba (corta) de este hecho no hace uso de la naturaleza polinómica de la función objetivo. Creo que esto se puede demostrar para cualquier función objetivo (¿medible/continua?). Esto significaría que cualquier problema de optimización no convexo de dimensión finita es equivalente a un problema de optimización convexo sobre medidas. ¿He pasado algo por alto?

0 votos

¿Acaso dijo que todos los problemas de optimización convexos son cónicos? Si no es así, deberías pedirle que apoye su afirmación.

0 votos

No, la reclamación fue definitivamente como la anterior. Además, como muestra el caso de la optimización polinómica, parece ser cierta al menos hasta cierto punto. Me pregunto si la afirmación es cierta en toda su generalidad (es decir, para problemas no polinómicos o incluso de dimensiones infinitas) y, en caso afirmativo, por qué.

0 votos

Desde luego, esto no es correcto en ningún sentido práctico. Y no, esto no hace que los problemas no convexos sean "más fáciles de resolver". Nada en el documento de Laserre refuta la intratabilidad de la optimización no convexa.

5voto

Ash Uchiha Puntos 1

Supongamos que su problema de optimización es

$(P1) \quad \min_{x} f(x)$ tal que $x \in \Omega \qquad$ ,

donde $f:\mathbb{R}^n \rightarrow \mathbb{R}$ es una función continua de valor real y $\Omega \subset \mathbb{R}^n$ es un conjunto compacto. Los supuestos de continuidad de $f$ y la compacidad de $\Omega$ se hacen para garantizar que existe un mínimo ( véase el teorema de Weiertrass ).

Este problema de optimización genérico alcanza el mismo valor óptimo del problema de optimización convexo

$(P2) \quad \min_{x,\alpha} \alpha$ tal que $(x,\alpha) \in \textrm{conv}(\{x\in \Omega, f(x) \le \alpha\})$ ,

donde $\textrm{conv}(S)$ es el casco convexo del conjunto S.

Observación 1 : Como se señala en los comentarios, aunque (P2) tiene el mismo valor óptimo de (P1), puede darse el caso de que los puntos óptimos sean diferentes.

Observación 2 Algunos autores definen de forma diferente lo que es un problema de optimización convexo, precisamente,

$\min_x f(x)$ tal que $ g_i(x) \le 0, i=1,\ldots,m$ y $h_j(x) = 0, j=1,\ldots,k$ , donde $f, g_i$ son funciones convexas y $h_j$ son funciones afines.

Para más detalles, véanse las notas de clase de Amir Ali Ahmadi sobre optimización convexa y cónica, en particular, las páginas 13 y 14 de Clase 4 de 2016.

2 votos

Soy muy escéptico en cuanto a la pretensión de equivalencia en este caso. Es demasiado conveniente que cualquier ¿un problema de optimización no convexo de dimensiones finitas puede traducirse a un problema de optimización convexo simplemente aplicando la transformación epigráfica estándar? No, no me lo creo.

3 votos

Considere un ejemplo sencillo: $f(x)=\sin x$ , $\Omega=[-\pi,pi]$ . Claramente, la solución al problema original es $x^*=-\pi/2$ , $f(x^*)=-1$ . Pero mientras el problema convertido tiene el mismo óptimo valor de $-1$ alcanza ese valor en cualquier $x\in\Omega$ porque el casco convexo se reduce a $[-\pi,\pi]\times [-1,+\infty)$ . Esto definitivamente no es equivalente; para que los problemas sean equivalentes, tendrían que obtener los mismos puntos óptimos.

1 votos

@MichaelGrant Creo que tienes un buen punto, pero en tu ejemplo, ¿el casco convexo no está dado por esta región ? Si es así, creo que los puntos óptimos (al menos en este ejemplo) son los mismos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X