1 votos

Razones para el peor de los casos en la optimización robusta

Cuando resolvemos un problema de optimización, que contiene en su función objetivo un parámetro incierto (es decir, una variable aleatoria), utilizando técnicas de optimización robustas como el enfoque max-min, primero resolvemos el problema para el peor caso del parámetro incierto, de ahí la parte min del enfoque max-min (en este paso las variables de decisión son constantes). A continuación, resolvemos el problema de optimización original después de fijar la variable aleatoria con el peor valor encontrado anteriormente. Mi pregunta es quizás sencilla, por qué tomar siempre el peor caso en la optimización robusta, podemos también trabajar con el caso medio o la mediana. Me parece que centrarse en el peor escenario es un poco pesimista.

0voto

user415922 Puntos 1

Es una solución que es la mejor posible en el peor de los casos. Un enfoque diferente produce diferentes soluciones "robustas". Todo depende de cómo se defina la robustez. Estoy de acuerdo en que no es fácil cuantificar cuánto más "robusta" puede llegar a ser la solución, ya que normalmente la calidad (es decir, el valor de la función objetivo) de esta solución máxima-minima no es tan buena. Sin embargo, hay otras definiciones, como la de robustez ligera, en la que se introducen restricciones adicionales para garantizar cierta calidad de las soluciones.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X