7 votos

Rebotar la bola de optimización

Hay muchos métodos interesantes de searthing para un mínimo global de una complicada función de muchas variables, basado en la física/biológica analogías. Por ejemplo, las Partículas swarm optimization y Evolutivo algortithms, ambos de los cuales son estocásticos y simular el comportamiento de las grandes poblaciones (en este caso, las poblaciones de soluciones).

Tengo una idea para otro estocásticos de optimización del método, basado en la realidad física. Digamos que tenemos que minimizar la función:

$$y=f(x_1,x_2,\dots,x_n)$$

Digamos que la función es continua y todas sus derivadas parciales son al menos seccionalmente continua.

A continuación, vamos a considerar el $(n+1)$-dimensional en el espacio Cartesiano, con las coordenadas $$x_1,\dots,x_n,y$$

La idea es simplemente encender la "gravedad" a lo largo de la $y$ coordinar y poner una bola en una posición aleatoria dentro de la región de $x_1,\dots,x_n$ estamos buscando en (asegúrate de que esté lo suficientemente alto por encima de la superficie definida por $y=f(x_1,x_2,\dots,x_n)$, lo que podemos hacer si la región es finito y la función es bastante bueno).

Así que tenemos tres parámetros principales para establecer:

  • la "gravitación potencial" $g$

  • el coeficiente de restitución $c$

  • la altura inicial de la bola de $y_0$ (o un intervalo de alturas, si queremos).

Luego nos acaba de dejar caer la pelota y el rebote en la superficie de acuerdo a la costumbre, las leyes de la mecánica clásica, hasta que se pierde la energía suficiente y se establece o alcanzado el límite de tiempo.

A continuación, escribimos las coordenadas donde se estableció e iniciar otra bola. Se parece a seguir a partir de principios físicos que, finalmente, nos encontramos con el mínimo global de la función dentro de la región se considera como un promedio de las bolas de' las posiciones finales. (Nota: como Brian Borchers se señaló en los comentarios, el mejor curso de acción sería simplemente a mantener el mejor resultado y el uso de ella).

Mis preguntas son:

Este método es factible? Hay algún problema con los pasos que he sugerido?

Es este método ya se utiliza en algunos esquemas de optimización (o lo suficientemente cerca método)? Si es así, me gustaría algunas referencias, ya que no he sido capaz de encontrar nada de mí.

3voto

Arash Mohammadi Puntos 199

El método de hablar me recuerda a la gradiente de la pendiente (GD).

Este método es muy bueno para problemas convexos. Pero considere las funciones de costo como De Jong 5 o Rastrigin con un montón de mínimos locales. Un solo agente puede encontrar apenas a los mínimos globales. Esta es la razón por la GA es muy popular para los no-convexo aplicaciones.

Si usted está interesado, usted puede tener una mirada en métodos híbridos utilizando tanto GA y GD [1], [2], [3], [4] (yo personalmente no he leído estos documentos).

Tenga en cuenta, hay un trade-off entre la velocidad de convergencia y la posibilidad de caer en mínimos locales. Hay así que muchos de los métodos propuestos. Ninguno de ellos es mejor que el de GA en todos los aspectos de propósito general, pero tienen prones y los contras.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X