La literatura sobre la evaluación de las caras de "caja negra" de la función es muy amplio, y generalmente se basa en sustituto de métodos de modelo, como a otras personas, señaló. La caja negra de aquí significa que poco se sabe acerca de la función subyacente, la única cosa que usted puede hacer es evaluar $f(x)$ a un punto elegido $x$ (gradientes generalmente no están disponibles).
Yo diría que el actual estándar de oro para la evaluación de la (muy) costosos de "caja negra" de la función es (global) Bayesiano de optimización (BO). user777 ya se ha descrito algunas de las características de BO, así que estoy añadiendo algo de información que podría ser útil.
Como punto de partida, es posible que desee leer este documento general [1].
También hay una más reciente [2].
Bayesiano de optimización ha ido creciendo de forma constante como un campo en los últimos años, con una serie de talleres especializados (por ejemplo, BayesOpt, y echa un vistazo a estos vídeos de Sheffield taller sobre BO), ya que tiene aplicaciones prácticas en el aprendizaje de máquina, como para la optimización de hyper-parámetros de ML algoritmos; ver, por ejemplo, este papel [3] y relacionados con la caja de herramientas, la Menta verde. Hay muchos otros paquetes en varios idiomas, que implementar diversos tipos de Bayesiana algoritmos de optimización.
Como he mencionado, el requisito subyacente es que cada función de la evaluación es muy costoso, por lo que el BO-cálculos relacionados con agregar un insignificante sobrecarga. Para dar un estadio de béisbol, BO puede ser sin duda útil si su función se evalúa en un tiempo del orden de minutos o más. También se puede aplicar para cálculos más rápidos (por ejemplo, decenas de segundos), pero dependiendo del algoritmo que se utilice puede adoptar diversas aproximaciones. Si su función se evalúa en la escala de tiempo de segundos, creo que lo están golpeando los límites de la investigación actual y tal vez de otros métodos podrían ser más útiles.
También, tengo que decir, BO rara vez es realmente caja negra y que a menudo tienen que ajustar los algoritmos, a veces mucho, para hacer que funcione a plena potencia con un determinado problema de la vida real.
BO a un lado, para una revisión general de los derivados-libre de optimización de los métodos que usted puede echar un vistazo a esta revisión [4] y verificación de algoritmos que tienen buenas propiedades de rápida convergencia. Por ejemplo, Multi-nivel de Coordinar la Búsqueda (MCS) generalmente converge muy rápidamente a un barrio, de un mínimo (no siempre el mínimo global, por supuesto). MCS está pensado para la optimización global, pero se puede hacer local mediante la configuración apropiada obligado restricciones.
Referencias:
[1] Brochu et al., "Un Tutorial sobre Bayesiano de Optimización de Costo Caro Funciones, con Aplicación a Usuario Activo de Modelado y Jerárquica
El Aprendizaje Por Refuerzo" (2010).
[2] Shahriari et al., "Tomando el Humano Fuera del circuito: Una Revisión de la Bayesiano de Optimización" (2015).
[3] Snoek et al., "Práctica Bayesiano de Optimización de Algoritmos de Aprendizaje automático", NIPS (2012).
[4] Rios y Sahinidis, "Derivado libre de optimización: una revisión de los algoritmos y la comparación de implementaciones de software", Revista de Optimización Global (2013).