Cuándo usar y no usar ningún método particular de la maximización depende en gran medida del tipo de datos que usted tiene. nlm
funcionarán igual de bien, si la probabilidad de la superficie no es muy "bruto" y está en todas partes diferenciables. nlminb
proporciona una manera de restringir los valores de los parámetros particulares de las cajas de contorno. optim
, que es probablemente el más utilizado en el optimizador, proporciona un par de diferentes rutinas de optimización; por ejemplo, BFGS, L-BFGS-B, y el recocido simulado (a través de la SANN opción), el último de los cuales puede ser útil si usted tiene un difícil optimizar problema. Hay también un número de optimizadores disponible en CRAN. rgenoud
, por ejemplo, proporciona un algoritmo genético para la optimización. DEoptim
utiliza otro rutina de optimización genética. Los algoritmos genéticos pueden ser lento a converger, pero generalmente se garantiza la convergencia (en el tiempo), incluso cuando hay discontinuidades en la probabilidad. Yo no sé acerca de DEoptim
, pero rgenoud
está configurado para utilizar snow
el procesamiento en paralelo, lo cual ayuda un poco.
Así que, probablemente, algo insatisfactoria respuesta es que debe utilizar el nlm
o cualquier otro optimizador si funciona para los datos que tiene. Si usted tiene un buen comportamiento probabilidad, alguna de las rutinas proporcionadas por optim
o nlm
le dará el mismo resultado. Algunos más rápidos que otros, que pueden o no de la materia, dependiendo del tamaño del conjunto de datos, etc. Como el número de parámetros de estas rutinas puede manejar, no sé, aunque sea probablemente muy pocos. Por supuesto, el más parámetros que usted tiene, más probable es que se ejecute en problemas con la convergencia.