De cualquier genérico algoritmo de muestreo, se puede derivar un algoritmo de optimización.
De hecho, para maximizar una función arbitraria $f: \textbf{x} \rightarrow f(\textbf{x})$, es suficiente para la extracción de muestras de $g \sim e^{f/T}$. Para $T$ lo suficientemente pequeño, estas muestras se caiga cerca del máximo global (o los máximos locales en la práctica) de la función de $f$.
Por "muestreo" quiero decir, el dibujo de un pseudo-muestra aleatoria de una distribución dada una función de verosimilitud logarítmica conocido a una constante. Por ejemplo, MCMC de muestreo, el muestreo de Gibbs, Haz de Muestreo, etc. Por "optimización" me refiero al intento de encontrar los parámetros de la maximización del valor de una función dada.
Es a la inversa? Dada una heurística para encontrar el máximo de una función o una expresión combinatoria, podemos extraer un eficiente procedimiento de muestreo?
HMC por ejemplo, parece tomar ventaja del gradiente de la información. Podemos construir un procedimiento de muestreo que se aprovecha de un BFGS-como aproximación de Hesse? (edit: al parecer sí: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf) Podemos utilizar MCTS en problemas de combinatoria, podemos traducir que en un procedimiento de muestreo?
Contexto: una dificultad en el muestreo es a menudo que la mayoría de la masa de la distribución de probabilidad se encuentra dentro de una región muy pequeña. Hay interesantes técnicas para encontrar esas regiones, pero que no se traducen directamente en imparciales de los procedimientos de muestreo.
Edit: ahora tengo una persistente sensación de que la respuesta a esa pregunta es algo equivalente a la igualdad de la complejidad de las clases de #P y NP, haciendo que la respuesta de una probable "no". Explicar por que cada técnica de muestreo de los rendimientos de una técnica de optimización, pero no viceversa.