En estadísticas bayesianas, una estimación de máxima probabilidad a posteriori (MAP, por sus siglas en inglés) es una estimación de una cantidad desconocida que equivale a la moda de la distribución posterior.
Esto es correcto.
Por lo que entiendo, la moda de una distribución depende de cómo construyo su histograma (o KDE). Esto me parece estar en contradicción con la definición anterior, donde el MAP es el valor máximo encontrado para la fórmula muestral f(x) y no depende de nada más.
Estás confundiendo cantidades teóricas con las basadas en muestreo/aleatorias. La posterior se define por la verosimilitud y la previa. Es decir, $f(x) = \frac{L(\theta)\pi(\theta)}{\int_{\Theta} L(\theta')\pi(\theta') d \theta' }$ donde $L(\theta)$, $\pi(\theta)$ son la verosimilitud y la previa, respectivamente. Esta es una función única en $\theta.
En la práctica, es común muestrear de esta distribución, y si ese es el caso, estás introduciendo error aleatorio. Por lo general, cuando se hace esto, es la única opción porque, digamos, la constante de normalización no estará disponible. Estrategias populares obtienen muestras de $f(\theta|x)$ y solo requieren que el usuario pueda evaluar la posterior sin normalizar $L(\theta)\pi(\theta)$. Aunque esto es solo una aproximación porque está basada en extracciones aleatorias, hay resultados que garantizan la convergencia de tus estimadores, por lo que el error es tolerable siempre que se ejecuten las simulaciones el tiempo suficiente.