Con un plano previo, el ML (frecuentista -- de máxima verosimilitud) y el MAPA (Bayesiano -- maximum a posteriori) de los estimadores de coincidir.
De manera más general, sin embargo, estoy hablando sobre el punto de estimadores derivados como los optimizadores de cierta pérdida de la función. I. e.
$$ \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) \qquad \; \,\text{ (Bayesian) }$$ $$ \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(x-\hat x(Y)) \; | \; x \right) \qquad \text{(Frequentist)}$$
donde $\mathbb{E}$ es la expectativa de operador, $L$ es la función de pérdida (reducen al mínimo en cero), $\hat x(y) $ es el estimador de la vista de los datos $y$, el parámetro de $x$, y variables aleatorias se denotan con letras mayúsculas.
¿Alguien sabe las condiciones en $L$, el pdf de $x$$y$, impone linealidad y/o unbiasedness, donde los peritos coinciden?