Estoy lidiando con esta pregunta a mí mismo ahora. Aquí es un resultado que puede ser útil. Considere el modelo lineal
$$y = X\beta + \epsilon, \quad \epsilon \sim N(0,\sigma^2)$$
donde $y \in \mathbb{R}^n, \beta \in \mathbb{R}^p,$ $\beta$ $\sigma^2$ son los parámetros de interés. La probabilidad conjunta es
$$L(\beta,\sigma^2) = (2 \pi \sigma^2)^{-n/2} exp\left(-\frac{||y-X\beta||^2}{2\sigma^2}\right)$$
La optimización de la articulación de probabilidad de los rendimientos de
$$\hat{\beta} = X^+ y$$
$$\hat{\sigma}^2 = \frac{1}{n}||r||^2$$
donde $X^+$ es el pseudoinverse de $X$ $r=y-X\hat{\beta}$ es el ajuste residual vector. Tenga en cuenta que a $\hat{\sigma}^2$ tenemos $1/n$, en lugar del familiar grados de libertad corregidos relación $1/(n-p)$. Este estimador es conocido por ser sesgada en lo finito en caso de ejemplo.
Ahora supongamos que en vez de optimizar tanto $\beta$$\sigma^2$, integramos $\beta$ y la estimación de $\sigma^2$ a partir de la resultante integrado de probabilidad:
$$\hat{\sigma}^2 = \text{max}_{\sigma^2} \int_{\mathbb{R}^p} L(\beta,\sigma^2) d\beta$$
El uso elemental de álgebra lineal y el Gaussiano integral de la fórmula, se puede mostrar que
$$\hat{\sigma}^2 = \frac{1}{n-p} ||r||^2$$
Este tiene los grados de libertad de la corrección que hace que sea imparcial y, en general favorecido por encima de la articulación ML estimación.
A partir de este resultado se podría preguntar si hay algo inherentemente ventajoso sobre el integrado de probabilidad, pero no sé de ninguna de resultados generales que responder a esa pregunta. El consenso parece ser que integran ML es mejor en la contabilidad de la incertidumbre en la mayoría de los problemas de estimación. En particular, si usted está en la estimación de una cantidad que depende de otras estimaciones de los parámetros (incluso implícitamente), entonces la integración sobre los otros parámetros mejor cuenta de sus incertidumbres.