Unbiasedness no necesariamente es especialmente importante por su propia cuenta.
A un lado un conjunto muy limitado de las circunstancias, más útiles que los estimadores son sesgados, sin embargo están obtenidos.
Si dos estimadores tienen la misma varianza, fácilmente se puede montar un argumento para preferir el imparcial, uno a la sesgada uno, pero que es una situación inusual para ser (es decir, puede razonablemente prefieren unbiasedness, ceteris paribus - pero esos molestos ceteris casi nunca paribus).
Más generalmente, si usted desea unbiasedness agregar algunos varianza para obtenerla, y entonces la pregunta sería ¿por qué iba a hacerlo?
El sesgo es en qué medida el valor esperado de mi estimador será demasiado alto en promedio (con sesgo negativo indicando demasiado baja).
Cuando estoy considerando una pequeña muestra del estimador, yo realmente no se preocupan por eso. Normalmente estoy más interesado en cómo mucho mal a mi estimador será en esta instancia - mi distancia típica de la derecha... algo así como un root-mean-square error o un error absoluto promedio tendría más sentido.
Así que si te gusta varianza baja y baja sesgo, pidiendo decir que un mínimo error cuadrático medio del estimador tendría sentido; estos son muy rara vez imparcial.
Sesgo y unbiasedness es una noción útil para tener en cuenta, pero no es especialmente útil a la propiedad a buscar, a menos que estés comparación de estimadores con la misma varianza.
ML estimadores tienden a ser bajos de la varianza; por lo general, no mínimo MSE, pero a menudo tienen menor MSE de que la modificación sea imparcial (cuando se puede hacerlo a todos) le puede dar.
Como un ejemplo, considere la estimación de la varianza cuando el muestreo de una distribución normal $\hat{\sigma}^2_\text{MMSE} = \frac{S^2}{n+1}, \hat{\sigma}^2_\text{MLE} = \frac{S^2}{n}, \hat{\sigma}^2_\text{Unb} = \frac{S^2}{n-1}$ (de hecho el MMSE para la varianza siempre tiene un denominador más grande de $n-1$).