Un estimador consistente pero sesgado muy utilizado es el de la desviación estándar estimada.
Si estamos ante una situación simple en la que nuestros datos se distribuyen como $x_i \sim N(\mu, \sigma^2)$ entonces a veces la estimación MLE de $\sigma$ se utiliza, es decir
$\hat \sigma^2 = \frac{1}{n} \sum_{i = 1}^n (x_i - \bar x)^2$
Esto es, por supuesto, un estimador sesgado pero consistente de la varianza. Algunas personas pueden intentar tener en cuenta este sesgo utilizando
$\hat s^2 = \frac{1}{n-1} \sum_{i = 1}^n (x_i - \bar x)^2 $
que ahora es imparcial para $\sigma^2$ ...pero la gente no suele fijarse en las varianzas, sino en las desviaciones estándar. La desigualdad de Jensen nos dirá que si $\hat s^2$ es un estimador insesgado de $\sigma^2$ con varianza positiva, entonces $E[s] > \sqrt{E[s^2]}$ ...así que aunque tengamos un estimador insesgado para $\sigma^2$ Si tomamos la raíz cuadrada de este estimador, tenemos ahora un estimador sesgado para $\sigma$ ¡!
De forma más general (y afirmado sin pruebas), es muy común que las estimaciones MLE de los componentes de la varianza tengan un sesgo hacia abajo, pero sean consistentes. Afortunadamente, este sesgo es ignorable; en el ejemplo anterior, podemos ver que la corrección es casi intrascendente para tamaños decentes $n$ . Sin embargo, si el número de parámetros estimados es muy grande, es muy posible que este sesgo sea especialmente problemático; esto se manifiesta como sobreajuste.