Para explicar la relación entre el sesgo y la inconsistencia, echemos un vistazo a sus definiciones matemáticas:
La definición del sesgo es:
$Bias(\theta)=E(\hat{\theta})-\theta$
whis es el valor esperado del estimador $\hat{\theta}$ menos el parámetro verdadero $\theta$ .
Además, se llama a un estimador inconsistente en el error cuadrático medio, si
$lim_{ (N \to \infty )}MSE(\hat{\theta})=Bias(\hat{\theta})^2+Var(\hat{\theta}) \neq 0$
se mantiene. ( $N$ denota el tamaño de la muestra)
Recordemos que a menudo se utiliza la convergencia en probabilidad para comprobar la consistencia, que viene dada por:
$plim_{N \to \infty} \hat{\theta}=\theta$
Ambas versiones se refieren al comportamiento asintótico de $\hat{\theta}$ y lo expresa, a medida que se acumulan los datos, $\hat{\theta}$ se acerca cada vez más al verdadero valor de $\theta$ . Esta argumentación está perfilada en: http://www.stats.ox.ac.uk/~steffen/teaching/bs2siMT04/si2c.pdf
Ahora bien, para responder a la pregunta "¿Un estimador siempre está sesgado si es incoherente?" basta con mirar la fórmula: Si el estimador es inconsistente, esto puede deberse a un sesgo nulo (=insesgado) pero a una varianza distinta de cero. Por lo tanto, un estimador puede ser incoherente pero insesgado.
4 votos
Puedes encontrar un contraejemplo en Wikipedia: es.wikipedia.org/wiki/