Este es un teórico. Esta pregunta está inspirada en los últimos pregunta y la discusión sobre bootstrap, donde una constante estimador, es decir, una función constante
$$f(x) = \lambda$$
fue utilizado como un ejemplo de la calculadora para mostrar problemas con la estimación de sesgo mediante bootstrap. Mi pregunta no es si es "bueno" o "malo" estimador, ya que es independiente de los datos y así ha de ser pobres. Sin embargo, aunque estoy de acuerdo con la definición que Larry Wasserman dio en su manual de "Todas las Estadísticas":
Una razonable exigencia de un estimador es que deberían converger el verdadero valor del parámetro como recogemos más y más datos. Este requisito se cuantifica mediante la siguiente definición:
6.7 Definición. Un punto estimador $\hat{\theta}_n$ de un parámetro de $\theta$ es consistente si $\hat{\theta}_n \overset{P}{\rightarrow} \theta$.
entonces lo que me molesta es que $\hat{\theta}_n$ estima que el uso de una función constante no $\theta$, incluso con $n \rightarrow \infty$, ya que es constante.
Así que mis preguntas son: ¿Qué hace la función constante de un estimador? ¿Qué lo justifica? ¿Cuáles son sus propiedades? ¿Cuáles son las similitudes entre la función constante y de otros estimadores? Podría también proporcionar algunas referencias?