7 votos

¿Qué hace función constante un estimador?

Este es un teórico. Esta pregunta está inspirada en los últimos pregunta y la discusión sobre bootstrap, donde una constante estimador, es decir, una función constante

$$f(x) = \lambda$$

fue utilizado como un ejemplo de la calculadora para mostrar problemas con la estimación de sesgo mediante bootstrap. Mi pregunta no es si es "bueno" o "malo" estimador, ya que es independiente de los datos y así ha de ser pobres. Sin embargo, aunque estoy de acuerdo con la definición que Larry Wasserman dio en su manual de "Todas las Estadísticas":

Una razonable exigencia de un estimador es que deberían converger el verdadero valor del parámetro como recogemos más y más datos. Este requisito se cuantifica mediante la siguiente definición:
6.7 Definición. Un punto estimador $\hat{\theta}_n$ de un parámetro de $\theta$ es consistente si $\hat{\theta}_n \overset{P}{\rightarrow} \theta$.

entonces lo que me molesta es que $\hat{\theta}_n$ estima que el uso de una función constante no $\theta$, incluso con $n \rightarrow \infty$, ya que es constante.

Así que mis preguntas son: ¿Qué hace la función constante de un estimador? ¿Qué lo justifica? ¿Cuáles son sus propiedades? ¿Cuáles son las similitudes entre la función constante y de otros estimadores? Podría también proporcionar algunas referencias?

5voto

Neal Puntos 316

Un estimador es simplemente una función de potencial de una muestra de datos que se pretende estimar un parámetro desconocido de la población. Es una receta o una fórmula. La constante es un estimador que no depende de los datos: la estimación que se produce siempre será el mismo.

Hay un número infinito de los estimadores, y la mayoría de ellos son "malas". ¿Qué significa eso? Estimadores tienen propiedades deseables, lo que les lleva a producir "buenos" estimaciones bajo ciertas condiciones. Algunos de estos son

  • El coste computacional
  • Unbiasedness
  • Consistencia
  • La eficiencia
  • Robustez (insensibilidad a las violaciones de los supuestos bajo los cuales el estimador conserva sus propiedades deseables)

Estos objetivos son a menudo en desacuerdo el uno con el otro. La constante tiene el menor coste computacional, pero podría decirse que ninguno de los otros.

1voto

Gilles Puntos 6479

Creo que no es tanto una cuestión de "lo que hace función constante" un estimador pero "lo que hace que el estimador de un estimador". En primer lugar, desde el punto de vista matemático, un estimador es una función de tipo especial, es una variable aleatoria, que cumple algunos de los requisitos - es una estadística, lo que significa que ha de ser independiente de $\theta$ ("estimand"). Función constante es independiente de $\theta$, (que es independiente de cualquier cosa :).

Ejemplo. $T =\bar{X}$ es una estadística de $\mu$, e $S=\bar{X}-\mu$ no es una estadística de $\mu$ ('porque es dependiente de la $\mu$ sí).

Así, una función constante es un objeto que posee estas dos cualidades, que justifican la llama "un estimador".

El muy importante es que lo que deseamos no es "cualquier" estimador. Cualquier estimador puede ser parcial, lo que significa que con cada muestra se obtenga, se añade o resta algo. F. e. usted quiere que su báscula de baño para mostrar su peso es exactamente como está (o tal vez la mujer más tienden a engañar a sí mismos:).

Queremos un estimador que minimizan el Error cuadrático medio ($MSE=E(\hat{\theta}-\theta)^2$). Pero no es un estimador, que minimizar este error - es una familia de estimadores. Así que es el mejor? Un buen estimador es el uno, que cumpla con algunos requisitos. Yo sé acerca de tres de ellos:

  • unbiasedness - no añade ni resta nada. Matemáticamente es $E\hat{\theta} = \theta$
  • consistencia (este lo que está escrito en su libro)
  • la eficiencia máxima que se refiere a la del estimador de la varianza - queremos como variación pequeña como sea posible.

Alguien escribió sobre el coste computacional, pero no matemáticos probabilísticos problema.

Por lo tanto, una función constante en realidad es un estimador, sin embargo no es deseado, porque al menos es parcial y no consistente (como se dio cuenta). Estas son las diferencias entre la función constante y otros (buena) de los estimadores.

Esto es más o menos mi respuesta a su pregunta. Creo, va más nos va a hacer cavar en algunas ecuaciones matemáticas para mostrar más diferencias o similitudes, etc.

0voto

Jeff Bauer Puntos 236

Constante estimadores/predictores tienen un uso como punto de referencia contra el cual uno de los jueces de la interpretación de "adecuado" estimadores/predictores.
Un ejemplo es en el contexto de la regresión logística binaria, donde tratamos de estimar condicional de probabilidades, la explotación de la información que posiblemente reside en los regresores con el fin de predecir mejor, en cierto sentido, la probabilidad relacionada con la variable dependiente,

$$P(Y_i=1 \mid \mathbf x_i) = \Lambda(g(\mathbf x_i'\beta))$$

donde $\Lambda()$ es la Logística de la función de distribución acumulativa, y $g(\mathbf x_i'\beta)$ es el logit.

Pero ya tenemos la muestra disponible, podemos también muy barato estimar la incondicional probabilidad, $$\hat P(Y=1) = \frac 1n \sum_{i=1}^n y_i$$

A continuación, podemos comparar la capacidad de predicción de rendimiento de $\hat P(Y_i=1 \mid \mathbf x_i) = \Lambda(g(\mathbf x_i'\hat \beta))$ contra el "ingenuo" (y constante) estimador $\hat P(Y=1)$. La primera debe hacer mejor, de lo contrario todos los problemas que nos fuimos a intentar utilizar la información acerca de la probabilidad de $Y$ incluido en el $X$'s no pagar.

Un CV hilo exactamente sobre este tema se puede encontrar aquí (ver también en los comentarios).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X