1 votos

¿Alguien puede explicarme la definición frecuentista de inferencia de Efron y Hastie utilizando un ejemplo real?

Problema

¿Alguien puede ayudar a explicar el concepto de inferencia tal como lo explican Bradeley Efron y Trevor Hastie en su libro "Computer Age Statistical Inference"? En el Capítulo 2, comenzando en la página 13, introducen la estimación de las propiedades $\theta$ de una distribución desconocida $F$. Tienen una explicación que me deja confundido. Ellos escriben:

La estimación de $\hat{\theta}$ se calcula a partir de $\bf x$ según algún algoritmo desconocido, digamos, $\hat{\theta}=t(\bf x)$ donde $t(x)$ en nuestro ejemplo es la función promedio $\bar x = \sum\frac{x_i}{n}$. $\hat{\theta}$ es la realización de $\hat{\Theta} = t(\bf X)$. La salida de $t(\cdot)$ aplicado a una muestra teórica $\bf X$ de $F$.

Más adelante dicen que todo el punto del párrafo que acabo de compartir era dar la definición de inferencia. Es decir, la precisión del estimador observado $\hat{\theta} = t(\bf x)$ es la precisión probabilística de $\hat{\Theta} = t(\bf X)$ como un estimador de $\theta.

Como ejemplos, ellos proporcionan lo siguiente:

  • $\mu = E_F\{\hat{\Theta}\}$ como la esperanza
  • sesgo como $bias = \mu - \theta$
  • varianza como $var = E_F\{(\hat{\Theta} - \mu)^2\}$.

¿Eh? ¿Qué están tratando de comunicar aquí? Déjame volver a lo básico. Entiendo que $\bf x$ es datos observados de manera que $\bf x $ $= (x_1, x_2, .., x_n) $. Entiendo que definen $\bf X$ $=(X_1, X_2, ..., X_n)$ indican $n$ extracciones independientes de una distribución de probabilidad $F$. Sin embargo, estoy completamente confundido sobre qué están haciendo $\hat{\Theta}$ y $\bf X$ aquí para ayudar a nuestra definición de inferencia. ¿Inferencia de qué?

Preguntas

Tengo las siguientes preguntas a partir de la lectura anterior:

  • ¿Es posible explicar esta definición usando un ejemplo/distribución de la vida real, como la distribución normal?
  • ¿Cuál es la diferencia conceptual entre $\hat{\theta}$ and $\hat{\Theta}$?
  • ¿Qué significa $t(\cdot)$?

Creo que lo anterior captura mi confusión con la definición dada anteriormente. Estoy estudiando por mi cuenta y creo que este resumen general dado por los autores es hermoso, pero una explicación más aplicada que abstracta me iría bien aquí. Por lo tanto, las preguntas anteriores son críticas y espero que una persona amable y bien versada en estadística pueda explicarme esto.

3voto

Alan Puntos 7273

Respondiendo tus preguntas en orden inverso:

  • $t(\cdot)$ es simplemente una función que convierte observaciones en una estimación

  • $\hat \Theta$ es un estimador de $\theta$. Dado que es una función de una variable aleatoria $\mathbf X$, también es una variable aleatoria y tiene una distribución. Mientras que $\hat \theta$ es una estimación de $\theta$ hecha después de haber observado $\mathbf x$ y por lo tanto tiene un valor particular (posiblemente vectorial)

  • Supongamos que tienes una distribución normal $X$ con parámetros de media y varianza $\theta=(m,v)$. Dadas $n$ observaciones $\mathbf{X}=(X_1,X_2,\ldots X_n)$ podrías pensar que un estimador sensato podría ser $$\displaystyle \hat \Theta = t(\bf{X})=\left(\tfrac1n \sum_i X_i, \tfrac1n \sum_j \left(X_j-\tfrac1n \sum_i X_i\right)^2 \right)$$ y resulta que esto te da una estimación no sesgada de la media pero una estimación sesgada de la varianza, porque la esperanza sería $E[\hat \Theta]=(m, \frac{n}{n-1}v)$ haciendo que el sesgo sea $(0,-\frac{1}{n-1}v)$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X