En la teoría de la muestra grande, me dicen que como $n$ se hace cada vez más grande ( $n$ siendo el número de muestras de un conjunto de datos) que $\sqrt n(\hat \beta_1-\beta_1)$ se acerca cada vez más a la distribución normal. ¿Qué es exactamente $\sqrt n(\hat \beta_1-\beta_1)$ ?
Respuesta
¿Demasiados anuncios?$\sqrt n (\hat\beta_1 - \beta_1)$ es una versión escalada de la diferencia (error) entre su estimación $\hat\beta_1$ y el valor real del parámetro que se intenta estimar, $\beta_1$ . El error no escalado $\hat\beta_1 - \beta_1$ va a cero a medida que el tamaño de la muestra llega al infinito; cuando se multiplica por $\sqrt n$ converge en distribución a una Normal (suponiendo que la distribución con la que se trabaja es de segundo momento finito).