1 votos

Una pregunta sobre la regresión lineal de por qué Var( $\hat{\beta_1}~|~X=x_i$ ) = $\frac{\sigma^2}{\sum_{i=1}^{n} x_i^2}$

r

En primer lugar, observe que $Var(e_i | X) = \sigma^2$ y $E(y_i | X = x)$ .
También, $E(y_i | X = x) = \beta_0 + \beta_1 x$ .
Entonces, $Var(y_i | X = x) = Var(e_i | X = x) = \sigma^2$ .

Desde entonces, $\sum_{i=1}^n (x_i - \bar{x}) = 0$ .
Entonces, $\hat{\beta_1} = \frac{\sum_{i=0}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=0}^{n} (x_i - \bar{x})^2} = \frac{\sum_{i=0}^{n} (x_i - \bar{x}) y_i}{\sum_{i=0}^{n} (x_i - \bar{x})^2}$ .

Puesto que, Var( $\hat{\beta_1}~|~X=x_i$ ) = Var( $\frac{\sum_{i=0}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=0}^{n} (x_i - \bar{x})^2} | X=x_i$ ) = Var( $\frac{\sum_{i=0}^{n} (x_i - \bar{x}) y_i}{\sum_{i=0}^{n} (x_i - \bar{x})^2} | X=x_i$ )

También, $\frac{(x_i - \bar{x})}{\sum_{i=0}^{n} (x_i - \bar{x})^2}$ es una constante y por la independencia de y_i.
Entonces, tenemos que Var( $\frac{\sum_{i=0}^{n} (x_i - \bar{x}) y_i}{\sum_{i=0}^{n} (x_i - \bar{x})^2} | X=x_i$ ) = $\frac{\sum_{i=0}^{n} (x_i - \bar{x})^2 Var(y_i | X=x_i)}{[\sum_{i=0}^{n} (x_i - \bar{x})^2]^2}$

Puesto que, observe que $Var(y_i | X=x_i) = Var(e_i | X=x_i) = \sigma^2$
Por lo tanto, tenemos que $\frac{\sum_{i=0}^{n} (x_i - \bar{x})^2 Var(y_i | X=x_i)}{[\sum_{i=0}^{n} (x_i - \bar{x})^2]^2}$
\= $\frac{\sum_{i=0}^{n} (x_i - \bar{x})^2 \cdot \sigma^2}{[\sum_{i=0}^{n} (x_i - \bar{x})^2]^2}$
\= $\sigma^2 \cdot \frac{\sum_{i=0}^{n} (x_i - \bar{x})^2}{[\sum_{i=0}^{n} (x_i - \bar{x})^2]^2}$
\= $\frac{\sigma^2}{\sum_{i=0}^{n} (x_i - \bar{x})^2}$ .

$\mathbf{The~problem~I~have:}$
$\mathbf{I~am~just~really~confuse~on~why~the~\text{Var($ \hat{\beta_1}~|~X=x_i $)} = \text{$ \frac{\sigma^2}{\sum_{i=1}^{n} x_i^2} $}}$ .

Gracias por ayudarme.

2voto

air Puntos 1369

Sus cálculos son correctos. El problema con tu respuesta es que no has tenido en cuenta que $\beta_0$ se conoce, en su lugar se ha utilizado el resultado de mínimos cuadrados ordinarios en el que no se conoce $\beta_0$ ni $\beta_1$ . Ya que aquí $\beta_0$ es conocido, no se debe minimizar con respecto a $\beta_0$ pero sólo $\beta_1$ . En otras palabras, está ejecutando la regresión:

$$\tilde{Y}_i = X_i \beta_1 + e_i,$$ donde $\tilde{Y}_i = Y_i - \beta_0$ . Así que los mínimos cuadrados equivalen a:

$$ \hat{\beta}_1 = \text{argmin } \sum_i (\tilde{Y}_i - X_i \beta_1)^2 $$

Así que..:

$$ \hat{\beta}_1 = \frac{\sum_i \tilde{Y}_i X_i}{\sum_i X_i^2}$$

Ahora bien, exactamente el argumento que utilizó da lugar a eso:

$$ \text{Var}(\hat{\beta}_1 \mid X) = \frac{\sigma^2}{\sum_{i=1}^n X_i^2}$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X