¡Lo tengo! Bueno, con ayuda. Encontré la parte del libro que da los pasos a seguir para probar la $Var \left( \hat{\beta}_0 \right)$ (por suerte, no las resuelve, porque si no estaría tentado de no hacer la prueba). Probé cada paso por separado, y creo que funcionó.
Estoy usando la notación del libro, que es: $$ SST_x = \displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2, $$ y $u_i$ es el término de error.
1) Demuestre que $\hat{\beta}_1$ puede escribirse como $\hat{\beta}_1 = \beta_1 + \displaystyle\sum\limits_{i=1}^n w_i u_i$ donde $w_i = \frac{d_i}{SST_x}$ y $d_i = x_i - \bar{x}$ .
Esto fue fácil porque sabemos que
\begin{align} \hat{\beta}_1 &= \beta_1 + \frac{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x}) u_i}{SST_x} \\ &= \beta_1 + \displaystyle\sum\limits_{i=1}^n \frac{d_i}{SST_x} u_i \\ &= \beta_1 + \displaystyle\sum\limits_{i=1}^n w_i u_i \end{align}
2) Utilice la parte 1, junto con $\displaystyle\sum\limits_{i=1}^n w_i = 0$ para demostrar que $\hat{\beta_1}$ y $\bar{u}$ no están correlacionados, es decir, demostrar que $E[(\hat{\beta_1}-\beta_1) \bar{u}] = 0$ .
\begin{align} E[(\hat{\beta_1}-\beta_1) \bar{u}] &= E[\bar{u}\displaystyle\sum\limits_{i=1}^n w_i u_i] \\ &=\displaystyle\sum\limits_{i=1}^n E[w_i \bar{u} u_i] \\ &=\displaystyle\sum\limits_{i=1}^n w_i E[\bar{u} u_i] \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i E\left(u_i\displaystyle\sum\limits_{j=1}^n u_j\right) \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[E\left(u_i u_1\right) +\cdots + E(u_i u_j) + \cdots+ E\left(u_i u_n \right)\right] \\ \end{align}
y porque el $u$ son i.i.d, $E(u_i u_j) = E(u_i) E(u_j)$ cuando $ j \neq i$ .
Cuando $j = i$ , $E(u_i u_j) = E(u_i^2)$ por lo que tenemos:
\begin{align} &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[E(u_i) E(u_1) +\cdots + E(u_i^2) + \cdots + E(u_i) E(u_n)\right] \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i E(u_i^2) \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[Var(u_i) + E(u_i) E(u_i)\right] \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \sigma^2 \\ &= \frac{\sigma^2}{n}\displaystyle\sum\limits_{i=1}^n w_i \\ &= \frac{\sigma^2}{n \cdot SST_x}\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x}) \\ &= \frac{\sigma^2}{n \cdot SST_x} \left(0\right) &= 0 \end{align}
3) Demuestre que $\hat{\beta_0}$ puede escribirse como $\hat{\beta_0} = \beta_0 + \bar{u} - \bar{x}(\hat{\beta_1} - \beta_1)$ . Esto también parecía bastante fácil:
\begin{align} \hat{\beta_0} &= \bar{y} - \hat{\beta_1} \bar{x} \\ &= (\beta_0 + \beta_1 \bar{x} + \bar{u}) - \hat{\beta_1} \bar{x} \\ &= \beta_0 + \bar{u} - \bar{x}(\hat{\beta_1} - \beta_1). \end{align}
4) Utilice las partes 2 y 3 para demostrar que $Var(\hat{\beta_0}) = \frac{\sigma^2}{n} + \frac{\sigma^2 (\bar{x}) ^2} {SST_x}$ : \begin{align} Var(\hat{\beta_0}) &= Var(\beta_0 + \bar{u} - \bar{x}(\hat{\beta_1} - \beta_1)) \\ &= Var(\bar{u}) + (-\bar{x})^2 Var(\hat{\beta_1} - \beta_1) \\ &= \frac{\sigma^2}{n} + (\bar{x})^2 Var(\hat{\beta_1}) \\ &= \frac{\sigma^2}{n} + \frac{\sigma^2 (\bar{x}) ^2} {SST_x}. \end{align}
Creo que todo esto funciona porque desde que proporcionamos esa $\bar{u}$ y $\hat{\beta_1} - \beta_1$ no están correlacionados, la covarianza entre ellos es cero, por lo que la varianza de la suma es la suma de la varianza. $\beta_0$ es sólo una constante, por lo que desaparece, al igual que $\beta_1$ más adelante en los cálculos.
5) Utilice el álgebra y el hecho de que $\frac{SST_x}{n} = \frac{1}{n} \displaystyle\sum\limits_{i=1}^n x_i^2 - (\bar{x})^2$ :
\begin{align} Var(\hat{\beta_0}) &= \frac{\sigma^2}{n} + \frac{\sigma^2 (\bar{x}) ^2} {SST_x} \\ &= \frac{\sigma^2 SST_x}{SST_x n} + \frac{\sigma^2 (\bar{x})^2}{SST_x} \\ &= \frac{\sigma^2}{SST_x} \left( \frac{1}{n} \displaystyle\sum\limits_{i=1}^n x_i^2 - (\bar{x})^2 \right) + \frac{\sigma^2 (\bar{x})^2}{SST_x} \\ &= \frac{\sigma^2 n^{-1} \displaystyle\sum\limits_{i=1}^n x_i^2}{SST_x} \end{align}
2 votos
Este no es el camino correcto. La cuarta ecuación no se sostiene. Por ejemplo, con $x_1=1$ , $x_2=0$ y $x_3=1$ el término de la izquierda es cero, mientras que el término de la derecha es $2/3$ . El problema viene del paso en el que se divide la varianza (tercera línea de la segunda ecuación). ¿Ves por qué?
0 votos
Pista hacia el punto Quantlbex: la varianza no es una función lineal. Viola tanto la aditividad como la multiplicación escalar.
0 votos
@DavidMarx Ese paso debería ser $$=Var((-\bar{x})\hat{\beta_1}+\bar{y})=(\bar{x})^2Var(\hat{\beta_1})+\bar{y}$$ Creo que, una vez que sustituya a $\hat{\beta_1}$ y $\bar{y}$ (no estoy seguro de qué hacer para esto pero lo pensaré más), que debería ponerme en el camino correcto, espero.
0 votos
Esto no es correcto. Piensa en la condición necesaria para que la varianza de una suma sea igual a la suma de las varianzas.
0 votos
Pensé que $\bar{y}$ se considera no aleatoria cuando se condiciona a la $x$ por lo que se puede tratar como una constante, es decir $$Var(aX+b)=a^2 Var(X) + b$$ .
2 votos
No, $\bar{y}$ es aleatorio ya que $y_i = \beta_0 + \beta_1 x_i + \epsilon$ , donde $\epsilon$ denota el ruido (aleatorio). Pero de acuerdo, mi comentario anterior tal vez fue engañoso. También, ${\rm Var}(aX + b)= a^2{\rm Var}(X)$ , si $a$ y $b$ denotan constantes.