25 votos

Cómo calcular la varianza del estimador OLS $\beta_0$ condicionado a $x_1, \ldots , x_n$ ?

Sé que $$\hat{\beta_0}=\bar{y}-\hat{\beta_1}\bar{x}$$ y hasta aquí llegué cuando calculé la varianza:

\begin{align*} Var(\hat{\beta_0}) &= Var(\bar{y} - \hat{\beta_1}\bar{x}) \\ &= Var((-\bar{x})\hat{\beta_1}+\bar{y}) \\ &= Var((-\bar{x})\hat{\beta_1})+Var(\bar{y}) \\ &= (-\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= (\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= \frac{\sigma^2 (\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} \end{align*}

pero hasta ahí llegué. La fórmula final que estoy tratando de calcular es

\begin{align*} Var(\hat{\beta_0}) &= \frac{\sigma^2 n^{-1}\displaystyle\sum\limits_{i=1}^n x_i^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} \end{align*}

No estoy seguro de cómo conseguir $$(\bar{x})^2 = \frac{1}{n}\displaystyle\sum\limits_{i=1}^n x_i^2$$ suponiendo que mis cálculos sean correctos hasta ahí.

¿Es este el camino correcto?

\begin{align} (\bar{x})^2 &= \left(\frac{1}{n}\displaystyle\sum\limits_{i=1}^n x_i\right)^2 \\ &= \frac{1}{n^2} \left(\displaystyle\sum\limits_{i=1}^n x_i\right)^2 \end{align}

Seguro que es sencillo, así que la respuesta puede esperar un poco si alguien tiene una pista que me empuje en la dirección correcta.

2 votos

Este no es el camino correcto. La cuarta ecuación no se sostiene. Por ejemplo, con $x_1=1$ , $x_2=0$ y $x_3=1$ el término de la izquierda es cero, mientras que el término de la derecha es $2/3$ . El problema viene del paso en el que se divide la varianza (tercera línea de la segunda ecuación). ¿Ves por qué?

0 votos

Pista hacia el punto Quantlbex: la varianza no es una función lineal. Viola tanto la aditividad como la multiplicación escalar.

0 votos

@DavidMarx Ese paso debería ser $$=Var((-\bar{x})\hat{\beta_1}+\bar{y})=(\bar{x})^2Var(\hat{\beta_1})+\bar{y}$$ Creo que, una vez que sustituya a $\hat{\beta_1}$ y $\bar{y}$ (no estoy seguro de qué hacer para esto pero lo pensaré más), que debería ponerme en el camino correcto, espero.

30voto

Joe Puntos 6

Esta es una pregunta de autoaprendizaje, por lo que proporciono pistas que espero ayuden a encontrar la solución, y editaré la respuesta en base a tus comentarios/progresos.

Las estimaciones de los parámetros que minimizan la suma de los cuadrados son \begin{align} \hat{\beta}_0 &= \bar{y} - \hat{\beta}_1 \bar{x} , \\ \hat{\beta}_1 &= \frac{ \sum_{i = 1}^n(x_i - \bar{x})y_i }{ \sum_{i = 1}^n(x_i - \bar{x})^2 } . \end{align} Para obtener la varianza de $\hat{\beta}_0$ , parta de su expresión y sustituya la expresión de $\hat{\beta}_1$ y hacer el álgebra $$ {\rm Var}(\hat{\beta}_0) = {\rm Var} (\bar{Y} - \hat{\beta}_1 \bar{x}) = \ldots $$

Editar:
Tenemos \begin{align} {\rm Var}(\hat{\beta}_0) &= {\rm Var} (\bar{Y} - \hat{\beta}_1 \bar{x}) \\ &= {\rm Var} (\bar{Y}) + (\bar{x})^2 {\rm Var} (\hat{\beta}_1) - 2 \bar{x} {\rm Cov} (\bar{Y}, \hat{\beta}_1). \end{align} Los dos términos de varianza son $$ {\rm Var} (\bar{Y}) = {\rm Var} \left(\frac{1}{n} \sum_{i = 1}^n Y_i \right) = \frac{1}{n^2} \sum_{i = 1}^n {\rm Var} (Y_i) = \frac{\sigma^2}{n}, $$ y \begin{align} {\rm Var} (\hat{\beta}_1) &= \frac{ 1 }{ \left[\sum_{i = 1}^n(x_i - \bar{x})^2 \right]^2 } \sum_{i = 1}^n(x_i - \bar{x})^2 {\rm Var} (Y_i) \\ &= \frac{ \sigma^2 }{ \sum_{i = 1}^n(x_i - \bar{x})^2 } , \end{align} y el término de covarianza es \begin{align} {\rm Cov} (\bar{Y}, \hat{\beta}_1) &= {\rm Cov} \left\{ \frac{1}{n} \sum_{i = 1}^n Y_i, \frac{ \sum_{j = 1}^n(x_j - \bar{x})Y_j }{ \sum_{i = 1}^n(x_i - \bar{x})^2 } \right \} \\ &= \frac{1}{n} \frac{ 1 }{ \sum_{i = 1}^n(x_i - \bar{x})^2 } {\rm Cov} \left\{ \sum_{i = 1}^n Y_i, \sum_{j = 1}^n(x_j - \bar{x})Y_j \right\} \\ &= \frac{ 1 }{ n \sum_{i = 1}^n(x_i - \bar{x})^2 } \sum_{i = 1}^n (x_j - \bar{x}) \sum_{j = 1}^n {\rm Cov}(Y_i, Y_j) \\ &= \frac{ 1 }{ n \sum_{i = 1}^n(x_i - \bar{x})^2 } \sum_{i = 1}^n (x_j - \bar{x}) \sigma^2 \\ &= 0 \end{align} desde $\sum_{i = 1}^n (x_j - \bar{x})=0$ .
Y como $$\sum_{i = 1}^n(x_i - \bar{x})^2 = \sum_{i = 1}^n x_i^2 - 2 \bar{x} \sum_{i = 1}^n x_i + \sum_{i = 1}^n \bar{x}^2 = \sum_{i = 1}^n x_i^2 - n \bar{x}^2, $$ tenemos \begin{align} {\rm Var}(\hat{\beta}_0) &= \frac{\sigma^2}{n} + \frac{ \sigma^2 \bar{x}^2}{ \sum_{i = 1}^n(x_i - \bar{x})^2 } \\ &= \frac{\sigma^2 }{ n \sum_{i = 1}^n(x_i - \bar{x})^2 } \left\{ \sum_{i = 1}^n(x_i - \bar{x})^2 + n \bar{x}^2 \right\} \\ &= \frac{\sigma^2 \sum_{i = 1}^n x_i^2}{ n \sum_{i = 1}^n(x_i - \bar{x})^2 }. \end{align}

Edición 2

¿Por qué tenemos ${\rm var} ( \sum_{i = 1}^n Y_i) = \sum_{i = 1}^n {\rm Var} (Y_i) $ ?

El modelo asumido es $ Y_i = \beta_0 + \beta_1 X_i + \epsilon_i$ , donde el $\epsilon_i$ son variables aleatorias independientes e idénticamente distribuidas con ${\rm E}(\epsilon_i) = 0$ y ${\rm var}(\epsilon_i) = \sigma^2$ .

Una vez que tenemos una muestra, el $X_i$ son conocidos, los únicos términos aleatorios son los $\epsilon_i$ . Recordando que para una variable aleatoria $Z$ y una constante $a$ tenemos ${\rm var}(a+Z) = {\rm var}(Z)$ . Así, \begin{align} {\rm var} \left( \sum_{i = 1}^n Y_i \right) &= {\rm var} \left( \sum_{i = 1}^n \beta_0 + \beta_1 X_i + \epsilon_i \right)\\ &= {\rm var} \left( \sum_{i = 1}^n \epsilon_i \right) = \sum_{i = 1}^n \sum_{j = 1}^n {\rm cov} (\epsilon_i, \epsilon_j)\\ &= \sum_{i = 1}^n {\rm cov} (\epsilon_i, \epsilon_i) = \sum_{i = 1}^n {\rm var} (\epsilon_i)\\ &= \sum_{i = 1}^n {\rm var} (\beta_0 + \beta_1 X_i + \epsilon_i) = \sum_{i = 1}^n {\rm var} (Y_i).\\ \end{align} La 4ª igualdad se mantiene como ${\rm cov} (\epsilon_i, \epsilon_j) = 0$ para $i \neq j$ por la independencia del $\epsilon_i$ .

0 votos

¡Creo que lo tengo! El libro tiene pasos sugeridos, y pude probar cada paso por separado (creo). No es tan satisfactorio como simplemente sentarse y moler a partir de este paso, ya que tuve que demostrar conclusiones intermedias para que ayude, pero creo que todo se ve bien.

0 votos

Véase la edición para el desarrollo del enfoque sugerido.

0 votos

La varianza de la suma es igual a la suma de las varianzas en este paso: $$ {\rm Var} (\bar{Y}) = {\rm Var} \left(\frac{1}{n} \sum_{i = 1}^n Y_i \right) = \frac{1}{n^2} \sum_{i = 1}^n {\rm Var} (Y_i) $$ porque desde el $X_i$ son independientes, esto implica que el $Y_i$ también son independientes, ¿verdad?

1voto

M T Puntos 216

¡Lo tengo! Bueno, con ayuda. Encontré la parte del libro que da los pasos a seguir para probar la $Var \left( \hat{\beta}_0 \right)$ (por suerte, no las resuelve, porque si no estaría tentado de no hacer la prueba). Probé cada paso por separado, y creo que funcionó.

Estoy usando la notación del libro, que es: $$ SST_x = \displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2, $$ y $u_i$ es el término de error.

1) Demuestre que $\hat{\beta}_1$ puede escribirse como $\hat{\beta}_1 = \beta_1 + \displaystyle\sum\limits_{i=1}^n w_i u_i$ donde $w_i = \frac{d_i}{SST_x}$ y $d_i = x_i - \bar{x}$ .

Esto fue fácil porque sabemos que

\begin{align} \hat{\beta}_1 &= \beta_1 + \frac{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x}) u_i}{SST_x} \\ &= \beta_1 + \displaystyle\sum\limits_{i=1}^n \frac{d_i}{SST_x} u_i \\ &= \beta_1 + \displaystyle\sum\limits_{i=1}^n w_i u_i \end{align}

2) Utilice la parte 1, junto con $\displaystyle\sum\limits_{i=1}^n w_i = 0$ para demostrar que $\hat{\beta_1}$ y $\bar{u}$ no están correlacionados, es decir, demostrar que $E[(\hat{\beta_1}-\beta_1) \bar{u}] = 0$ .

\begin{align} E[(\hat{\beta_1}-\beta_1) \bar{u}] &= E[\bar{u}\displaystyle\sum\limits_{i=1}^n w_i u_i] \\ &=\displaystyle\sum\limits_{i=1}^n E[w_i \bar{u} u_i] \\ &=\displaystyle\sum\limits_{i=1}^n w_i E[\bar{u} u_i] \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i E\left(u_i\displaystyle\sum\limits_{j=1}^n u_j\right) \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[E\left(u_i u_1\right) +\cdots + E(u_i u_j) + \cdots+ E\left(u_i u_n \right)\right] \\ \end{align}

y porque el $u$ son i.i.d, $E(u_i u_j) = E(u_i) E(u_j)$ cuando $ j \neq i$ .

Cuando $j = i$ , $E(u_i u_j) = E(u_i^2)$ por lo que tenemos:

\begin{align} &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[E(u_i) E(u_1) +\cdots + E(u_i^2) + \cdots + E(u_i) E(u_n)\right] \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i E(u_i^2) \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[Var(u_i) + E(u_i) E(u_i)\right] \\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \sigma^2 \\ &= \frac{\sigma^2}{n}\displaystyle\sum\limits_{i=1}^n w_i \\ &= \frac{\sigma^2}{n \cdot SST_x}\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x}) \\ &= \frac{\sigma^2}{n \cdot SST_x} \left(0\right) &= 0 \end{align}

3) Demuestre que $\hat{\beta_0}$ puede escribirse como $\hat{\beta_0} = \beta_0 + \bar{u} - \bar{x}(\hat{\beta_1} - \beta_1)$ . Esto también parecía bastante fácil:

\begin{align} \hat{\beta_0} &= \bar{y} - \hat{\beta_1} \bar{x} \\ &= (\beta_0 + \beta_1 \bar{x} + \bar{u}) - \hat{\beta_1} \bar{x} \\ &= \beta_0 + \bar{u} - \bar{x}(\hat{\beta_1} - \beta_1). \end{align}

4) Utilice las partes 2 y 3 para demostrar que $Var(\hat{\beta_0}) = \frac{\sigma^2}{n} + \frac{\sigma^2 (\bar{x}) ^2} {SST_x}$ : \begin{align} Var(\hat{\beta_0}) &= Var(\beta_0 + \bar{u} - \bar{x}(\hat{\beta_1} - \beta_1)) \\ &= Var(\bar{u}) + (-\bar{x})^2 Var(\hat{\beta_1} - \beta_1) \\ &= \frac{\sigma^2}{n} + (\bar{x})^2 Var(\hat{\beta_1}) \\ &= \frac{\sigma^2}{n} + \frac{\sigma^2 (\bar{x}) ^2} {SST_x}. \end{align}

Creo que todo esto funciona porque desde que proporcionamos esa $\bar{u}$ y $\hat{\beta_1} - \beta_1$ no están correlacionados, la covarianza entre ellos es cero, por lo que la varianza de la suma es la suma de la varianza. $\beta_0$ es sólo una constante, por lo que desaparece, al igual que $\beta_1$ más adelante en los cálculos.

5) Utilice el álgebra y el hecho de que $\frac{SST_x}{n} = \frac{1}{n} \displaystyle\sum\limits_{i=1}^n x_i^2 - (\bar{x})^2$ :

\begin{align} Var(\hat{\beta_0}) &= \frac{\sigma^2}{n} + \frac{\sigma^2 (\bar{x}) ^2} {SST_x} \\ &= \frac{\sigma^2 SST_x}{SST_x n} + \frac{\sigma^2 (\bar{x})^2}{SST_x} \\ &= \frac{\sigma^2}{SST_x} \left( \frac{1}{n} \displaystyle\sum\limits_{i=1}^n x_i^2 - (\bar{x})^2 \right) + \frac{\sigma^2 (\bar{x})^2}{SST_x} \\ &= \frac{\sigma^2 n^{-1} \displaystyle\sum\limits_{i=1}^n x_i^2}{SST_x} \end{align}

0 votos

Puede que haya una errata en el punto 1; creo que ${\rm var(\hat{\beta})}$ debe decir $\hat{\beta}$ .

0 votos

Es posible que desee aclarar las anotaciones y especificar qué $u_i$ y ${\rm SST}_x$ son.

0 votos

$u_i$ es el término de error y $SST_x$ es la suma total de cuadrados para $x$ (definido en la edición).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X