Estoy tratando de aprender sobre el sesgo en la regresión lineal simple. Específicamente, quiero ver qué sucede cuando el $cov(e,x) = 0$ se viola la hipótesis de la regresión simple.
Si se viola esta suposición, llego a
\begin {Ecuación} \hat { \beta }_1 \rightarrow \beta_1 + \frac {{cov(e,x)}}{{var(x)}}. \end {Ecuación}
Esta derivación es de esta página web (ecuaciones 1 a 6). La página web dice
Si cov(e,x) =\= 0, el estimador OLS es inconsistente, es decir, su valor no converge al verdadero valor del parámetro con el tamaño de la muestra. Además, el estimador MCO está sesgado.
Para mí, está claro que $\hat{\beta}_1$ converge a un valor que no es el verdadero $\beta_1$ Así que que lo hace sesgado. Sin embargo, la página web parece concluir que esto lo hace inconsistente. De alguna manera, concluyen que el estimador está sesgado, pero no estoy seguro (simplemente utilizan "además").
Así que aquí están mis preguntas:
- ¿Cuál es la diferencia entre parcialidad e incoherencia en este caso? (Cuando concluyen que es incoherente, yo concluyo que es tendencioso).
- ¿Tiene sentido decir que $\beta_1$ está sesgada? O bien, ¿puede sólo un estimador $\hat{\beta_1}$ ser parcial?
- Si el $cov(e,x) = 0$ se viola el supuesto, ¿cómo puedo averiguar qué ocurre con la varianza de $\hat{\beta}_1$ ? ¿Puedo saber si aumenta o disminuye?
EDITAR Para aclarar la pregunta 3, me pregunto si hay una prueba/argumento para:
Cuando el segundo supuesto ( $cov(e,x) = 0$ ) de los mínimos cuadrados ordinarios, la varianza de $\hat{\beta_1}$ cambios.
La única respuesta que se me ocurre es utilizar el resultado del sesgo de las variables omitidas. Es decir, comparando $var(\hat{\beta_1})$ y $var(\tilde{\beta_1})$ utilizando las ecuaciones
\begin {alinear} var( \hat { \beta_1 }) = \sigma ^2/[SST_1(1-R_1^2)] \end {align}
\begin {alinear} var( \tilde { \beta_1 }) = \sigma ^2/SST_1. \end {align}
El argumento completo para el caso de la variable omitida proviene del texto de Wooldridge.
Dado que tener una variable omitida es suficiente para violar $cov(e,x) = 0$ ¿es suficiente el argumento dado por Wooldridge para demostrar que la varianza es menor de lo que sería si $cov(e,x) = 0$ ¿es cierto?
(Si mi entendimiento es correcto, creo que $\tilde{\beta_1}$ es el caso que viola la suposición. $\hat{\beta_1}$ es el caso "verdadero").
0 votos
¿Cuál es la fuente de su nueva comilla? Cuando el segundo supuesto ( $cov(e,x) = 0$ ) de los mínimos cuadrados ordinarios, la varianza de $\hat{\beta_1}$ cambios.
1 votos
Esta es mi suposición. Es muy posible que sea incorrecta; no hay ningún cambio. Sólo me gustaría probarlo de una manera u otra
0 votos
Gracias. En tu post de arriba, para evitar confusiones, ayudaría que ampliaras tu suposición de manera algo más formal, por ejemplo, siendo explícito sobre todas las demás suposiciones. Sólo mis dos centavos.