El teorema de Gauss-Markov establece que para un modelo lineal
$$y = X \beta + \epsilon $$
si se cumplen las dos condiciones
$$\operatorname E[\epsilon \mid X] = 0$$ $$\operatorname{Var}(\epsilon) = \sigma^2 I < \infty $$
entonces el estimador estándar OLS $(X'X)^{-1}X'y$ es el mejor estimador lineal insesgado.
Ahora supongamos que medimos $X$ con errores. Entonces tenemos
$$y = (X + \mu)\beta + \epsilon = X\beta + \mu\beta+\epsilon$$
Si $\mu$ es de media $0$ con varianza constante, ambos supuestos se mantienen. ¿Por qué entonces el estimador MCO está sesgado?
3 votos
Yo diría que el estimador OLS es $(X'X)^{-1}X'y,$ no sólo $(X'X)^{-1}X'.$ En particular, la forma $(X'X)^{-1}X'y$ te muestra por qué se usa la palabra "lineal": Es lineal en función de $y. \qquad$
3 votos
$(X'X)^{-1} X' y$ sigue siendo el mejor estimador lineal insesgado. $((X+\mu)'(X+\mu))^{-1}(X+\mu)' y$ no lo es.
2 votos
Dejemos que $z = x + u$ . Si se reescribe en términos de observables $z$ Su problema es $\operatorname{E}[u \mid z] \neq 0$
0 votos
¿Es una pregunta para los deberes?
0 votos
No, pensaba que el ruido en las variables independientes no debería sesgar los coeficientes si es independiente, pero todo lo que he leído en Internet me decía lo contrario. No pude entender por qué.