Estoy tratando de entender por qué OLS da un estimador sesgado de un proceso AR(1). Considerar $$\begin{aligned} y{t} &= \alpha + \beta y{t-1} + \epsilon{t}, \ \epsilon{t} &\stackrel{iid}{\sim} N(0,1). \end{alineado} $$ en este modelo, exogeneity estricta es violado, es decir, $y_t$ y $\epsilont$ están correlacionados pero $y{t-1}$ $\epsilont$ son sin correlación. Pero si esto es cierto, entonces ¿por qué la siguiente derivación simple no tiene? $$\begin{aligned} \text{plim} \ \hat{\beta} &= \frac{\text{Cov}(y{t},y{t-1})}{\text{Var}(y{t-1})} \ &=\frac{\text{Cov}(\alpha + \beta y{t-1}+\epsilon{t}, y{t-1})}{\text{Var}(y{t-1})} \ &= \beta+ \frac{\text{Cov}(\epsilon{t}, y{t-1})}{\text{Var}(y_{t-1})} \ &=\beta. \end{alineados} $$
Respuestas
¿Demasiados anuncios?Como esencialmente discutido en los comentarios, insesgadez es una propiedad de muestra finita, y si llevan a cabo se expresaría como
$$E (\hat \beta ) = \beta$$
(donde el valor esperado es el primer momento de la distribución de la muestra finita)
mientras que la coherencia es una propiedad asintótica expresada como
$$\text{plim} \hat \beta = \beta$$
El OP muestra que a pesar de que OLS en este contexto es parcial, es aún consistente.
$$E (\hat \beta ) \neq \beta\;\;\; \text{but}\;\;\; \text{plim} \hat \beta = \beta$$
No hay contradicción aquí.
@Alecos explica muy bien por qué una correcta plim y unbiasedbess no son los mismos. Como para la razón subyacente por la calculadora no es imparcial, recordemos que unbiasedness de un estimador requiere que todos los términos de error son la media independiente de todos los regresores valores, $E(\epsilon|X)=0$.
En el presente caso, el regresor de la matriz se compone de los valores de $y_1,\ldots,y_{T-1}$, por lo que - ver mpiktas comentario' - la condición se traduce en $E(\epsilon_s|y_1,\ldots,y_{T-1})=0$ todos los $s=2,\ldots,T$.
Aquí, hemos
\begin{equation*} y_{t}=\beta y_{t-1}+\epsilon _{t}, \end{ecuación*} Incluso bajo el supuesto de $E(\epsilon_{t}y_{t-1})=0$ tenemos que \begin{equation*} E(\epsilon_ty_{t})=E(\epsilon_t(\beta y_{t-1}+\epsilon _{t}))=E(\epsilon _{t}^{2})\neq 0. \end{ecuación*} Pero, $y_t$ es también un regresor para los valores futuros en ain modelo de AR,$y_{t+1}=\beta y_{t}+\epsilon_{t+1}$.
Ampliar en dos buenas respuestas. Anote el estimador de MCO:
$$\hat\beta =\beta + \frac{\sum{t=2}^Ty{t-1}\varepsilont}{\sum{t=2}^Ty_{t-1}^2}$$
Para insesgadez necesitamos
$$E\frac{\sum{t=2}^Ty{t-1}\varepsilont}{\sum{t=2}^Ty_{t-1}^2}=0.$$
Pero para eso necesitamos que $E\varepsilont|y{1},...,y_{T-1})=0,$ cada $t$. Para el modelo AR(1) esto claramente no funciona, desde $\varepsilont$ está relacionado con el % de valores futuros $y{t},y{t+1},...,y{T}$.