18 votos

¿Por qué es el estimador de MCO de AR(1) coeficiente parcial?

Estoy tratando de entender por qué OLS da un estimador sesgado de un proceso AR(1). Considerar $$\begin{aligned} y{t} &= \alpha + \beta y{t-1} + \epsilon{t}, \ \epsilon{t} &\stackrel{iid}{\sim} N(0,1). \end{alineado} $$ en este modelo, exogeneity estricta es violado, es decir, $y_t$ y $\epsilont$ están correlacionados pero $y{t-1}$ $\epsilont$ son sin correlación. Pero si esto es cierto, entonces ¿por qué la siguiente derivación simple no tiene? $$\begin{aligned} \text{plim} \ \hat{\beta} &= \frac{\text{Cov}(y{t},y{t-1})}{\text{Var}(y{t-1})} \ &=\frac{\text{Cov}(\alpha + \beta y{t-1}+\epsilon{t}, y{t-1})}{\text{Var}(y{t-1})} \ &= \beta+ \frac{\text{Cov}(\epsilon{t}, y{t-1})}{\text{Var}(y_{t-1})} \ &=\beta. \end{alineados} $$

17voto

Jeff Bauer Puntos 236

Como esencialmente discutido en los comentarios, insesgadez es una propiedad de muestra finita, y si llevan a cabo se expresaría como

$$E (\hat \beta ) = \beta$$

(donde el valor esperado es el primer momento de la distribución de la muestra finita)

mientras que la coherencia es una propiedad asintótica expresada como

$$\text{plim} \hat \beta = \beta$$

El OP muestra que a pesar de que OLS en este contexto es parcial, es aún consistente.

$$E (\hat \beta ) \neq \beta\;\;\; \text{but}\;\;\; \text{plim} \hat \beta = \beta$$

No hay contradicción aquí.

9voto

Christoph Hanck Puntos 4143

@Alecos explica muy bien por qué una correcta plim y unbiasedbess no son los mismos. Como para la razón subyacente por la calculadora no es imparcial, recordemos que unbiasedness de un estimador requiere que todos los términos de error son la media independiente de todos los regresores valores, $E(\epsilon|X)=0$.

En el presente caso, el regresor de la matriz se compone de los valores de $y_1,\ldots,y_{T-1}$, por lo que - ver mpiktas comentario' - la condición se traduce en $E(\epsilon_s|y_1,\ldots,y_{T-1})=0$ todos los $s=2,\ldots,T$.

Aquí, hemos

\begin{equation*} y_{t}=\beta y_{t-1}+\epsilon _{t}, \end{ecuación*} Incluso bajo el supuesto de $E(\epsilon_{t}y_{t-1})=0$ tenemos que \begin{equation*} E(\epsilon_ty_{t})=E(\epsilon_t(\beta y_{t-1}+\epsilon _{t}))=E(\epsilon _{t}^{2})\neq 0. \end{ecuación*} Pero, $y_t$ es también un regresor para los valores futuros en ain modelo de AR,$y_{t+1}=\beta y_{t}+\epsilon_{t+1}$.

7voto

Marc-Andre R. Puntos 789

Ampliar en dos buenas respuestas. Anote el estimador de MCO:

$$\hat\beta =\beta + \frac{\sum{t=2}^Ty{t-1}\varepsilont}{\sum{t=2}^Ty_{t-1}^2}$$

Para insesgadez necesitamos

$$E\frac{\sum{t=2}^Ty{t-1}\varepsilont}{\sum{t=2}^Ty_{t-1}^2}=0.$$

Pero para eso necesitamos que $E\varepsilont|y{1},...,y_{T-1})=0,$ cada $t$. Para el modelo AR(1) esto claramente no funciona, desde $\varepsilont$ está relacionado con el % de valores futuros $y{t},y{t+1},...,y{T}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X