3 votos

Varianza del estimador OLS de primera diferencia para el modelo lineal parcial

Estoy leyendo el libro de Yatchew (2003) Semiparametric Regression for the Applied Econometrician.

En las páginas 2 y 3, considera un modelo lineal parcial de la forma $$y_{i} = z_{i} \beta + f(x_{i}) + \varepsilon_{i}$$ donde asume que $x_{i}$ se distribuye uniformemente en el intervalo unitario, y $\mathbb{E}[z_{i} | x_{i}] = g(x_{i})$ . Yatchew demuestra que si las primeras derivadas de $f$ y $g$ están acotados, entonces podemos estimar $\beta$ utilizando OLS en la primera diferencia. En particular, muestra que, si $z_{i} = g(x_{i})+u_{i}$ Entonces: $$y_{i} - y_{i-1} \approx (u_{i} - u_{i-1})\beta + (\varepsilon_{i} - \varepsilon_{i-1})$$ Para que podamos estimar $\beta$ por $$\hat{\beta}_{diff} = \frac{\frac{1}{n}\sum_{i=2}^{n} (y_{i}-y_{i-1})(z_{i}-z_{i-1})}{\frac{1}{n}\sum_{i=2}^{n} (z_{i} -z_{i-1})^{2}} \approx \beta + \frac{\frac{1}{n}\sum_{i=2}^{n} (\varepsilon_{i} - \varepsilon_{i-1})(u_{i} - u_{i-1})}{\frac{1}{n}\sum_{i=2}^{n} (u_{i} - u_{i-1})^{2}}\\$$ Ahora, Yatchew (2003) afirma que el denominador de la fracción de la derecha converge a $2\sigma_{u}^{2}$ (y estoy de acuerdo), y que el numerador tiene media $0$ (estoy de acuerdo) y la varianza $6 \sigma_{\varepsilon}^{2} \sigma_{u}^{2}$ .

¿Cómo consigue que la varianza sea $6 \sigma_{\varepsilon}^{2} \sigma_{u}^{2}$ ? He tratado de derivar esto durante mucho tiempo, pero consistentemente obtener que la varianza es $4 \sigma_{\varepsilon}^{2} \sigma_{u}^{2}$ . ¿Alguien puede mostrarlo?

Este resultado es necesario para derivar la distribución asintótica del estimador $\hat{\beta}_{diff}$ .

Cualquier ayuda es muy apreciada.

2voto

Lee Puntos 31

\begin{align*} &Var \left( \frac{1}{n}\sum_{i=2}^{n} (u_{i} - u_{i-1})(\varepsilon_{i} - \varepsilon_{i-1}) \right)\\ \\ &= Var \left( \frac{1}{n} \sum_{i=2}^{n} (u_{i}\varepsilon_{i} - u_{i}\varepsilon_{i-1} - u_{i-1}\varepsilon_{i} + u_{i-1}\varepsilon_{i-1}) \right)\\ \\ & =\frac{1}{n^{2}} Var \left( u_{n}\varepsilon_{n}+2 \sum_{i=2}^{n-2} u_{i}\varepsilon_{i} + u_{1}\varepsilon_{1} - \sum_{i=2}^{n} u_{i}\varepsilon_{i-1} - \sum_{i=2}^{n} u_{i-1}\varepsilon_{i} \right)\\ \\ & =\frac{1}{n^{2}} \left( \sigma_{u}^{2}\sigma_{\varepsilon}^{2} +4 \sum_{i=2}^{n-2} \sigma_{u}^{2}\sigma_{\varepsilon}^{2} + \sigma_{u}^{2}\sigma_{\varepsilon}^{2} + \sum_{i=2}^{n} \sigma_{u}^{2}\sigma_{\varepsilon}^{2} + \sum_{i=2}^{n} \sigma_{u}^{2}\sigma_{\varepsilon}^{2} \right)\\ \\ & =\frac{1}{n^{2}} \left( \sigma_{u}^{2}\sigma_{\varepsilon}^{2} +4 (n-2) \sigma_{u}^{2}\sigma_{\varepsilon}^{2} + \sigma_{u}^{2}\sigma_{\varepsilon}^{2} + (n-1) \sigma_{u}^{2}\sigma_{\varepsilon}^{2} + (n-1)\sigma_{u}^{2}\sigma_{\varepsilon}^{2} \right)\\ \\ & =\frac{1}{n^{2}} (6n-8) \sigma_{u}^{2}\sigma_{\varepsilon}^{2} \\ \\ &\approx \frac{6 \sigma_{u}^{2}\sigma_{\varepsilon}^{2}}{n} \\ \end{align*} donde la última línea es para los grandes $n$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X