1 votos

Adaptación de OLS a un coeficiente de regresión paramétrico

Consideremos el siguiente modelo lineal $$ Y_i=X_{i1}\beta_1+\eta_i X_{i2}\beta_2+\epsilon_i $$

Dejemos que $\beta\equiv (\beta_1,\beta_2)$ y $X_i\equiv (X_{i1}, X_{i2})$ .

Supongamos que

[A1] Tenemos una muestra i.i.d. de observaciones, $\{Y_i, X_{i}\}_{i=1}^n$ .

[A2] $E(\epsilon_i| X_{i})=0$ .

[A3] $E(\eta_i|X_{i})$ es conocido por el analista. Permítanme denotar estos valores esperados como $A(X_{i})$ . Tenga en cuenta que la función $A(\cdot)$ es conocido.

[A4] $\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} A(X_{i1}, X_{i2}))\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 A(X_{i1}, X_{i2}))\\ \end{pmatrix}$ y su análogo muestral son invertibles.

Mi objetivo es construir un estimador consistente y asintóticamente normal para $\beta$ .

Esto es similar al caso OLS, con la única excepción de que $\eta_i$ premultiplica una covariable y es inobservable.

Mi afirmación es que, tras algunas manipulaciones menores, podemos seguir aplicando la "maquinaria OLS".

Informo aquí de la prueba. ¿Es correcta? ¿Es un resultado bien conocido y, si es así, podría darme una referencia?


Prueba

Paso 1: Obsérvese que, por [A2] , $\beta$ resuelve el siguiente sistema de ecuaciones $$ \begin{pmatrix} E(X_{i1}Y_i)\\ E(X_{i2}Y_i)\\ \end{pmatrix}=\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} \eta_i)\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 \eta_i)\\ \end{pmatrix}\begin{pmatrix} \beta_1\\ \beta_2 \end{pmatrix} $$

Paso 2: Por [A3] combinada con la ley de las expectativas iteradas, $$ \begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} \eta_i)\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 \eta_i)\\ \end{pmatrix}=\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} A(X_{i1}, X_{i2}))\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 A(X_{i1}, X_{i2}))\\ \end{pmatrix} $$

Paso 3: Por [A4] , $$ \begin{pmatrix} \beta_1\\ \beta_2 \end{pmatrix}=\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} A(X_{i1}, X_{i2}))\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 A(X_{i1}, X_{i2}))\\ \end{pmatrix}^{-1}\begin{pmatrix} E(X_{i1}Y_i)\\ E(X_{i2}Y_i)\\ \end{pmatrix} $$

Paso 4: Tome la muestra análoga al paso 3 $$ \begin{pmatrix} \hat{\beta}_{1,n}\\ \hat{\beta}_{2,n} \end{pmatrix}=\begin{pmatrix} \frac{1}{n}\sum_{i=1}^nX_{i1}^2 & \frac{1}{n}\sum_{i=1}^n X_{i1} X_{i2} A(X_{i1}, X_{i2})\\ \frac{1}{n}\sum_{i=1}^n X_{i1}X_{i2} & \frac{1}{n}\sum_{i=1}^n X_{i2}^2 A(X_{i1}, X_{i2})\\ \end{pmatrix}^{-1}\begin{pmatrix} \frac{1}{n}\sum_{i=1}^n X_{i1}Y_i\\ \frac{1}{n}\sum_{i=1}^n X_{i2}Y_i\\ \end{pmatrix} $$ Paso 5 Ahora podemos demostrar que este estimador es consistente y asintóticamente normal utilizando la clásica ley de los grandes números y el teorema del límite central, tal y como hacemos para el OLS tradicional (bajo [A1] más la existencia de algunos momentos). No voy a informar de esta parte aquí.

2voto

user164061 Puntos 281

Se puede hacer la sustitución donde se divide $\eta_i$ en una parte determinista y otra aleatoria

$$\eta_i = \overbrace{f(X_{i1}, X_{i2})}^{E(\eta_i|X_{i})}+ \tilde\epsilon_i$$

Entonces la ecuación se convierte en

$$Y_i=X_{i1}\beta_1+f(X_{i1},X_{i2}) X_{i2}\beta_2+ X_{i2}\beta_2 \tilde\epsilon_i + \epsilon_i$$

y puedes combinar/simplificar/absorber $f(X_{i1},X_{i2}) X_{i2} = X_{i3}$ y $\beta_2 \tilde\epsilon_i = \epsilon_i^\prime$ de manera que se convierta en

$$Y_i=X_{i1}\beta_1+ X_{i3} \beta_2+ X_{i2} \epsilon_i^\prime + \epsilon_i$$

Ahora, esto es como un modelo lineal. Puedes resolverlo con OLS. Pero la varianza del error $X_{i2} \epsilon_i^\prime + \epsilon_i$ está relacionado con $X_{i2}$ y tienes errores heterogéneos . Es posible que desee corregir esto, por ejemplo, aplicando mínimos cuadrados ponderados para mejorar la estimación (para disminuir la varianza del error en la estimación).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X