Consideremos el siguiente modelo lineal $$ Y_i=X_{i1}\beta_1+\eta_i X_{i2}\beta_2+\epsilon_i $$
Dejemos que $\beta\equiv (\beta_1,\beta_2)$ y $X_i\equiv (X_{i1}, X_{i2})$ .
Supongamos que
[A1] Tenemos una muestra i.i.d. de observaciones, $\{Y_i, X_{i}\}_{i=1}^n$ .
[A2] $E(\epsilon_i| X_{i})=0$ .
[A3] $E(\eta_i|X_{i})$ es conocido por el analista. Permítanme denotar estos valores esperados como $A(X_{i})$ . Tenga en cuenta que la función $A(\cdot)$ es conocido.
[A4] $\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} A(X_{i1}, X_{i2}))\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 A(X_{i1}, X_{i2}))\\ \end{pmatrix}$ y su análogo muestral son invertibles.
Mi objetivo es construir un estimador consistente y asintóticamente normal para $\beta$ .
Esto es similar al caso OLS, con la única excepción de que $\eta_i$ premultiplica una covariable y es inobservable.
Mi afirmación es que, tras algunas manipulaciones menores, podemos seguir aplicando la "maquinaria OLS".
Informo aquí de la prueba. ¿Es correcta? ¿Es un resultado bien conocido y, si es así, podría darme una referencia?
Prueba
Paso 1: Obsérvese que, por [A2] , $\beta$ resuelve el siguiente sistema de ecuaciones $$ \begin{pmatrix} E(X_{i1}Y_i)\\ E(X_{i2}Y_i)\\ \end{pmatrix}=\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} \eta_i)\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 \eta_i)\\ \end{pmatrix}\begin{pmatrix} \beta_1\\ \beta_2 \end{pmatrix} $$
Paso 2: Por [A3] combinada con la ley de las expectativas iteradas, $$ \begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} \eta_i)\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 \eta_i)\\ \end{pmatrix}=\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} A(X_{i1}, X_{i2}))\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 A(X_{i1}, X_{i2}))\\ \end{pmatrix} $$
Paso 3: Por [A4] , $$ \begin{pmatrix} \beta_1\\ \beta_2 \end{pmatrix}=\begin{pmatrix} E(X_{i1}^2) & E(X_{i1} X_{i2} A(X_{i1}, X_{i2}))\\ E(X_{i1}X_{i2}) & E(X_{i2}^2 A(X_{i1}, X_{i2}))\\ \end{pmatrix}^{-1}\begin{pmatrix} E(X_{i1}Y_i)\\ E(X_{i2}Y_i)\\ \end{pmatrix} $$
Paso 4: Tome la muestra análoga al paso 3 $$ \begin{pmatrix} \hat{\beta}_{1,n}\\ \hat{\beta}_{2,n} \end{pmatrix}=\begin{pmatrix} \frac{1}{n}\sum_{i=1}^nX_{i1}^2 & \frac{1}{n}\sum_{i=1}^n X_{i1} X_{i2} A(X_{i1}, X_{i2})\\ \frac{1}{n}\sum_{i=1}^n X_{i1}X_{i2} & \frac{1}{n}\sum_{i=1}^n X_{i2}^2 A(X_{i1}, X_{i2})\\ \end{pmatrix}^{-1}\begin{pmatrix} \frac{1}{n}\sum_{i=1}^n X_{i1}Y_i\\ \frac{1}{n}\sum_{i=1}^n X_{i2}Y_i\\ \end{pmatrix} $$ Paso 5 Ahora podemos demostrar que este estimador es consistente y asintóticamente normal utilizando la clásica ley de los grandes números y el teorema del límite central, tal y como hacemos para el OLS tradicional (bajo [A1] más la existencia de algunos momentos). No voy a informar de esta parte aquí.