Tengo el modelo de regresión no lineal $$y_i= \beta_0 + \beta_1 x_{1i}+e^{ \beta_2 x_{2i}}+u_i, \quad i=1,2, \ldots ,n,$$ y se satisfacen los supuestos menos cuadrados (véase más abajo). Que $ \beta =( \beta_0 , \beta_1 , \beta_2 )$ .
Dado este modelo, quiero examinar el sesgo de la estimaciones de mínimos cuadrados no lineales de $ \beta $ . Esta estimación viene dada por la solución global del problema de minimización $$ \min_ { \beta_0 , \beta_1 , \beta_2 } \sum_i (y_i- \beta_0 - \beta_1 x_{1i}-e^{ \beta_2 x_{2i}})^2.$$ La solución puede denotarse por $ \hat { \beta }=( \hat { \beta }_0, \hat { \beta }_1, \hat { \beta }_2)$ .
(Cabe señalar que las condiciones de primer orden para el problema de la minimización son
\begin {Casos} \sum_i (y_i- \beta_0 - \beta_1 x_{1i}-e^{ \beta_2 x_{2i})&=0; \\ \sum_i (y_i- \beta_0 - \beta_1 x_{1i}-e^{ \beta_2 x_{2i})x_{1i}&=0; \\ \sum_i (y_i- \beta_0 - \beta_1 x_{1i}-e^{ \beta_2 x_{2i})e^{ \beta_2 x_{2i}}&=0; \end {Casos}
y añadir a esto que no creo que podamos encontrar una solución analítica a este sistema de ecuaciones. Por lo tanto, es posible que tengamos que usar algoritmos de computadora para resolver el sistema anterior).
Ahora, tengo dos preguntas con respecto a $ \hat { \beta }$ .
A. En primer lugar, ¿cómo examino el sesgo $E( \hat { \beta }- \beta )$ ? (La expectativa se toma por componentes.)
B. En segundo lugar, es el sesgo igual a cero para la intercepción y el coeficiente de $x_{1i}$ ? Es decir, ¿es verdad que $$E( \hat { \beta }- \beta )=(0,0,E( \hat { \beta }_2- \beta_2 ))?$$ Para la primera pregunta, A, estoy buscando un método de investigación; puede implicar el uso de, por ejemplo, MATLAB o Mathematica. Para la segunda pregunta, B, estoy buscando una prueba o un contraejemplo. (La pregunta B puede ser vista como una subpregunta a la A.)
Me interesa esto porque a menudo se dice que la regresión no lineal introduce un sesgo en las estadísticas. Las referencias de esta afirmación son varias, por ejemplo, el artículo de Wikipedia en inglés sobre regresión no lineal ; página 51 en Regresión no lineal 2005, por G. A. F. Seber, C. J. Wild; Bias in Nonlinear Regression, Cook et al, Biometrika (1986), 73, 3, págs. 615 a 23; Bias in Nonlinear Estimation, M. J. Box, Revista de la Real Sociedad de Estadística. Serie B (Metodológica) (1971), 33, 2, pp. 171-201; y la entrada del blog Algunas propiedades de los mínimos cuadrados no lineales por Dave Giles.
Supuestos menos cuadrados.
- Para todos $i$ el término de error $u_i$ tiene una media condicional de cero dado $x_{1i}$ y $x_{2i}$ es decir. $E(u_i|x_{1i},x_{2i})=0$ .
- $(y_i,x_{1i},x_{2i})$ , $i=1,2, \ldots ,n$ son los dibujos de identificación de la distribución conjunta.
- Los grandes valores atípicos son poco probables, lo que significa que para cada $i$ , $y_i$ , $x_{1i}$ y $x_{2i}$ tienen cuartos momentos finitos distintos de cero.
- No hay una multicolinealidad perfecta.