El modelo es
$$\mathbb{E}(y) = \beta_0 + \beta_1 x + \beta_2 x^2.$$
Añadir una cantidad fija (normalmente pequeña) $\delta x$ a $x$ y comparando da la diferencia
$$\eqalign{ \frac{\delta\,\mathbb{E}(y)}{\delta\,x} &= \frac{\beta_0 + \beta_1(x+\delta x) + \beta_2(x+\delta x)^2 - (\beta_0 + \beta_1 x + \beta_2 x^2)}{\delta x} \\ &= \beta_1 + \beta_2 (2x + \delta x). }$$
Esta es la primera diferencia en $y$ . Para la pendiente propiamente dicha, tome el límite como $\delta x \to 0$ , dando
$$\frac{d\,\mathbb{E}(y)}{d\,x} = \beta_1 + 2\beta_2 x.$$
Como el modelo de $y$ es una combinación lineal de los parámetros $(\beta_0, \beta_1, \beta_2)$ (con coeficientes $c_0=0,c_1=1,c_2=2x$ ). Esa es la clave.
Obtener estimaciones de los coeficientes, $(\hat\beta_1, \hat\beta_2)$ de la forma que se quiera, junto con su matriz de covarianza
$$\Sigma=\text{Cov}(\hat\beta_1,\hat\beta_2).$$
Así, $\Sigma_{ii}$ da la varianza de estimación de $\beta_i$ y $\Sigma_{12}=\Sigma_{21}$ da su covarianza. Con esto en la mano, estimar la pendiente en cualquier $x$ como
$$\widehat{\frac{d\,\mathbb{E}(y)}{d\,x}} = \hat\beta_1 + 2\hat\beta_2 x.$$
Utilizando las reglas estándar para calcular las varianzas de las combinaciones lineales, su varianza de estimación es
$$\operatorname{Var}\left(\widehat{\frac{d\,\mathbb{E}(y)}{d\,x}}\right) = \text{Var}(\hat\beta_1 + 2\hat\beta_2 x)= \Sigma_{11} + 4x\Sigma_{12} + 4x^2\Sigma_{22}.\tag{1}$$
Su raíz cuadrada es el error estándar de la pendiente en $x$ .
Este fácil cálculo del error estándar fue posible gracias a la observación clave realizada anteriormente: la pendiente estimada es una combinación lineal de las estimaciones de los parámetros.
De forma más general, para obtener la varianza de una combinación lineal, calcula
$$\operatorname{Var}\left(c_1\hat\beta_1 + c_2\hat\beta_2\right) = c_1^2\Sigma_{11} + 2c_1c_2\Sigma_{12} + c_2^2\Sigma_{22}.\tag{1}$$
Su raíz cuadrada es el error estándar de esta combinación lineal de coeficientes.
Estime las derivadas superiores, las derivadas parciales (o, de hecho, cualquier combinación lineal de los coeficientes) y todas sus varianzas en un modelo de regresión múltiple utilizando las mismas técnicas: diferencie, introduzca los parámetros estimados y calcule la varianza.
Para estos datos, $\Sigma$ se calcula (en R
) para ser
(Intercept) x I(x^2)
(Intercept) 2.427 -0.921 0.073
x -0.921 0.423 -0.037
I(x^2) 0.073 -0.037 0.003
Con esto, dibujé mil líneas tangentes generadas al azar para $x=6$ (asumiendo una distribución normal trivariada para $(\hat\beta_0,\hat\beta_1,\hat\beta_2)$ ) para representar la varianza de la pendiente. Cada línea se ha dibujado con alta transparencia. La barra negra de la figura es el efecto acumulado de las mil tangentes. (Sobre ella se dibuja, en rojo, la propia tangente estimada). Evidentemente, la pendiente se conoce con cierta certeza: su varianza (por la fórmula $(1)$ ) es sólo $0.024591$ . Dado que el intercepto de la curva en sí es mucho menos seguro (su varianza es $2.427$ ), la mayoría de estas tangentes sólo difieren en elevación, no en ángulo, formando la barra negra fuertemente colimada que se ve.
Para mostrar qué más puede ocurrir, añadí errores normales independientes de la desviación estándar $10$ a cada punto de datos y realizó la misma construcción para el punto base $x=2$ . Ahora la pendiente, al ser mucho menos segura, se manifiesta como un abanico de tangentes que se extiende.
1 votos
Sobre el "no lineal" del título original: se trata de un lineal regresión. Por lo tanto, la respuesta utiliza los mecanismos estándar para obtener el error estándar de cualquier combinación lineal de parámetros. Véase stats.stackexchange.com/questions/148638 .
1 votos
Creo que mi pregunta principal tiene una suposición subyacente de la que no estoy seguro. ¿Para empezar, las pendientes de las relaciones no lineales tienen errores estándar? Sé que la regresión general lo tiene, pero ¿qué pasa con las pendientes en cada x?