4 votos

¿Cómo se obtiene el error estándar de una pendiente en un punto de datos dado, para la regresión curvilínea?

Una distribución tiene este aspecto:

http://imgur.com/Yv3Cnhj

modelado por una ecuación $y=1.0333x^2 - .5382x + 1.6905.$

Encuentra la tasa de cambio (es decir, la pendiente en ese punto de la ecuación de regresión) en el punto 6 (el valor del eje x), y da el error estándar de esa pendiente.


El conjunto de datos es este:

x   y
1   1.685583341
2   0.283701371
3   12.46623075
4   18.72989511
5   25.80864106
6   37.87660867
7   50.31247602
8   59.85196297
9   77.95083301
10  99.94633518
1   1.16826204
2   5.472501855
3   7.018634811
4   18.20518892
5   21.1307888
6   33.77248541
7   46.63896027
8   63.82182222
9   84.0457413
10  99.50407873
1   2.580495548
2   6.153600293
3   10.37034361
4   16.88383006
5   28.39918421
6   32.9756888
7   46.8185963
8   63.48607854
9   80.27429267
10  101.7215886

1 votos

Sobre el "no lineal" del título original: se trata de un lineal regresión. Por lo tanto, la respuesta utiliza los mecanismos estándar para obtener el error estándar de cualquier combinación lineal de parámetros. Véase stats.stackexchange.com/questions/148638 .

1 votos

Creo que mi pregunta principal tiene una suposición subyacente de la que no estoy seguro. ¿Para empezar, las pendientes de las relaciones no lineales tienen errores estándar? Sé que la regresión general lo tiene, pero ¿qué pasa con las pendientes en cada x?

10voto

jldugger Puntos 7490

El modelo es

$$\mathbb{E}(y) = \beta_0 + \beta_1 x + \beta_2 x^2.$$

Añadir una cantidad fija (normalmente pequeña) $\delta x$ a $x$ y comparando da la diferencia

$$\eqalign{ \frac{\delta\,\mathbb{E}(y)}{\delta\,x} &= \frac{\beta_0 + \beta_1(x+\delta x) + \beta_2(x+\delta x)^2 - (\beta_0 + \beta_1 x + \beta_2 x^2)}{\delta x} \\ &= \beta_1 + \beta_2 (2x + \delta x). }$$

Esta es la primera diferencia en $y$ . Para la pendiente propiamente dicha, tome el límite como $\delta x \to 0$ , dando

$$\frac{d\,\mathbb{E}(y)}{d\,x} = \beta_1 + 2\beta_2 x.$$

Como el modelo de $y$ es una combinación lineal de los parámetros $(\beta_0, \beta_1, \beta_2)$ (con coeficientes $c_0=0,c_1=1,c_2=2x$ ). Esa es la clave.

Obtener estimaciones de los coeficientes, $(\hat\beta_1, \hat\beta_2)$ de la forma que se quiera, junto con su matriz de covarianza

$$\Sigma=\text{Cov}(\hat\beta_1,\hat\beta_2).$$

Así, $\Sigma_{ii}$ da la varianza de estimación de $\beta_i$ y $\Sigma_{12}=\Sigma_{21}$ da su covarianza. Con esto en la mano, estimar la pendiente en cualquier $x$ como

$$\widehat{\frac{d\,\mathbb{E}(y)}{d\,x}} = \hat\beta_1 + 2\hat\beta_2 x.$$

Utilizando las reglas estándar para calcular las varianzas de las combinaciones lineales, su varianza de estimación es

$$\operatorname{Var}\left(\widehat{\frac{d\,\mathbb{E}(y)}{d\,x}}\right) = \text{Var}(\hat\beta_1 + 2\hat\beta_2 x)= \Sigma_{11} + 4x\Sigma_{12} + 4x^2\Sigma_{22}.\tag{1}$$

Su raíz cuadrada es el error estándar de la pendiente en $x$ .

Este fácil cálculo del error estándar fue posible gracias a la observación clave realizada anteriormente: la pendiente estimada es una combinación lineal de las estimaciones de los parámetros.

De forma más general, para obtener la varianza de una combinación lineal, calcula

$$\operatorname{Var}\left(c_1\hat\beta_1 + c_2\hat\beta_2\right) = c_1^2\Sigma_{11} + 2c_1c_2\Sigma_{12} + c_2^2\Sigma_{22}.\tag{1}$$

Su raíz cuadrada es el error estándar de esta combinación lineal de coeficientes.


Estime las derivadas superiores, las derivadas parciales (o, de hecho, cualquier combinación lineal de los coeficientes) y todas sus varianzas en un modelo de regresión múltiple utilizando las mismas técnicas: diferencie, introduzca los parámetros estimados y calcule la varianza.


Para estos datos, $\Sigma$ se calcula (en R ) para ser

            (Intercept)      x I(x^2)
(Intercept)       2.427 -0.921  0.073
x                -0.921  0.423 -0.037
I(x^2)            0.073 -0.037  0.003

Con esto, dibujé mil líneas tangentes generadas al azar para $x=6$ (asumiendo una distribución normal trivariada para $(\hat\beta_0,\hat\beta_1,\hat\beta_2)$ ) para representar la varianza de la pendiente. Cada línea se ha dibujado con alta transparencia. La barra negra de la figura es el efecto acumulado de las mil tangentes. (Sobre ella se dibuja, en rojo, la propia tangente estimada). Evidentemente, la pendiente se conoce con cierta certeza: su varianza (por la fórmula $(1)$ ) es sólo $0.024591$ . Dado que el intercepto de la curva en sí es mucho menos seguro (su varianza es $2.427$ ), la mayoría de estas tangentes sólo difieren en elevación, no en ángulo, formando la barra negra fuertemente colimada que se ve.

Figure

Para mostrar qué más puede ocurrir, añadí errores normales independientes de la desviación estándar $10$ a cada punto de datos y realizó la misma construcción para el punto base $x=2$ . Ahora la pendiente, al ser mucho menos segura, se manifiesta como un abanico de tangentes que se extiende.

Figure

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X