0 votos

En lugar de enchufar el $x_i$ para encontrar el valor ajustado, podemos aplicar otra forma de regresión para obtener el valor ajustado

Supongamos que tenemos un conjunto de datos y ejecutamos una regresión para obtener la forma $$\hat{y_i}=\hat{\alpha}+\hat{\beta}x_i+\hat{\gamma}z_i$$

Supongamos que $x_i=3,z_i=5$ podemos calcular el valor ajustado $\hat{y_i}$ suponer que es $10$ dado $\hat{\alpha},\hat{\beta},\hat{\gamma}$ es conocido.

Sin embargo, en Eview, el programa calcula el valor ajustado por regresión de nuevo en la forma de $$\hat{y_i}^*=\hat{\alpha}^*+\hat{\beta}^*(x_i-3)+\hat{\gamma}^*(z_i-5)$$ entonces $\hat{\alpha}^*$ será el valor ajustado $10$ como el valor ajustado de la primera ecuación.

Estuve divagando sobre la intuición detrás de esto, siento que es correcto pero me sorprende que no pueda decir por qué esta álgebra básica, ¿qué garantía de que tal sucede?

Agradezco cualquier comentario

1voto

almightyon Puntos 1

Simplemente enchufe $x_i = 3$ y $z_i = 5$ en la nueva regresión. Verá que $\hat y_i^\ast = \hat\alpha^\ast$ . La nueva regresión simplemente desplaza los datos. La idea de este enfoque es que cualquier software estadístico informará de los errores estándar para su estimación de $\alpha$ para poder obtener los errores estándar de la predicción.

Nótese que en la regresión original tenemos que $\hat y_i = \hat\alpha + 3\hat\beta + 5\hat\gamma$ . Como los datos están desplazados, tenemos en la nueva regresión (para $x,z=0$ ) que $\hat y_i^\ast = \hat\alpha^\ast - 3 \hat\beta^\ast - 5\hat\gamma^\ast$ .

Dejemos que $\mathbf A$ sea dada por $$\mathbf A = \begin{bmatrix} 1 & -3 & -5 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}.$$ Cuando se multiplica por la izquierda con otra matriz, $\mathbf A$ multiplica la primera columna de la otra matriz por 3 y 5 y la resta de la segunda y tercera columna, respectivamente. Obsérvese que $\mathbf A^{-1}\mathbf A = \mathbf I_3$ como $$\mathbf A^{-1} = \begin{bmatrix} 1 & 3 & 5 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}.$$ Dejemos que $\mathbf X$ sea la matriz de variables explicativas y $\mathbf y$ el vector de variables dependientes, es decir $$ \mathbf X = \begin{bmatrix} 1 & x_1 & z_1 \\ 1 & x_2 & z_2 \\ \vdots & \vdots & \vdots \\ 1 & x_n & z_n \end{bmatrix}\qquad\text{and}\qquad \mathbf y = \begin{bmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{bmatrix}.$$ El OLSE en la primera regresión viene dado por $$\boldsymbol{\hat\theta} =(\mathbf X'\mathbf X)^{-1}(\mathbf X'\mathbf y).$$ Dejemos que $\hat y = ((\mathbf A^{-1})'\mathbf e_1)\cdot\boldsymbol{\hat\theta}$ , donde $\mathbf e_1$ es el primer vector base canónico en $\mathbb R^3$ es decir $\mathbf e_1 = \begin{bmatrix} 1 & 0 & 0 \end{bmatrix}'$ . Así, $(\mathbf A^{-1})'\mathbf e_1$ es la primera fila de $\mathbf A^{-1}$ (como vector de columnas). Recordemos que construimos $\mathbf A$ según los valores para los que queremos la predicción. El OLSE en el segundo modelo viene dado por $$\begin{align*}\boldsymbol{\hat\vartheta} &= ((\mathbf X\mathbf A)'(\mathbf X\mathbf A))^{-1}(\mathbf X\mathbf A)'\mathbf y \\&= \mathbf A^{-1}(\mathbf X'\mathbf X)^{-1}(\mathbf A')^{-1}\mathbf A'\mathbf X'\mathbf y \\&= \mathbf A^{-1}(\mathbf X'\mathbf X)^{-1}(\mathbf X'\mathbf y) \\&= \mathbf A^{-1}\boldsymbol{\hat\theta}.\end{align*}$$ Ahora observe que $$\hat y = (\mathbf A^{-1})'\mathbf e_1\cdot\boldsymbol{\hat\theta} = \mathbf e_1'\mathbf A^{-1}\boldsymbol{\hat\theta} = \mathbf e_1'\boldsymbol{\hat\vartheta}.$$ Recordemos que, por definición, el primer elemento de $\boldsymbol{\hat\vartheta}$ es $\hat\alpha^\ast$ y que $\mathbf e_1$ extrae el primer elemento de este vector.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X