El libro Introducción al aprendizaje estadístico de Gareth James et. al. afirma que una regresión lineal simple puede modelarse como $\hat{y}_i=\hat{\beta}_0 + \hat{\beta_1}x_i$ . Los residuos se calculan $e_i=y_i-\hat{y}_i$ .
A continuación, definen la suma residual de cuadrados como:
$$ RSS=e_1^2+e_2^2\dots e_n^2 $$
o equivalentemente como
$$ RSS=(y_1 - \hat{\beta}_0 - \hat{\beta_1}x_1)^2 + (y_2 - \hat{\beta}_0 - \hat{\beta_1}x_2)^2 +\dots+(y_n - \hat{\beta}_0 - \hat{\beta_1}x_n)^2 $$
Mi pregunta es si $\hat{y}_i=\hat{\beta}_0 + \hat{\beta_1}x_i$ entonces por qué cuando sustituyen en la ecuación RSS anterior veo que es igual a $\hat{y}_i=\hat{\beta}_0 - \hat{\beta_1}x_i$ ? ¿No importa porque se está cuadrando? Es que parece que por claridad lo sustituirías exactamente como lo acabas de definir anteriormente. No veo nada en la fe de erratas. ¿Se trata de una errata o simplemente no importa?