En algunos contextos, $\varepsilon_i = X_i-\mu$ se llama un "error" y $\hat\varepsilon_i=X_i-\bar X$ se llama un "residual".
Observe que si $X_1,\ldots,X_n$ son yo.yo.d. a continuación, los errores de $\varepsilon_i=X_i-\mu$ son independientes y los residuos $\hat\varepsilon_i=X_i-\bar X$ no (ya que están obligados a sumar a $0$, por lo que se correlacionó negativamente).
En la regresión lineal simple problema en que $\mathbb E(X_i) = \alpha+\beta w_i$, los errores de $\varepsilon_i = X_i - (\alpha+\beta w_i)$ se toman a menudo para ser independiente, pero los residuos de $\hat\varepsilon_i=X_i - (\hat\alpha+\hat\beta w_i)$ donde $\hat\alpha$ $\hat\beta$ son de mínimos cuadrados que se estima que dependen $X_i$ y $w_i$, $i=1,\ldots, n$, están obligados a cumplir las dos igualdades $\hat\varepsilon_1+\cdots+\hat\varepsilon_n=0$$\hat\varepsilon_1 w_1+\cdots+\hat\varepsilon_n w_n=0$. La correlación entre el $\hat\varepsilon_i$ $\hat\varepsilon_j$ depende de $w_1,\ldots,w_n$ y en $i$$j$. (Específicamente, si los errores tienen todos la misma varianza---un supuesto llamado homscedasticity---y no están correlacionadas, y cada entrada en la primera columna de $M\in\mathbb R^{n\times 2}$ $1$ y la segunda columna es$w_1,\ldots,w_n$, $\operatorname{var}(\varepsilon)(I_n-M(M^TM)^{-1}M^T)$ es la matriz cuyas $i,j$ entrada $\operatorname{cov}(\hat\varepsilon_i,\hat\varepsilon_j)$.)
Consulte este artículo: http://en.wikipedia.org/wiki/Errors_and_residuals_in_statistics