En la página web de Stanford conferencia de aprendizaje automático 1 La regresión lineal se define en la página 11, sección 3, como
Para $i = 1, \ldots, m$ , $y^{(i)} = \theta^T x^{(i)} + \epsilon^{(i)}$ , donde $\epsilon^{(i)}$ son IID normales ( $x^{(i)}$ son variables explicativas aleatorias).
En la página 12, a continuación, dice:
Obsérvese que por la suposición de independencia de la $\epsilon^{(i)}$ (y por lo tanto también el $y^{(i)}$ 's dado el $x^{(i)}$ 's))
¿Qué teorema utiliza aquí para justificar esto? ¿Es cierto que $Z_i = f (X_i, Y_i)$ donde $f$ es medible por Borel, $Y_i$ son independientes, entonces $Z_i$ son condicionalmente independientes dado $X_i$ ? ¿O utiliza otra cosa? Una prueba o referencia a una sería genial también.