Considere la función
$$ r(x) = \mathbb{E}(Y \mid X = x) $$
Esto ha sido llamado la función de regresión en los libros de texto que estoy usando. Estoy tratando de averiguar la relación entre esta función y el clásico modelo de regresión lineal.
Así que, sé que es un teorema de* que podemos escribir
$$ Y = r(X) + \epsilon $$
para algunos variable aleatoria $\epsilon$ s.t. $\mathbb{E}(\epsilon) = 0$.
Ahora supongamos que tenemos
$$ Y = \beta_0 + \beta_1 X + \epsilon $$
Esta es la clásica 1-dimensional de la función de regresión (suponiendo que el $\beta_0$ $\beta_1$ minimizar la suma de cuadrados residual).
Pregunta: entonces Es un teorema matemático que si $Y$ se define como el anterior, que
$$ r(X) = \mathbb{E}(Y \mid X) = (\beta_0 + \beta_1 X)? $$
Y es esta razón por la función de $\mathbb{E}(Y \mid X)$ se llama la "función de regresión"?
EDIT: El teorema de que estoy haciendo uso de es como sigue (de Todas las Estadísticas pg. 89):
Los modelos de regresión a veces escrito como
$$ Y = r(X) + \epsilon $$
donde $\mathbb{E}(\epsilon) = 0$. Siempre podemos reescribir un modelo de regresión de esta manera. Para ver esto, definimos $\epsilon = Y - r(X)$ y, por tanto,$Y = Y + r(X) - r(X) = r(X) + \epsilon$. Por otra parte, $\mathbb{E}(\epsilon) = \mathbb{E}\mathbb{E}(\epsilon \mid X) = \mathbb{E}(\mathbb{E}(Y - r(X)) \mid X) = \mathbb{E}(\mathbb{E} ( Y \mid X) - r(X)) = \mathbb{E}(r(X) - r(X)) = 0$.