En primer lugar, veamos el caso general, y luego podemos especializarnos para abordar sus preguntas.
El variable aleatoria $E[Y\mid X]$ es un función de $X$ Llámalo $g(X)$ , que goza de la propiedad de que es el mínimo estimador del error cuadrático medio (estimador MMSE) de $Y$ dado $X$ . En general, $g(x)$ no es de la forma $a+bx$ que se conoce comúnmente como lineal (aunque afín función de $x$ podría ser una mejor descripción de $a+bx$ ). Ahora, el lineal estimador del mínimo cuadrado medio (estimador LMMSE) de $Y$ dado $X$ es de la forma $a+bX$ donde $$b = \rho\frac{\sigma_Y}{\sigma_X}, \quad a = \mu_Y - \rho\frac{\sigma_Y}{\sigma_X}\mu_Y\tag{1}$$ donde $\rho$ es el coeficiente de correlación (Pearson) de $X$ y $Y$ . Como regla general, el error cuadrático medio residual de $E[Y\mid X]$ es menor que el error cuadrático medio residual de $a+bX$ Es decir, $$E\left[\left(Y-E[Y\mid X]\right)^2\right] \leq E\left[\left(Y-(a+bX)\right)^2\right].$$
Volviendo a su pregunta, se le dice que $E[Y\mid X] = a$ Es decir es, $g(X)$ es una variable aleatoria degenerada (a menudo llamada constante por los analfabetos estadísticos) que toma valor $a$ con probabilidad $1$ . Así, $g(x)=a$ es una función lineal de $x$ (de hecho, una función constante de $x$ ) y en este caso, el estimador MMSE y el estimador LMMSE coinciden. En $(1)$ concluimos que $b = 0$ que en la mayoría de los casos interesantes significa que $\rho$ es igual a $0$ (ignoramos la posibilidad de que $\sigma_Y = 0$ y $Y$ siendo una variable aleatoria variable aleatoria). Así, la covarianza de $X$ y $Y$ : $\operatorname{cov}(X,Y)$ es igual a $0$ . No es necesario insistir en que $a \neq 0$ para que todo esto se mantenga; de hecho de $(1)$ vemos que cuando $\rho = 0$ , $a$ es igual a $\mu_Y$ La media de $Y$ .
0 votos
Supongamos que X =Y, ¿qué ocurre entonces?
0 votos
@NickThieme entonces $E[Y|X]=Y$ ¿verdad?