4 votos

Si $E[Y|X]=a$ para alguna constante $a\neq 0$ entonces hace $cov(X,Y)=0$ ?

Actualmente estoy trabajando en el siguiente problema:

P: Si $E[Y|X]=a$ para alguna constante $a\neq 0$ entonces hace $cov(X,Y)=0$ ?

Ahora estoy bastante perdido en cuanto a cómo hacer este problema ya que la pregunta no especifica la distribución de $X$ o $Y$ .

Además, tengo curiosidad, si $a=0$ ¿Implica eso que $corr(X,Y)=0$ ¿también?

Muchas gracias.

0 votos

Supongamos que X =Y, ¿qué ocurre entonces?

0 votos

@NickThieme entonces $E[Y|X]=Y$ ¿verdad?

7voto

Dana Holt Puntos 7150

En primer lugar, hay que tener en cuenta que $E(Y)=E(E(Y|X))=E(a)=a$ . Entonces, por definición de Covarianza, tenemos

\begin{eqnarray} Cov(X,Y)&=&E(XY)-E(X)E(Y)\\ &=&E[E(XY|X)]-E(X)E[E(Y|X)]\\ &=&E[XE(Y|X)]-E(X)E(a)\\ &=&E[Xa]-E(X)a\\ &=&aE(X)-E(X)a\\ &=&0 \end{eqnarray}

0 votos

+1 sin embargo, esta respuesta es un poco más detallada que los "consejos y orientaciones" solicitados en el self-study etiqueta wiki .

0 votos

¿Por qué podemos simplemente tomar la expectativa en el segundo paso? Lo que quiero decir es que parece un poco arbitrario.

0 votos

Además, ¿por qué somos capaces de tomar el $X$ ¿RV en la tercera línea?

5voto

Dilip Sarwate Puntos 16161

En primer lugar, veamos el caso general, y luego podemos especializarnos para abordar sus preguntas.

El variable aleatoria $E[Y\mid X]$ es un función de $X$ Llámalo $g(X)$ , que goza de la propiedad de que es el mínimo estimador del error cuadrático medio (estimador MMSE) de $Y$ dado $X$ . En general, $g(x)$ no es de la forma $a+bx$ que se conoce comúnmente como lineal (aunque afín función de $x$ podría ser una mejor descripción de $a+bx$ ). Ahora, el lineal estimador del mínimo cuadrado medio (estimador LMMSE) de $Y$ dado $X$ es de la forma $a+bX$ donde $$b = \rho\frac{\sigma_Y}{\sigma_X}, \quad a = \mu_Y - \rho\frac{\sigma_Y}{\sigma_X}\mu_Y\tag{1}$$ donde $\rho$ es el coeficiente de correlación (Pearson) de $X$ y $Y$ . Como regla general, el error cuadrático medio residual de $E[Y\mid X]$ es menor que el error cuadrático medio residual de $a+bX$ Es decir, $$E\left[\left(Y-E[Y\mid X]\right)^2\right] \leq E\left[\left(Y-(a+bX)\right)^2\right].$$

Volviendo a su pregunta, se le dice que $E[Y\mid X] = a$ Es decir es, $g(X)$ es una variable aleatoria degenerada (a menudo llamada constante por los analfabetos estadísticos) que toma valor $a$ con probabilidad $1$ . Así, $g(x)=a$ es una función lineal de $x$ (de hecho, una función constante de $x$ ) y en este caso, el estimador MMSE y el estimador LMMSE coinciden. En $(1)$ concluimos que $b = 0$ que en la mayoría de los casos interesantes significa que $\rho$ es igual a $0$ (ignoramos la posibilidad de que $\sigma_Y = 0$ y $Y$ siendo una variable aleatoria variable aleatoria). Así, la covarianza de $X$ y $Y$ : $\operatorname{cov}(X,Y)$ es igual a $0$ . No es necesario insistir en que $a \neq 0$ para que todo esto se mantenga; de hecho de $(1)$ vemos que cuando $\rho = 0$ , $a$ es igual a $\mu_Y$ La media de $Y$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X