Supongamos que tengo un bivariado normal$(x,y)\sim \mathcal N(0,\Sigma)$.
¿Hay una fórmula fácil para la expectativa$\mathrm E(x\mid y>0)$?
Supongamos que tengo un bivariado normal$(x,y)\sim \mathcal N(0,\Sigma)$.
¿Hay una fórmula fácil para la expectativa$\mathrm E(x\mid y>0)$?
Deje $f_{X,Y}(\cdot),f_X(\cdot),f_Y(\cdot)$ denotar el conjunto de la densidad de $(X,Y)$, la densidad marginal de $X$ y el marginal de la densidad de $Y$ respectivamente.
También vamos a $\phi(\cdot)$ $\Phi(\cdot)$ ser el PDF y el CDF de la distribución normal estándar, como de costumbre.
Supongamos $\mathbf\Sigma=\left[\begin{matrix}\sigma_1^2&\rho \sigma_1\sigma_2\\\rho\sigma_1\sigma_2&\sigma_2^2\end{matrix}\right]$ es la dispersión de la matriz.
Por definición tenemos,
\begin{align}E(X\mid a<Y<b)&=\int_a^b\left[\int_\mathbb R \frac{xf_{X,Y}(x,y)}{P(a<Y<b)}\,dx\right]\,dy \\&=\frac{1}{P(a<Y<b)}\int_a^b\left[\int_\mathbb R xf_{X\mid Y}(x\mid y)\,dx\right]f_Y(y)\,dy \\&=\frac{1}{P(a<Y<b)}\int_a^b E(X\mid Y=y)f_Y(y)\,dy\tag{1} \end{align}
O directamente se puede decir que el $$E(X\mid a<Y<b)=\int_a^bE(X\mid Y=y)f_{Y\mid a<Y<b}(y)\,dy\tag{2}$$
Ambas expresiones $(1)$ $(2)$ son equivalentes, pero me parece que $(1)$ más fácil de entender.
Ahora, $$X\mid Y\sim \mathcal N\left(\frac{\rho\,\sigma_1}{\sigma_2}Y,(1-\rho^2)\sigma_1^2\right)$$, so that $$E(X\mid Y=y)=\frac{\rho\,\sigma_1}{\sigma_2}y$$
Para su caso, continuar de $(1)$, por lo tanto tenemos
\begin{align}E(X\mid Y>0)&=\frac{\rho\,\sigma_1}{\sigma_2}\int_0^\infty \frac{yf_Y(y)}{P(Y>0)}\,dy \\&=\frac{\rho\,\sigma_1}{\sigma_2}E(Y\mid Y>0) \end{align}
Finalmente,
\begin{align} \qquad E(Y\mid Y>0)&=\frac{1}{P(Y>0)}\int_0^\infty y\,\frac{1}{\sigma_2}\phi\left(\frac{y}{\sigma_2}\right)\,dy \\&=2\sigma_2\int_0^\infty t\phi(t)\,dt\qquad\left[y\mapsto y/\sigma_2=t\text{ and }P(Y>0)=1-\Phi(0)=1/2\right] \\&=2\sigma_2\int_0^\infty (-\phi'(t))\,dt \\&=2\sigma_2\,\phi(0)=\frac{2\sigma_2}{\sqrt{2\pi}}=\sqrt{\frac{2}{\pi}}\sigma_2 \end{align}
Por lo tanto, para $(X,Y)\sim\mathcal N(\mathbf 0,\mathbf\Sigma)$, tenemos la fórmula simple $$\boxed{E(X\mid Y>0)=\sqrt{\frac{2}{\pi}}\rho\,\sigma_1}$$
Una fórmula general en la que los medios de $X$ $Y$ no son cero, y $Y$ que van desde algunos $a$ $b$también se puede encontrar en una manera similar. Esa fórmula implicaría $\phi$$\Phi$, mientras que para el actual, obtenemos los valores de a $\phi$ $\Phi$ directamente.
Vamos a generalizar la cuestión para que una idea clave puede ser revelado.
Deje $Y$ $R$ ser independiente de las variables aleatorias. Definir $$X=f(Y)+R$$ for a specified (measurable) function $f$. For any $\lt b,$ what is the conditional expectation $$E[X\mid a\le Y \le b]?$$
(Esto indica que el $f$ es la regresión de $X$ $Y$ con me.yo.d. aditivo de errores.)
La independencia de la asunción que hace de esta una pregunta fácil de responder, debido a que las variables aleatorias $f(Y)$ $R$ todavía será independiente, de donde (por "sacar lo que se conoce")
$$E[X\mid a\le Y \le b] = E[f(Y)+R\mid a\le Y \le b] = E[f(Y)\mid a \le Y \le b] + E[R].\tag{*}$$
Esto es muy general. Vamos a especializarse para el caso de $E[R]=0$ $f$ es una transformación lineal $$f(y) = \alpha\, y$$ for some constant number $\alfa.$ In this case $(*)$ se simplifica a
$$E[X\mid a\le Y \le b] = \alpha\, E[Y\mid a \le Y \le b].\tag{**}$$
El lado derecho tiene una expresión directa cuando la distribución de la $Y,$ $F_Y,$ tiene una densidad de $f_y,$ para luego (por las definiciones de la probabilidad condicional y expectativas)
$$E[Y\mid a \le Y \le b] = \frac{1}{F(b)-F(a)}\int_a^b y f_y(y) \mathrm{d}y.$$
El resultado es inmediato y evidente para cualquiera que haya estudiado la regresión bivariada. (Una buena no-matemático de referencia con todos los detalles necesarios es Freedman, Pisani, y Purves, Estadísticas [cualquier versión].) La siguiente sección de este post, es un repaso por aquellos que no han encontrado esta teoría.
En el caso de la pregunta, donde $(x,y)$ es bivariante Normal con una media de $(0,0),$ desviación estándar $\sigma_x$ $\sigma_y,$ y la correlación de $\rho,$ sabemos que la distribución de $(x,y)$ es la misma que la distribución de $(X,Y)$ construido como el anterior donde $Y$ Normal$(0,\sigma_y^2)$ distribución y $R$ independiente tiene un Normal$(0,\tau^2)$ distribución ($\tau$ a encontrarse). La prueba de esto se encuentra en las observaciones que
Debido a $Y$ $R$ son independientes, la varianza de las $X = \rho\,Y+R$ es igual a $$\rho^2 \operatorname{Var}(Y) +\operatorname{Var}(R) =\rho^2\sigma^2_y + \tau^2.$$ Consequently, if we set $$\tau^2 = \sigma_x^2 - \rho^2\sigma_y^2,$$ the variance of $X$ will equal the variance of $x.$
La covarianza $(X,Y)$ es $$\operatorname{Cov}(X,Y) = \operatorname{Cov}(\alpha\,Y+R,Y) = \alpha\operatorname{Var}(Y) = \alpha\,\sigma_y^2.$$ If we set $$\alpha = \rho\frac{\sigma_x}{\sigma_y}$$ then the correlation of $X$ and $Y$ will be $$\rho(X,Y) = \frac{\operatorname{Cov}(X,Y)}{\sigma_x\sigma_y} = \frac{\alpha\,\sigma_y^2}{\sigma_x\sigma_y} = \frac{\rho\frac{\sigma_x}{\sigma_y} \sigma_y^2}{\sigma_x\sigma_y} = \rho.$$
Observaciones (1) y (2) establecer que el $(X,Y)$ $(x,y)$ tienen los mismos momentos a través de segundo orden, lo que significa que tienen idéntica bivariante distribuciones Normales.
Aplicar el principal resultado $(**)$ da
$$E[X\mid a\le Y \le b] = \alpha\, E[Y\mid a \le Y \le b] = \rho\frac{\sigma_x}{\sigma_y}E[Y\mid a \le Y \le b].$$
Podemos ir un poco más hacia la simplificación del reconocimiento de que $Y/\sigma_y$ es un estándar de la variable aleatoria Normal. Por lo tanto,
$$E[X\mid a\le Y \le b] = \rho\,\sigma_x E\left[\frac{Y}{\sigma_y}\mid \frac{a}{\sigma_y} \le \frac{Y}{\sigma_y} \le \frac{b}{\sigma_y} \right].$$
Esto demuestra que fija $a,b,$ la respuesta es directamente proporcional a $\rho\, \sigma_x.$ la Evaluación de la constante es un asunto de la manipulación de las integrales de una variable Normal estándar, pero hacerlo es principalmente un ejercicio de Cálculo en lugar de la estadística de interés.
Voy a concluir con la expresión de que yo en realidad comenzó con la hora de resolver este problema. Observe que la respuesta puede ser escrito también $$E\left[\frac{X}{\sigma_x}\mid a\le Y \le b\right] = \rho\, E\left[\frac{Y}{\sigma_y}\mid \frac{a}{\sigma_y} \le \frac{Y}{\sigma_y} \le \frac{b}{\sigma_y} \right].$$
El lado izquierdo es la esperanza condicional de un estándar Normal de la variable aleatoria $X/\sigma_x$, mientras que el lado derecho es sólo $\rho$ veces la expectativa de una truncada estándar de la variable aleatoria Normal $Y/\sigma_y.$
Si te acostumbras a la estandarización de las variables automáticamente, lo que equivale a la elección de un particularmente conveniente unidad de medida para ellos--, a continuación, simplemente por la visualización de la regresión de $X$ contra $Y$ usted se dice a sí mismo
oh, sí, ya que después de la normalización de las $X$ es sólo un múltiplo $\rho$$Y$, entonces la esperanza condicional de $X$ debe $\rho$ veces la correspondiente expectativa de $Y.$
Que es el meollo de la cuestión.
Estoy publicando la respuesta completa para la referencia: \begin{eqnarray*} E(X|a<Y<b) &= &\int_a^bE(X|Y=y)f_{Y|a<Y<b}(y)dy \\ & = &\rho_{xy}\frac{\sigma_x}{\sigma_y}\int_a^bf_{Y|a<Y<b}(y)dy \\ & = &\rho_{xy}\frac{\sigma_x}{\sigma_y}\sigma_y\frac{\phi(a-\phi(b)}{\Phi(b)-\Phi(a)} \end{eqnarray*}
Con $\rho_{xy}=\frac{E(xy)}{\sigma_x\sigma_y}$. El último paso se deriva de las propiedades de la univariante trunca distribución normal, fácil de encontrar en su página de wikipedia. Una referencia para el primer paso es aquí
Con $a=0,b=\infty$ hemos $$ E(X,Y>0) = \rho_{xy}\sigma_x\frac{\phi(0)}{\Phi(0)}= \rho_{xy}\sigma_x\cdot \frac{2}{\sqrt{2\pi}}$$ Gracias por señalar en la dirección correcta.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.