2 votos

Cálculo de la varianza de una función a trozos de variables normales bivariadas

Tengo una variable $X\in R^2$ que tiene una distribución normal bivariada con el vector de la media $\mu$ y la matriz de covarianza $\Sigma$ .

El vector $X$ se compone de dos variables $X=(x_1,x_2)$

Una función $f$ es una función de $x_1$ sólo

$f(x_1) = \left\{\begin{array}{lr} 0 & \text{for } x_1 < 0\\ x_1 & \text{for } x_1 \geq 0\\ \end{array} \right\} $

Ya calculé que la media de $f(x_1)$ es $\frac{\sigma_{11}}{\sqrt{2\pi}}$

Estoy tratando de encontrar la varianza de $f(x_1)$ . Pensé que esto sería sencillo, pero cuando intento verificarlo numéricamente los resultados no coinciden con las predicciones. Este es mi enfoque:

Dejemos que $y=f(x_1)$

Dejemos que $g(x_1,x_2, \mu,\Sigma)$ sea la función de densidad de probabilidad de la variable normal bivariante.

$Var[y]=E[y^2]-E[y]^2=E[y^2]-\frac{\sigma^2}{2\pi}$

$E[y^2] = \int_{x_1=-\infty}^{\infty} \int_{x_2=-\infty}^{\infty} y^2 f(x_1) g(x_1,x_2, \mu,\Sigma) dx_2 dx_1$

Para $x_1 \geq 0$ entonces $y=x_1$ Si no es así $y=0$ por lo que la integral se simplifica en

$E[y^2] = \int_{x_1=0}^{\infty} \int_{x_2=-\infty}^{\infty} x_1^2 f(x_1) g(x_1,x_2, \mu,\Sigma) dx_2 dx_1$

Y un cambio menor:

$E[y^2] = \int_{x_1=0}^{\infty} x_1^2 f(x_1) \int_{x_2=-\infty}^{\infty} g(x_1,x_2, \mu,\Sigma) dx_2 dx_1$

Utilizo wolfram alpha para obtener el resultado (para $\mu_{x_1}=0$ ) y sustituirlo en la ecuación de la varianza:

$Var[y]=E[y^2]-\frac{\sigma^2}{2\pi}$

La fórmula de la varianza coincide con una integración numérica monte-carlo, por lo que wolfram está haciendo la integración correctamente. Desafortunadamente, las predicciones no coinciden con la varianza de la muestra de una simulación numérica de la distribución bivariada. Debido a esto creo que la forma en que configuré la integración fue incorrecta. Parece sencillo, pero no he hecho esto con funciones a trozos o múltiples variables antes.

¿Hay algún error evidente en la forma en que configuro la integral para $E[y^2]$ ?

1voto

George Hewitt Puntos 994

Desde $(X_1,X_2)$ es normal bi-variable, $X_1\sim N(\mu_1,\sigma_{11})$ . Para $Y=X_1^+$ la media que has obtenido es para el caso especial de que $\mu_1=0$ específicamente, $$\operatorname{E}[Y]=\int_0^{\infty}xf_{X_1}(x)\,dx=\frac{\sigma_{11}}{\sqrt{2\pi}}.$$ Además, podemos calcular que $$\operatorname{E}[Y^2]=\int_0^{\infty}x^2f_{X_1}(x)\,dx=\frac{\sigma_{11}^2}{2}.$$ Así que $$\operatorname{Var}(Y)=\frac{\sigma_{11}^2}{2}\left(1-\frac{1}{\pi}\right).$$ Esto también puede derivarse de la varianza de distribución seminormal , nota primero $|X_1|=X_1^++X_1^-$ entonces $\operatorname{E}[X_1^+X_1^-]=0$ ya que siempre que una v.r. es mayor que $0$ el otro es $0$ , de tal manera que $$\operatorname{Cov}(X_1^+,X_1^-)=-\operatorname{E}[X_1^+]\operatorname{E}[X_1^-]=-\frac{\sigma_{11}^2}{2\pi};$$ Por último, observe que $\operatorname{Var}(X_1^+)=\operatorname{Var}(X_1^-)$ por simetría. Se deduce entonces $$\sigma_{11}^2\left(1-\frac{2}{\pi}\right)=\operatorname{Var}(|X_1|)=2\operatorname{Var}(X_1^+)-\frac{\sigma_{11}^2}{\pi},$$ que da como resultado $$\operatorname{Var}(X_1^+)=\frac{\sigma_{11}^2}{2}\left(1-\frac{1}{\pi}\right)$$

Para más información $\mu_1$ , esta entrada sobre la distribución normal doblada puede ayudar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X