5 votos

¿Covarianza de una distribución compuesta?

Estoy tratando de encontrar la covarianza de una distribución compuesta.

Dado $X=x$ , donde $X \sim \mathrm{Uniform}(0,1)$ , $Y$ se distribuye (condicionalmente) de forma normal con una media $x$ y la varianza $x^2$ .

Utilicé la ley de las expectativas iterativas para encontrar que

$$\begin{align*} E(Y) &= E(E(Y \mid X)) = E(X) = 1/2 \\ \end{align*}$$ $$\begin{align*} Var(Y) &= Var(E(Y \mid X) + E(Var(Y \mid X)) \\ &= Var(X) + E(X^2) \\ &= 1/12 + 1/3 \\ &= 5/12 \end{align*}$$

el $Var(X)$ Obtuve de la varianza de la distribución uniforme continua con $a=0$ , $b=1$ . El $E(X^2$ ) Me las arreglé para integrar $X^2$ multiplicado por la densidad de la distribución uniforme continua.

Estoy atascado en encontrar la covarianza entre las dos variables, $Cov(X,Y)$ .

Sé que tengo que volver a utilizar La Ley de las Expectativas Iteradas para encontrarla, pero estoy atascado. ¿Podría hacer $$E(XY) = E(E(XY \mid X)) \text{ ?}$$ ¿Puede alguien ayudarme?

ACTUALIZACIÓN: También me piden que demuestre que Y/X y X son independientes. ¿Alguien sabe cómo hacerlo?

4voto

jldugger Puntos 7490

Parte 1

Resolvamos esto desde los primeros principios y luego reflexionemos sobre lo que la solución puede enseñarnos.


Primer paso: Hallar las funciones de densidad marginal y conjunta

La función de densidad marginal de $X$ es

$$f_X(x) = I_{[0,1]}(x),$$

la función indicadora para su intervalo de apoyo $[0,1]$ .

La densidad condicional de $Y$ es

$$f_{Y|x}(y) = \phi(y;x,|x|)= \phi(y;x,x)$$

donde $\phi(x;\mu,\sigma)$ es la PDF normal con media $\mu$ y la desviación estándar $\sigma$ (y $|x|=x$ desde $0\le x\le 1$ ). Por lo tanto, la función de densidad conjunta es

$$f_{X,Y}(x,y) = I_{[0,1]}(x) \phi(y;x,x).$$

La densidad marginal de $Y$ se obtiene integrando $x$ ,

$$f_Y(y) = \int f_{X,Y}(x,y) dx = \int_0^1 \phi(y;x,x) dx.$$

Sobre el principio de Computación justo a tiempo No evaluaré estas integrales hasta que sea necesario. (¡Resulta que no se necesita en absoluto!) Obsérvese, por tanto, que aún no se han realizado cálculos : todo es aplicar definiciones.


Calentamiento: Reproducir los momentos de la pregunta

Procedamos a calcular los momentos. Los momentos de $X$ son los momentos de la distribución uniforme, que se pueden calcular o consultar fácilmente. (La media es $\mu_X^{(1)}=1/2$ y el cuadrado medio es $\mu_X^{(2)}=1/3$ por ejemplo). El $k^\text{th}$ momento de $Y$ , $\mu_Y^{(k)}$ se puede calcular como

$$\mu_Y^{(k)} = \int y^k f_Y(y) dy = \int y^k \int_0^1 \phi(y;x,x) dx dy.$$

Intercambiemos el orden de integración (Teorema de Fubini) para obtener

$$\mu_Y^{(k)} = \int_0^1 \left(\int y^k \phi(y;x,x) dy\right) dx.$$

La integral interna calcula la $k^\text{th}$ momento de una variable Normal $Y$ con la media $x$ y la varianza $x^2$ , por lo que es inmediato que este momento sea $x$ cuando $k=1$ y $x^2 + (x)^2 = 2x^2$ cuando $k=2$ . De ahí que

$$\mu_Y^{(1)} = \int_0^1 (x) dx = \frac{1}{2}$$

y

$$\mu_Y^{(2)} = \int_0^1 (2x^2) dx = \frac{2}{3}.$$

Concluimos que la varianza de $Y$ es $\mu_Y^{(2)} - \left(\mu_Y^{(1)}\right)^2 = 2/3 - (1/2)^2 = 5/12$ .


Solución

Una vez establecido que este método de integración directa, utilizando el Teorema de Fubini, reproduce los cálculos de la pregunta, apliquémoslo a la covarianza:

$$\mathbb{E}(XY) = \int xy f_Y(y) dy = \int_0^1 x \left( \int y \phi(y;x,x) dy \right) dx = \int_0^1 x(x)dx = \frac{1}{3}.$$

Por lo tanto,

$$\text{Cov}(X,Y) = \mathbb{E}(XY) - \mathbb{E}(X)\mathbb{E}(Y) = \frac{1}{3} - \left(\frac{1}{2}\right) \left(\frac{1}{2}\right)= \frac{1}{12}.$$


Reflexión

Ahora debería ser evidente que la inversión del orden de integración es realmente lo mismo que la Ley de Expectativa Iterada (LIE). La estrategia consistía en calcular la covarianza en términos de los momentos brutos $\mathbb{E}(XY)$ , $\mathbb{E}(X)$ y $\mathbb{E}(Y)$ aprovechando el conocimiento del condicional momentos de $Y$ , dado $X=x$ y la integración de los mismos sobre $x$ . Por lo tanto, podríamos haber invocado la LIE al principio de la forma

$$\mathbb{E}(XY) = \mathbb{E}(\mathbb{E}(XY | X)) = \mathbb{E}(X\,\mathbb{E}(Y | X)) = \mathbb{E}(X(X)) = \mathbb{E}(X^2) = \frac{1}{3}$$

con una manipulación similar (pero más fácil) para encontrar $\mathbb{E}(Y)$ . La comparación con la expresión integral anterior muestra que la idea crucial es factorizar $X$ fuera de la expectativa condicional:

$$\mathbb{E}(XY | X) = X\,\mathbb{E}(Y | X).$$

Eso puede ser lo principal que vale la pena recordar de este ejercicio.

Aunque estos resultados se pueden utilizar (de forma directa) para derivar una ley iterada para las covarianzas, comparable a la ley para las varianzas citada en la pregunta, encuentro que tales reglas son una carga para la memoria. Al identificar y centrarse en fundamental principios e ideas, sólo tenemos que recordar y aprender algunas cosas y podemos aprenderlas bien. Todo lo demás puede derivarse fácilmente según sea necesario.


Parte 2

Dejemos que $xz = y$ que conlleva $dy = x dz + z dx$ . Desde

$$\eqalign{ \phi(y;x,x)dxdy &= \frac{1}{x}\phi\left(\frac{y}{x};1,1\right) dxdy \\ &= \frac{1}{x}\phi\left(z;1,1\right) dx(x dz + z dx) \\ &= x\frac{1}{x}\phi\left(z;1,1\right) dx dz \\ &= \phi\left(z;1,1\right) dx dz, }$$

la distribución conjunta fácilmente factores como

$$f_{X,Y}(x,y)dxdy = I_{[0,1]}(x) \left[\phi(z;1,1)dxdz\right] = \left[I_{[0,1]}(x)dx\right]\, \left[\phi(z;1,1)dz\right].$$

Dado que ahora todos los cálculos de probabilidad pueden realizarse por separado para $x$ y $z$ se deduce que $X$ y $Z=Y/X$ son independientes, QED .

(Las manipulaciones con diferenciales se interpretan como productos de cuña. Esto se explica completamente en https://stats.stackexchange.com/a/154298 .)

Como comprobación, podemos simular un gran número de realizaciones independientes de $(X,Y)$ y los traza. A continuación se lleva a cabo esto con R :

n <- 1e4
x <- runif(n)
y <- rnorm(n, x, x)
plot(x, y/x, cex=1/3, col="#00000020")

Figure

En cualquier corte vertical, las distribuciones del $y_i/x_i$ se ven aproximadamente igual. (Todos son normales con media $1$ como podemos ver en su PDF $\phi(z-1)$ .) Eso es lo que la independencia de $Z$ y $X$ significa: la distribución de $Z$ no varía con el valor de $X$ (tampoco la distribución $X$ varían con el valor de $Z$ ).

0voto

kjetil b halvorsen Puntos 7012

$\DeclareMathOperator{\cov}{Cov} \DeclareMathOperator{\E}{E} $ Existe una situación similar ley de la expectativa iterada para la covarianza, que es menos conocida, pero puede derivarse exactamente de la misma manera que la versión para la varianza. Se trata de $$ \cov(X, Y)= \cov(\E(X|Z), \E(Y|Z))+\E \cov(X,Y|Z) $$ Usando eso como arriba puedes encontrar el resultado. Este resultado también se llama la ley de la covarianza total, ver https://en.wikipedia.org/wiki/Law_of_total_covariance

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X