Parte 1
Resolvamos esto desde los primeros principios y luego reflexionemos sobre lo que la solución puede enseñarnos.
Primer paso: Hallar las funciones de densidad marginal y conjunta
La función de densidad marginal de $X$ es
$$f_X(x) = I_{[0,1]}(x),$$
la función indicadora para su intervalo de apoyo $[0,1]$ .
La densidad condicional de $Y$ es
$$f_{Y|x}(y) = \phi(y;x,|x|)= \phi(y;x,x)$$
donde $\phi(x;\mu,\sigma)$ es la PDF normal con media $\mu$ y la desviación estándar $\sigma$ (y $|x|=x$ desde $0\le x\le 1$ ). Por lo tanto, la función de densidad conjunta es
$$f_{X,Y}(x,y) = I_{[0,1]}(x) \phi(y;x,x).$$
La densidad marginal de $Y$ se obtiene integrando $x$ ,
$$f_Y(y) = \int f_{X,Y}(x,y) dx = \int_0^1 \phi(y;x,x) dx.$$
Sobre el principio de Computación justo a tiempo No evaluaré estas integrales hasta que sea necesario. (¡Resulta que no se necesita en absoluto!) Obsérvese, por tanto, que aún no se han realizado cálculos : todo es aplicar definiciones.
Calentamiento: Reproducir los momentos de la pregunta
Procedamos a calcular los momentos. Los momentos de $X$ son los momentos de la distribución uniforme, que se pueden calcular o consultar fácilmente. (La media es $\mu_X^{(1)}=1/2$ y el cuadrado medio es $\mu_X^{(2)}=1/3$ por ejemplo). El $k^\text{th}$ momento de $Y$ , $\mu_Y^{(k)}$ se puede calcular como
$$\mu_Y^{(k)} = \int y^k f_Y(y) dy = \int y^k \int_0^1 \phi(y;x,x) dx dy.$$
Intercambiemos el orden de integración (Teorema de Fubini) para obtener
$$\mu_Y^{(k)} = \int_0^1 \left(\int y^k \phi(y;x,x) dy\right) dx.$$
La integral interna calcula la $k^\text{th}$ momento de una variable Normal $Y$ con la media $x$ y la varianza $x^2$ , por lo que es inmediato que este momento sea $x$ cuando $k=1$ y $x^2 + (x)^2 = 2x^2$ cuando $k=2$ . De ahí que
$$\mu_Y^{(1)} = \int_0^1 (x) dx = \frac{1}{2}$$
y
$$\mu_Y^{(2)} = \int_0^1 (2x^2) dx = \frac{2}{3}.$$
Concluimos que la varianza de $Y$ es $\mu_Y^{(2)} - \left(\mu_Y^{(1)}\right)^2 = 2/3 - (1/2)^2 = 5/12$ .
Solución
Una vez establecido que este método de integración directa, utilizando el Teorema de Fubini, reproduce los cálculos de la pregunta, apliquémoslo a la covarianza:
$$\mathbb{E}(XY) = \int xy f_Y(y) dy = \int_0^1 x \left( \int y \phi(y;x,x) dy \right) dx = \int_0^1 x(x)dx = \frac{1}{3}.$$
Por lo tanto,
$$\text{Cov}(X,Y) = \mathbb{E}(XY) - \mathbb{E}(X)\mathbb{E}(Y) = \frac{1}{3} - \left(\frac{1}{2}\right) \left(\frac{1}{2}\right)= \frac{1}{12}.$$
Reflexión
Ahora debería ser evidente que la inversión del orden de integración es realmente lo mismo que la Ley de Expectativa Iterada (LIE). La estrategia consistía en calcular la covarianza en términos de los momentos brutos $\mathbb{E}(XY)$ , $\mathbb{E}(X)$ y $\mathbb{E}(Y)$ aprovechando el conocimiento del condicional momentos de $Y$ , dado $X=x$ y la integración de los mismos sobre $x$ . Por lo tanto, podríamos haber invocado la LIE al principio de la forma
$$\mathbb{E}(XY) = \mathbb{E}(\mathbb{E}(XY | X)) = \mathbb{E}(X\,\mathbb{E}(Y | X)) = \mathbb{E}(X(X)) = \mathbb{E}(X^2) = \frac{1}{3}$$
con una manipulación similar (pero más fácil) para encontrar $\mathbb{E}(Y)$ . La comparación con la expresión integral anterior muestra que la idea crucial es factorizar $X$ fuera de la expectativa condicional:
$$\mathbb{E}(XY | X) = X\,\mathbb{E}(Y | X).$$
Eso puede ser lo principal que vale la pena recordar de este ejercicio.
Aunque estos resultados se pueden utilizar (de forma directa) para derivar una ley iterada para las covarianzas, comparable a la ley para las varianzas citada en la pregunta, encuentro que tales reglas son una carga para la memoria. Al identificar y centrarse en fundamental principios e ideas, sólo tenemos que recordar y aprender algunas cosas y podemos aprenderlas bien. Todo lo demás puede derivarse fácilmente según sea necesario.
Parte 2
Dejemos que $xz = y$ que conlleva $dy = x dz + z dx$ . Desde
$$\eqalign{ \phi(y;x,x)dxdy &= \frac{1}{x}\phi\left(\frac{y}{x};1,1\right) dxdy \\ &= \frac{1}{x}\phi\left(z;1,1\right) dx(x dz + z dx) \\ &= x\frac{1}{x}\phi\left(z;1,1\right) dx dz \\ &= \phi\left(z;1,1\right) dx dz, }$$
la distribución conjunta fácilmente factores como
$$f_{X,Y}(x,y)dxdy = I_{[0,1]}(x) \left[\phi(z;1,1)dxdz\right] = \left[I_{[0,1]}(x)dx\right]\, \left[\phi(z;1,1)dz\right].$$
Dado que ahora todos los cálculos de probabilidad pueden realizarse por separado para $x$ y $z$ se deduce que $X$ y $Z=Y/X$ son independientes, QED .
(Las manipulaciones con diferenciales se interpretan como productos de cuña. Esto se explica completamente en https://stats.stackexchange.com/a/154298 .)
Como comprobación, podemos simular un gran número de realizaciones independientes de $(X,Y)$ y los traza. A continuación se lleva a cabo esto con R
:
n <- 1e4
x <- runif(n)
y <- rnorm(n, x, x)
plot(x, y/x, cex=1/3, col="#00000020")
En cualquier corte vertical, las distribuciones del $y_i/x_i$ se ven aproximadamente igual. (Todos son normales con media $1$ como podemos ver en su PDF $\phi(z-1)$ .) Eso es lo que la independencia de $Z$ y $X$ significa: la distribución de $Z$ no varía con el valor de $X$ (tampoco la distribución $X$ varían con el valor de $Z$ ).