$\newcommand{\E}{\mathrm{E}}$ $\newcommand{\Var}{\mathrm{Var}}$ $\newcommand{\cov}{\mathrm{Cov}}$ $\newcommand{\Expect}{{\rm I\kern-.3em E}}$
Como una consecuencia directa de la definición de covarianza, $\cov (X,Y)= \E(XY)-\E(X)\E(Y)$.
Hecho 1:
$U, V \overset{i.i.d.}{\sim} \mathcal{N}(0,1)$
$\Rightarrow U - V \sim \mathcal{N}(0,2)$ (suma de variables aleatorias distribuidas normalmente)
$ \Rightarrow |U - V|$ es una media variable aleatoria normal con el parámetro $\sigma = \sqrt2$
$ \Rightarrow \E (|U - V|) = \frac{\sigma\sqrt{2}}{\sqrt{\pi}} = \frac{\sqrt{2}\sqrt{2}}{\sqrt{\pi}} = \frac{2}{\sqrt{\pi}}$
Hecho 2:
$\E(X)+\E(Y) = \E(X+Y)$ (linealidad de la expectativa).
Tenemos $\E(X+Y) = \E (\min(U,V)+\max(U,V))= \E(U+V) = \E(U)+\E (V) = 0 + 0 = 0$. Como resultado, $\E(Y) = -\E(X)$.
Hecho 3:
Desde $Y-X = |U - V|$:
$2\E(Y) = \E(Y)-\E(X) = \E(Y-X) = \E (|U - V|)= \frac{2}{\sqrt{\pi}}$, por lo tanto $\E(Y)= \frac{2}{2\sqrt{\pi}}= \frac{1}{\sqrt{\pi}}$
Hecho 4:
Desde $XY=UV$, $\E(XY)=\E(UV)=\E (U)\E (V)=0$
El uso de estos datos: $\cov (X,Y)= \E(XY)-\E(X)\E(Y)= 0 + \E(Y)\E(Y) = \frac{1}{\sqrt{\pi}}\frac{1}{\sqrt{\pi}}=\frac{1}{\pi}$.