La estadística de la comprensión de los parámetros:$m$ es una ubicación, $s$ es una escala, y $\alpha$ es un poder de transformación--nos dice cómo proceder.
Considere la posibilidad de esta generalización del problema. Deje $F$ ser cualquier función de distribución. Deje $\{t_\alpha\,|\, \alpha\in A\subset\mathbb{R}^p\}$ tener parámetros de la familia de los estrictamente monótona de las funciones de transformación que "juega muy bien" con reescalado en el siguiente sentido: hay una función de $g$ tal que para cualquier número positivo $s$
$$ t_\alpha(s\,t_\alpha^{-1}(y)) = g(s, \alpha) y.$$
Este se ve bastante abstracta, por lo que para fijar la idea, vamos a considerar un ejemplo común donde $p=1$ $t_{(\alpha)}$ es el negativo de transformación de energía $x \to x^{-\alpha}$, $A = \{(\alpha)\,|\,\alpha \gt 0\}$. Luego de la caída de la distinción entre el $1$-vector $(\alpha)$ y su componente $\alpha$),
$$t_\alpha(s\,t_\alpha^{-1}(y)) = (s\,y^{-1/\alpha})^{-\alpha} = s^{-\alpha} y.\tag{1}$$
En este caso vemos
$$g(s,\alpha) = s^{-\alpha}.$$
Definir la ubicación de la escala de la forma de la familia por medio de los parámetros de $\mu$, $\sigma$, y $\alpha$ a través de
$$F_{\mu, \sigma, \alpha}(x) = F\left(t_\alpha\left(\frac{x-\mu}{\sigma}\right)\right)$$
para $\mu\in\mathbb{R}$, $\sigma\gt 0$, y $\alpha\in A$. Esto significa que cualquier variable $X$ con esta distribución se obtiene a partir de una variable con un $F$ distribución por medio de una $t_\alpha$ transformación, un reescalado por $\sigma$, y un cambio por $\mu$.
Supongamos $X$ tiene la distribución de $F_{\mu, \sigma_1,\alpha}$ y la variable independiente $Y$ tiene la distribución de $F_{\mu, \sigma_2,\alpha}$. Es decir, tienen la misma forma y ubicación, pero sus escalas pueden diferir. Específicamente,
$$X = \sigma_1 t_\alpha^{-1}(U) + \mu, \quad Y = \sigma_2 t_\alpha^{-1}(V) + \mu$$
para dos variables independientes $U, V$ distribuidos de acuerdo a la $F$.
El uso de este, el evento $X - Y \gt 0$ puede escribirse como
$$t_\alpha^{-1}(U) \gt \sigma\, t_\alpha^{-1}(V)$$
para $\sigma = \sigma_2/\sigma_1$. La relación de $(1)$ simplifica de esta desigualdad
$$ U \gt g(\sigma,\alpha) V.$$
(Al $t_\alpha$ es la disminución dela $\gt$ cambios $\lt$. En ese caso se deberá intercambiar $U$ $V$ - que no hace nada, ya $U$ $V$ son idénticamente distribuidas, y debemos cambiar $g(\sigma,\alpha)$ $1/g(\sigma,\alpha)$en lo que sigue.)
Debido a $U$ $F$ de la distribución, la posibilidad de que esta relación es
$$\Pr( U \gt g(\sigma,\alpha) V) = 1 - F(g(\sigma, \alpha)V).$$
La esperanza nos da la respuesta:
$$\Pr(X - Y \gt 0) = \int_{\mathbb{R}} \left(1 - F(g(\sigma, \alpha)v)\right) dF(v).\tag{2}$$
La belleza de esta solución es que reduce el cálculo para uno que involucran sólo a $F$. Por ejemplo, el Frechet de distribución de la familia se obtiene a partir de un negativo de transformación de energía de una exponencial de la variable. Así $$F(x) = 1 - \exp(-x);\quad dF(x) = \exp(-x)dx$$ (for $x\gt 0$ only) and (according to $(1)$)
$$t_\alpha(y) = y^{-\alpha}, \quad g(s,\alpha) = s^{-\alpha}.$$
Debido a esto $t_\alpha$ es la disminución en $y$ cualquier $\alpha \gt 0$, se debe, invariablemente, el uso de $1/g(\sigma,\alpha) = \sigma^\alpha$ en los cálculos. El valor de $(2)$ por lo tanto es
$$\int_0^\infty \exp(-\sigma^\alpha v)\exp(-v)dv = \int_0^\infty \exp(-(\sigma^\alpha + 1) v)dv = \frac{1}{1 + \sigma^\alpha} = \frac{\sigma_1^\alpha}{\sigma_1^\alpha + \sigma_2^\alpha}.$$
La cantidad real de cálculo necesario para obtener este resultado es muy poco.