Se trata del análisis real. Utilizaremos el siguiente lema elemental de Wikipedia .
Lema básico. Si $S$ y $S^{-1}$ son inversos entre sí y $S$ es diferenciable en $S^{-1}(\alpha)$ con $S'(S^{-1}(\alpha)) \ne 0$ entonces $S^{-1}$ es diferenciable en $\alpha$ y $$ (S^{-1})'(\alpha) = \frac{1}{S'(S^{-1}(\alpha))}. $$ Además, si $S$ es doblemente diferenciable en $S^{-1}(\alpha)$ y $S'(S^{-1}(\alpha)) \ne 0$ entonces $S^{-1}$ es doblemente diferenciable en $\alpha$ y $$ (S^{-1})''(\alpha) = -\frac{S''(S^{-1}(\alpha))}{(S'(S^{-1}(\alpha))^3}. $$
Ahora, en su problema, $\beta(\alpha) := F_X(S_Y^{-1}(\alpha))$ para todos $\alpha \in [0, 1]$ . Supongamos que
- $F_X$ y $F_Y$ tienen densidades (¡no todas las distribuciones tienen densidad!) $f_X$ y $f_Y$ resp. que son compatibles con todos los $\mathbb R$ .
- $f_X$ y $f_Y$ son suaves (tienen derivadas continuas).
Diferenciando $\beta$ tenemos
$$ \beta'(\alpha) = f_X(S_Y^{-1}(\alpha))(S^{-1}_Y)'(\alpha) = \frac{f_X(S_Y^{-1}(\alpha))}{S_Y'(S_Y^{-1}(\alpha))}=-\frac{f_X(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}, $$ donde la primera igualdad es por el regla de la cadena la segunda es por el lema anterior, y la tercera es porque $S_Y=1-F_Y$ y así $S_Y' = -F_Y'=-f_Y$ .
Diferenciando de nuevo, obtenemos
$$ \begin{split} \beta''(\alpha)&=-\frac{f_Y(S_Y^{-1}(\alpha))\left(\frac{f_X'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}\right)+f_X(S_Y^{-1}(\alpha))\left(\frac{f_Y'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}\right)}{(f_Y(S_Y^{-1}(\alpha)))^2} \\ &=\frac{f_X(S_Y^{-1}(\alpha))\frac{f_Y'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}-f_X'(S_Y^{-1}(\alpha))}{(f_Y(S_Y^{-1}(\alpha)))^2}, \end{split} \tag{*} $$ donde hemos utilizado la regla de la cadena y el lema anterior una vez más. Así, $$ \beta''(\alpha) \gtreqqless 0 \text{ iff } \frac{f_X'(S_Y^{-1}(\alpha))}{f_X(S_Y^{-1}(\alpha))} \lesseqqgtr \frac{f_Y'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}, \tag{1} $$ del que se pueden obtener condiciones necesarias y suficientes para la convexidad / concavidad / linealidad de la $\beta$ función.
Caso cuando $Y\overset{D}{=}X+c$
En particular, si $Y \overset{D}{=} X + c$ para algunos fijos $c \in \mathbb R$ entonces $S_Y^{-1}(\alpha) = c + S_X^{-1}(\alpha)$ , $f_Y^{(k)}(x) = f_X^{(k)}(x-c)$ para todos $x \in \mathbb R$ y $k=0,1$ . Así,
- $f_Y'(S_Y^{-1}(\alpha)) = f_X'(S_X^{-1}(\alpha))$ ,
- $f_X'(S_Y^{-1}(\alpha))=f_X'(c+S_X^{-1}(\alpha))$ ,
- $f_X(S_Y^{-1}(\alpha))=f_X(c+S_X^{-1}(\alpha))$ ,
- $f_Y(S_Y^{-1}(\alpha))=f_X(S_X^{-1}(\alpha))$ ,
y aplicando (1) obtenemos
$$ \beta''(\alpha) \gtreqqless 0 \text{ iff } \frac{f_X'(c+S_X^{-1}(\alpha))}{f_X(c+S_X^{-1}(\alpha))} \lesseqqgtr \frac{f_X'(S_X^{-1}(\alpha))}{f_X(S_X^{-1}(\alpha))}, \tag{2} $$ Podemos entonces obtener la condición necesaria y suficiente para la convexidad / concavidad / linealidad de $\beta$ simplemente explotando la estructura de $f_X$ . Por ejemplo, deducimos que
Lema. Si $X$ es gaussiano y $Y\overset{D}{=}X+c$ para algunos $c \in \mathbb R$ entonces: (A) $\beta(\alpha)$ es convexo en $\alpha$ si $c \ge 0$ . (B) $\beta(\alpha)$ es cóncavo en $\alpha$ si $c \le 0$ . (C) $\beta(\alpha)$ es afín en $\alpha$ si $c=0$ .
Incluso podemos extender el lema anterior al caso general en el que la distribución de $X$ es logarítmico-cóncavo, es decir $f_X(x) = e^{-V(x)}$ para alguna diferenciable continua twise $V:\mathbb R \rightarrow \mathbb R$ tal que $V''(x) \ge 0$ para todos $x\in \mathbb R$ . El ejemplo gaussiano $X \sim \mathcal N(\mu,\sigma^2)$ es un ejemplo de esta configuración; basta con tomar $V(x) = \frac{1}{2\sigma^2}(x-\mu)^2 + \frac{1}{2}\log(2\sigma^2)$ .
Lema. Dejemos que $f_X=e^{-V}$ sea logarítmico-cóncavo y $Y\overset{D}{=}X+c$ para algunos $c \in \mathbb R$ . Entonces: (A) $\beta(\alpha)$ es convexo en $\alpha$ si $c \ge 0$ . (B) $\beta(\alpha)$ es cóncavo en $\alpha$ si $c \le 0$ . (C) $\beta(\alpha)$ es afín en $\alpha$ si $c=0$ .
Prueba. Por lo que respecta a la arbitrariedad $ \alpha \in [0, 1]$ , y $x = x(\alpha) := S_X^{-1}(\alpha)$ . Se calcula $$ \frac{f_X'(S_X^{-1}(\alpha))}{f_X(S_X^{-1}(\alpha))} = \frac{f_X'(x)}{f_X(x)}=\frac{-V'(x)e^{-V(x)}}{e^{-V(x)}}=-V'(x). $$ Así, por (2) , $\beta(\alpha)$ es convexo en $\alpha$ si $[-V'(c+x) \le -V'(x)\;\forall x]$ si $[V'(c+x) \ge V'(x)\;\forall x]$ si $c \ge 0$ (ya que $V'$ es no decreciente porque $V''$ es una función no negativa por hipótesis). Procedemos de forma similar en los otros dos casos (concavidad y linealidad). $\quad\quad\quad\Box$