1 votos

¿En qué condiciones se $F_Y S_X^{-1}(\alpha)$ convexo.

En las pruebas de hipótesis en las que la hipótesis alternativa es del tipo "mayor", la tasa de falsos negativos ( $\beta$ ) en función de la tasa de falsos positivos ( $\alpha$ ) viene dada por:

$$\beta(\alpha) = F_X S_Y^{-1}(\alpha)$$

para algunas distribuciones $X$ y $Y$ , donde $F_X$ es la FCD de $X$ mientras que $S_Y$ es la función de supervivencia de $Y$ (es decir $S_Y = 1-F_Y$ ). Tomando la derivada una vez se ve que es una función decreciente:

$$\beta'(\alpha) = f_Y(S_X^{-1}(\alpha))\frac{\partial S_{X}^{-1}(\alpha)}{\partial \alpha}$$

Aquí, $f_Y$ es el PDF de $Y$ . Está claro que esa parte es positiva y la segunda parte es negativa, ya que la función inversa de supervivencia es monotónicamente decreciente. Ahora, tengo una fuerte corazonada (dada la base de la prueba de hipótesis y verificada con muchas simulaciones) que cuando $Y$ es sólo $X$ desplazado por una cierta cantidad a la derecha, $\beta(\alpha)$ es convexo, cuando se desplaza hacia la izquierda, $\beta$ es cóncavo y cuando $Y\overset{D}{=}X$ (es decir, cuando $X$ y $Y$ están idénticamente distribuidos), es una línea recta. El último resultado es fácil de ver observando cuando $Y\overset{D}{=}X$ es decir, cuando $F_Y=F_X$ , $S_Y=S_X=1-F_X$ tenemos:

$$ \beta(\alpha) = 1-S_YS_Y^{-1}(\alpha) = 1-\alpha. $$

Pero no puedo probar los otros dos.


Mi intento:

Diferenciando la expresión para $\beta(\alpha)$ dos veces, obtenemos:

$$\frac{\partial^2\beta}{\partial \alpha^2} = f_Y(S_X^{-1}(\alpha))\frac{\partial^2S_{X}^{-1}(\alpha)}{\partial \alpha^2}+\frac{f_Y(S_X^{-1}(\alpha))}{\partial \alpha}\frac{S_{X}^{-1}(\alpha)}{\partial \alpha}$$

Esto no parece llevar a ninguna parte ni siquiera con ese hecho que debería ser $0$ cuando $Y\overset{D}{=}X$ ya no es evidente.

2voto

dohmatob Puntos 1195

Se trata del análisis real. Utilizaremos el siguiente lema elemental de Wikipedia .

Lema básico. Si $S$ y $S^{-1}$ son inversos entre sí y $S$ es diferenciable en $S^{-1}(\alpha)$ con $S'(S^{-1}(\alpha)) \ne 0$ entonces $S^{-1}$ es diferenciable en $\alpha$ y $$ (S^{-1})'(\alpha) = \frac{1}{S'(S^{-1}(\alpha))}. $$ Además, si $S$ es doblemente diferenciable en $S^{-1}(\alpha)$ y $S'(S^{-1}(\alpha)) \ne 0$ entonces $S^{-1}$ es doblemente diferenciable en $\alpha$ y $$ (S^{-1})''(\alpha) = -\frac{S''(S^{-1}(\alpha))}{(S'(S^{-1}(\alpha))^3}. $$

Ahora, en su problema, $\beta(\alpha) := F_X(S_Y^{-1}(\alpha))$ para todos $\alpha \in [0, 1]$ . Supongamos que

  • $F_X$ y $F_Y$ tienen densidades (¡no todas las distribuciones tienen densidad!) $f_X$ y $f_Y$ resp. que son compatibles con todos los $\mathbb R$ .
  • $f_X$ y $f_Y$ son suaves (tienen derivadas continuas).

Diferenciando $\beta$ tenemos

$$ \beta'(\alpha) = f_X(S_Y^{-1}(\alpha))(S^{-1}_Y)'(\alpha) = \frac{f_X(S_Y^{-1}(\alpha))}{S_Y'(S_Y^{-1}(\alpha))}=-\frac{f_X(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}, $$ donde la primera igualdad es por el regla de la cadena la segunda es por el lema anterior, y la tercera es porque $S_Y=1-F_Y$ y así $S_Y' = -F_Y'=-f_Y$ .

Diferenciando de nuevo, obtenemos

$$ \begin{split} \beta''(\alpha)&=-\frac{f_Y(S_Y^{-1}(\alpha))\left(\frac{f_X'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}\right)+f_X(S_Y^{-1}(\alpha))\left(\frac{f_Y'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}\right)}{(f_Y(S_Y^{-1}(\alpha)))^2} \\ &=\frac{f_X(S_Y^{-1}(\alpha))\frac{f_Y'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}-f_X'(S_Y^{-1}(\alpha))}{(f_Y(S_Y^{-1}(\alpha)))^2}, \end{split} \tag{*} $$ donde hemos utilizado la regla de la cadena y el lema anterior una vez más. Así, $$ \beta''(\alpha) \gtreqqless 0 \text{ iff } \frac{f_X'(S_Y^{-1}(\alpha))}{f_X(S_Y^{-1}(\alpha))} \lesseqqgtr \frac{f_Y'(S_Y^{-1}(\alpha))}{f_Y(S_Y^{-1}(\alpha))}, \tag{1} $$ del que se pueden obtener condiciones necesarias y suficientes para la convexidad / concavidad / linealidad de la $\beta$ función.

Caso cuando $Y\overset{D}{=}X+c$

En particular, si $Y \overset{D}{=} X + c$ para algunos fijos $c \in \mathbb R$ entonces $S_Y^{-1}(\alpha) = c + S_X^{-1}(\alpha)$ , $f_Y^{(k)}(x) = f_X^{(k)}(x-c)$ para todos $x \in \mathbb R$ y $k=0,1$ . Así,

  • $f_Y'(S_Y^{-1}(\alpha)) = f_X'(S_X^{-1}(\alpha))$ ,
  • $f_X'(S_Y^{-1}(\alpha))=f_X'(c+S_X^{-1}(\alpha))$ ,
  • $f_X(S_Y^{-1}(\alpha))=f_X(c+S_X^{-1}(\alpha))$ ,
  • $f_Y(S_Y^{-1}(\alpha))=f_X(S_X^{-1}(\alpha))$ ,

y aplicando (1) obtenemos

$$ \beta''(\alpha) \gtreqqless 0 \text{ iff } \frac{f_X'(c+S_X^{-1}(\alpha))}{f_X(c+S_X^{-1}(\alpha))} \lesseqqgtr \frac{f_X'(S_X^{-1}(\alpha))}{f_X(S_X^{-1}(\alpha))}, \tag{2} $$ Podemos entonces obtener la condición necesaria y suficiente para la convexidad / concavidad / linealidad de $\beta$ simplemente explotando la estructura de $f_X$ . Por ejemplo, deducimos que

Lema. Si $X$ es gaussiano y $Y\overset{D}{=}X+c$ para algunos $c \in \mathbb R$ entonces: (A) $\beta(\alpha)$ es convexo en $\alpha$ si $c \ge 0$ . (B) $\beta(\alpha)$ es cóncavo en $\alpha$ si $c \le 0$ . (C) $\beta(\alpha)$ es afín en $\alpha$ si $c=0$ .

Incluso podemos extender el lema anterior al caso general en el que la distribución de $X$ es logarítmico-cóncavo, es decir $f_X(x) = e^{-V(x)}$ para alguna diferenciable continua twise $V:\mathbb R \rightarrow \mathbb R$ tal que $V''(x) \ge 0$ para todos $x\in \mathbb R$ . El ejemplo gaussiano $X \sim \mathcal N(\mu,\sigma^2)$ es un ejemplo de esta configuración; basta con tomar $V(x) = \frac{1}{2\sigma^2}(x-\mu)^2 + \frac{1}{2}\log(2\sigma^2)$ .

Lema. Dejemos que $f_X=e^{-V}$ sea logarítmico-cóncavo y $Y\overset{D}{=}X+c$ para algunos $c \in \mathbb R$ . Entonces: (A) $\beta(\alpha)$ es convexo en $\alpha$ si $c \ge 0$ . (B) $\beta(\alpha)$ es cóncavo en $\alpha$ si $c \le 0$ . (C) $\beta(\alpha)$ es afín en $\alpha$ si $c=0$ .

Prueba. Por lo que respecta a la arbitrariedad $ \alpha \in [0, 1]$ , y $x = x(\alpha) := S_X^{-1}(\alpha)$ . Se calcula $$ \frac{f_X'(S_X^{-1}(\alpha))}{f_X(S_X^{-1}(\alpha))} = \frac{f_X'(x)}{f_X(x)}=\frac{-V'(x)e^{-V(x)}}{e^{-V(x)}}=-V'(x). $$ Así, por (2) , $\beta(\alpha)$ es convexo en $\alpha$ si $[-V'(c+x) \le -V'(x)\;\forall x]$ si $[V'(c+x) \ge V'(x)\;\forall x]$ si $c \ge 0$ (ya que $V'$ es no decreciente porque $V''$ es una función no negativa por hipótesis). Procedemos de forma similar en los otros dos casos (concavidad y linealidad). $\quad\quad\quad\Box$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X