Michael y Fraijo sugirió que la simple comprobación de si el valor del parámetro interesado estaba contenido en alguna región creíble era el equivalente bayesiano de invertir los intervalos de confianza. Al principio era un poco escéptico al respecto, ya que no me parecía evidente que este procedimiento diera lugar realmente a una prueba bayesiana (en el sentido habitual).
Resulta que sí, al menos si estás dispuesto a aceptar cierto tipo de funciones de pérdida. Muchas gracias a Zen que proporcionó referencias a dos artículos que establecen una conexión entre las regiones HPD y las pruebas de hipótesis:
Intentaré resumirlas aquí, para futuras referencias. Por analogía con el ejemplo de la pregunta original, trataré el caso especial en el que las hipótesis son $$H_0: \theta\in\Theta_0=\{\theta_0\}\qquad \mbox{and}\qquad H_1: \theta\in\Theta_1=\Theta\backslash \Theta_0,$$ donde $\Theta$ es el espacio de los parámetros.
Pereira y Stern propusieron un método para comprobar dichas hipótesis sin tener que poner probabilidades a priori en $\Theta_0$ y $\Theta_1$ .
Dejemos que $\pi(\cdot)$ denotan la función de densidad de $\theta$ y definir $$T(x)=\{ \theta:\pi(\theta|x)>\pi(\theta_0|x)\}.$$
Esto significa que $T(x)$ es una región HPD con credibilidad $P(\theta\in T(x)|x)$ .
La prueba de Pereira-Stern rechaza $\Theta_0$ cuando $P(\theta\notin T(x)|x)$ es "pequeño" ( $<0.05$ , digamos). Para una posterior unimodal, esto significa que $\theta_0$ está muy lejos en las colas de la posterior, lo que hace que este criterio sea algo similar al uso de los valores p. En otras palabras, $\Theta_0$ se rechaza en el $5~\%$ nivel si y sólo si no está contenido el in $95~\%$ Región HPD.
Que la función de prueba $\varphi$ sea $1$ si $\Theta_0$ se acepta y $0$ si $\Theta_0$ es rechazado. Madruga et al. propusieron la función de pérdida $$ L(\theta,\varphi,x) = \begin{cases} a(1-\mathbb{I}(\theta\in T(x)), & \mbox{if } \varphi(x)=0 \\ b+c\mathbb{I}(\theta\in(T(x)), & \mbox{if } \varphi(x)=1, \end{cases} $$ con $a,b,c>0$ .
La minimización de la pérdida esperada conduce a la prueba de Pereira-Stern donde $\Theta_0$ se rechaza si $P(\theta\notin T(x)|x)<(b+c)/(a+c).$
Hasta ahora, todo va bien. La prueba de Pereira-Stern equivale a comprobar si $\theta_0$ está en una región HPD y existe una función de pérdida que genera esta prueba, lo que significa que está fundada en la teoría de la decisión.
Sin embargo, la parte controvertida es que la función de pérdida depende de $x$ . Aunque estas funciones de pérdida han aparecido en la literatura algunas veces, no parecen ser generalmente aceptadas como muy razonables.
Para más información sobre este tema, consulte un lista de artículos que citan el artículo de Madruga et al. .
Actualización de octubre de 2012:
No estaba completamente satisfecho con la función de pérdida anterior, ya que su dependencia de $x$ hace que la toma de decisiones sea más subjetiva de lo que me gustaría. Pasé algún tiempo más pensando en este problema y terminé escribiendo una breve nota al respecto, publicado en arXiv hoy mismo .
Dejemos que $q_{\alpha}(\theta|x)$ denotan la función cuantil posterior de $\theta$ , de tal manera que $P(\theta\leq q_{\alpha}(\theta|x))=\alpha$ . En lugar de los conjuntos HPD, consideramos el intervalo central (de igual cola) $(q_{\alpha/2}(\theta|x),q_{1-\alpha/2}(\theta|x))$ . Para probar $\Theta_0$ utilizando este intervalo puede justificarse en el marco de la teoría de la decisión sin una función de pérdida que dependa de $x$ .
El truco consiste en reformular el problema de la comprobación de la hipótesis puntual-nula $\Theta_0=\{\theta_0\}$ como un problema de tres decisiones con conclusiones direccionales. $\Theta_0$ se comprueba con ambos $\Theta_{-1}=\{\theta:\theta<\theta_0\}$ y $\Theta_{1}=\{\theta:\theta>\theta_0\}$ .
Que la función de prueba $\varphi=i$ si aceptamos $\Theta_i$ (¡nótese que esta notación es la opuesta a la utilizada anteriormente!). Resulta que bajo la ponderación $0-1$ función de pérdida $$L_2(\theta,\varphi) = \begin{cases} 0, & \mbox{if } \theta\in\Theta_i\mbox{ and }\varphi=i, \quad i\in \{-1,0,1\}, \\ \alpha/2, & \mbox{if } \theta\notin\Theta_0 \mbox{ and }\varphi=0,\\ 1, & \mbox{if } \theta\in\Theta_{i}\cup\Theta_0 \mbox{ and }\varphi=-i,\quad i\in\{-1,1\},\end{cases}$$ la prueba de Bayes consiste en rechazar $\Theta_0$ si $\theta_0$ no está en el intervalo central.
Esto me parece una función de pérdida bastante razonable. Discuto esta pérdida, la pérdida de Madruga-Esteves-Wechsler y las pruebas utilizando conjuntos creíbles más adelante en el manuscrito en arXiv.