En el Bayesiano versión de (binario) de la prueba de hipótesis que uno tiene que decidir a cual de las dos hipótesis de $A$ $B$ es cierto. Las dos hipótesis son dadas antes de probabilidad $p(A)$$p(B)$, que se suma a 1. $A$ $B$ inducir dos distribuciones de probabilidad sobre un conjunto de posibles observaciones $X$, decir $p(x|A)$$p(x|B)$. Uno de ellos tiene dos decidir entre el $A$ $B$ después de mirar una observación $x$.
Se sabe que la mejor estrategia, que es la que minimiza la probabilidad de uncorrect adivinar, es elegir la hipótesis de $H\in\{A,B\}$ que maximiza el $p(H|x)$ donde $x$ es la observación. La probabilidad de error de la media en todas las $x$$H$) puede ser expresado
$$P_e = 1-\sum_x \max( p(x|A)p(A), p(x|B)p(B))\tag{1}$$
La expresión (1) se considera a menudo como 'intratables', debido a la presencia de la máxima operador. Por lo tanto manejable límites son los que buscas. Un ejemplo es el armónico más bajo-bound
$$P_e \geq E_x[P(A|x)P(B|x)]\tag{2}$$
($E_x$ es la expectativa sobre $x$; véase por ejemplo : Routtenberg, Tabrikian, "Una Clase General de los Límites Inferiores de la Probabilidad de Error en Múltiples Pruebas de Hipótesis", http://arxiv.org/abs/1005.2880de Mayo de 2010, y referencias incluidas).
Mis preguntas:
1) ¿En qué sentido son expresiones como el lado derecho de (2) "más manejable" que (1)? Computacionalmente, que todavía requieren de la integración (funciones) de los PMF$p(x|A)$$p(x|B)$. Tal vez la más conveniente desde el punto de vista analítico?
2) Una exacta y expresiones simples para $P_e$ es:
$$P_e = 1-\frac{||p(\cdot|A)p(A) - p(\cdot|B)p(B)||_1 + 1}2\tag{3}$$
(Aquí se $p(\cdot|H)$ es visto como un vector en un $R^{|X|}$, e $||\cdot||_1$ denota la norma-1).
Esto es conceptualmente interesante porque relaciona la probabilidad de error a una distancia entre PMF. Es esta expresión considerado como "intratables" en el mismo sentido de (1)?
M.