Es llamada la Ley de la Total Probabilidad.
Desde la unión de cualquier evento $H$ y su complemento $\overline H$ comprenden el total de la muestra en el espacio (por definición), y la intersección de cualquier evento $E$ e el espacio muestral es igual a la de sucesos, entonces claramente:
$$\begin{split}E&=E\cap (H\cup\overline H)\\ & = (E\cap H)\cup(E\cap \overline H)\end{split}$$
Ahora, los dos componentes de esa unión son distintos, y la probabilidad de una unión de distintos eventos es la suma de las probabilidades de estos eventos, así que:$$\mathsf P(E)=\mathsf P(E\cap H)+\mathsf P(E\cap\overline H)$$ Then it is just a matter of applying the definition for conditional probability.$$\mathsf P(E)=\mathsf P(E\mid H)~\mathsf P(H)+\mathsf P(E\mid\overline H)~\mathsf P(\overline H)$$
Y así tenemos que: $$\mathsf P(H\mid E)=\dfrac{\mathsf P(E\mid H)~\mathsf P(H)\hspace{18ex}}{\mathsf P(E\mid H)~\mathsf P(H)+\mathsf P(E\mid\overline H)~\mathsf P(\overline H)}$$
En general, cuando tenemos una secuencia de eventos, ${(B_k)}_{k=1}^n$, partición del espacio muestral (es decir: son disjuntos a pares y exhaustiva), a continuación, de forma similar:
$$\begin{split}\mathsf P(E) &=\mathsf P(E\cap\bigcup_{k=1}^n B_k)\\ &=\sum_{k=1}^n \mathsf P(E\mid B_k)\,\mathsf P(B_k)\end{split}$$