Es llamada la Ley de la Total Probabilidad.
Desde la unión de cualquier evento H y su complemento \overline H comprenden el total de la muestra en el espacio (por definición), y la intersección de cualquier evento E e el espacio muestral es igual a la de sucesos, entonces claramente:
\begin{split}E&=E\cap (H\cup\overline H)\\ & = (E\cap H)\cup(E\cap \overline H)\end{split}
Ahora, los dos componentes de esa unión son distintos, y la probabilidad de una unión de distintos eventos es la suma de las probabilidades de estos eventos, así que:\mathsf P(E)=\mathsf P(E\cap H)+\mathsf P(E\cap\overline H) Then it is just a matter of applying the definition for conditional probability.\mathsf P(E)=\mathsf P(E\mid H)~\mathsf P(H)+\mathsf P(E\mid\overline H)~\mathsf P(\overline H)
Y así tenemos que: \mathsf P(H\mid E)=\dfrac{\mathsf P(E\mid H)~\mathsf P(H)\hspace{18ex}}{\mathsf P(E\mid H)~\mathsf P(H)+\mathsf P(E\mid\overline H)~\mathsf P(\overline H)}
En general, cuando tenemos una secuencia de eventos, {(B_k)}_{k=1}^n, partición del espacio muestral (es decir: son disjuntos a pares y exhaustiva), a continuación, de forma similar:
\begin{split}\mathsf P(E) &=\mathsf P(E\cap\bigcup_{k=1}^n B_k)\\ &=\sum_{k=1}^n \mathsf P(E\mid B_k)\,\mathsf P(B_k)\end{split}