Utilizando la definición de probabilidad condicional, tenemos que $$\begin{align} P(A\mid B \cap C) &= P(A\mid B)\tag{1}\\ &\Downarrow\\ \frac{P(A\cap B\cap C)}{P(B\cap C)} &= \frac{P(A\cap B)}{P(B)}\\ &\Downarrow\\ \frac{P(A\cap B\cap C)}{P(A\cap B)} &= \frac{P(B\cap C)}{P(B)}\\ &\Downarrow\\ P(C\mid A\cap B) &= P(C\mid B)\tag{2} \end{align}$$ que recuerda inquietantemente a $(1)$ desde $(2)$ es sólo $(1)$ con $A$ y $C$ intercambiados. De hecho,
$A$ y $C$ son condicionalmente independiente dado $B$ .
Podemos proceder de $(1)$ arriba y escriba $$\begin{align} P(A\mid B \cap C) &= P(A\mid B)\tag{1}\\ &\Downarrow\\ \frac{P(A\cap B\cap C)}{P(B\cap C)} &= P(A\mid B)\\ &\Downarrow\\ \frac{P(A\cap C\mid B)P(B)}{P(C\mid B)P(B)} &= P(A\mid B)\\ &\Downarrow\\ \frac{P(A\cap C\mid B)}{P(C\mid B)} &= P(A\mid B)\\ P(A\cap C\mid B) &= P(A\mid B)P(C\mid B)\tag{3} \end{align}$$ donde $(3)$ puede ser reconocida como la prueba de fuego para declarar que $A$ y $C$ son condicionalmente independiente dado $B$ .
Sin embargo, $A$ y $C$ no tienen por qué ser (incondicionalmente) independientes ya que como usted cree que podría ser. Como contraejemplo, supongamos que $$P(ABC)=P(ABC^c) = P(A^cBC) = P(A^cBC^c) = 0.1; ~~P(A^cB^cC^c) = 0.6$$ Entonces, fácilmente obtenemos que $P(AB) = P(BC) = 0.2; ~ P(B) = 0.4$ para que los lados derechos de $(1)$ y $(2)$ tener valor $\frac{0.2}{0.4}=\frac 12$ mientras que los lados izquierdos tienen valor $\frac{0.1}{0.2} = \frac 12$ . Pero, $$P(AC) = 0.1 \neq P(A)P(C) = 0.2\times 0.2$$ y así $A$ y $C$ no son eventos independientes.