Estoy tratando de entender el algoritmo EM. Encontré un tutorial al respecto. Dice lo siguiente:
Dos monedas (A & B). 5 rondas de lanzarlas 10 veces. Sin embargo, olvidamos qué moneda se lanzó en cada ronda. ¿Cuáles son las probabilidades de cara $\theta_A$, $\theta_B$ de las monedas?
Mapeamos la variable latente (moneda utilizada) en la variable $Z$ con $p(Z_r=A)=p(Z_r=B)=0.5$. En cada ronda $r$ el número de caras es $x_r$.
$p(X_r = x_r | Z_r=A;\theta)=\theta_A^{x_r}(1-\theta_A)^{10-x_r}$
Ahora el tutorial dice que el posterior usando la regla de Bayes es:
$p(Z_r = A|x_r;\theta)=\frac{\theta_A^{x_r}(1-\theta_A)^{10-x_r}}{\theta_A^{x_r}(1-\theta_A)^{10-x_r}+\theta_B^{x_r}(1-\theta_B)^{10-x_r}}$
No entiendo por qué se omite la probabilidad a priori en la regla aquí? ¿No debería ser?:
$p(Z_r = A|x_r;\theta)=\frac{p(X_r=x_r|Z_r=A;\theta)p(Z_r=A)}{\sum_{C=A,B}\theta_C^{x_r}(1-\theta_C)^{10-x_r}}=\frac{\theta_A^{x_r}(1-\theta_A)^{10-x_r} * 0.5}{\theta_A^{x_r}(1-\theta_A)^{10-x_r}+\theta_B^{x_r}(1-\theta_B)^{10-x_r}}$
Origen: http://people.inf.ethz.ch/ganeao/em_tutorial.pdf
Editar: Martijn me aclaró las cosas. Para futuros lectores:
$p(Z_r = A|x_r;\theta)=\frac{p(X_r=x_r|Z_r=A;\theta)p(Z_r=A)}{p(x_r;\theta)}$
\begin{align} p(x_r;\theta) &= {\sum_{C=A,B}p(x_r|Z_r=C;\theta)p(Z_r=C)} \\ &= p(x_r|Z=A;\theta)p(Z_r=A)+p(x_r|Z_r=B;\theta)p(Z_r=B) \\ &= \theta_A^{x_r}(1-\theta_A)^{10-x_r}*0.5+\theta_B^{x_r}(1-\theta_B)^{10-x_r}*0.5 \\ &= 0.5(\theta_A^{x_r}(1-\theta_A)^{10-x_r}+\theta_B^{x_r}(1-\theta_B)^{10-x_r}) \end{align}
Entonces
$p(Z_r = A|x_r;\theta)=\frac{0.5(\theta_A^{x_r}(1-\theta_A)^{10-x_r})}{0.5(\theta_A^{x_r}(1-\theta_A)^{10-x_r}+\theta_B^{x_r}(1-\theta_B)^{10-x_r})}=\frac{\theta_A^{x_r}(1-\theta_A)^{10-x_r}}{\theta_A^{x_r}(1-\theta_A)^{10-x_r}+\theta_B^{x_r}(1-\theta_B)^{10-x_r}}$