Estoy leyendo un libro y he visto la siguiente ecuación: $$ P(X|\theta) = \sum_{z}P(X|z,\theta)P(z|\theta)$$ Sé que lo es: $$ P(X) = \sum_{z}P(X|z)P(z)$$ Pero no sé cómo la ecuación anterior con probabilidad condicional y tres variables es cierta. ¿Podría alguien mostrar cómo llegamos desde el lado izquierdo al lado derecho?
Respuestas
¿Demasiados anuncios?Como se ha señalado aquí ,
cualquier regla, teorema o fórmula que hayas aprendido sobre probabilidades también es aplicable si todo se supone condicionada a la ocurrencia de algún evento. F $$P(B^c) = 1-P(B)$$ nos permite $$P(B^c\mid A) = 1 - P(B\mid A)$$ es un resultado válido sin tener que escribir las definiciones formales y completar una demostración del resultado.
Por lo tanto, aplicar esta noción a lo que usted sabe, a saber., $$ P(X) = \sum_{z}P(X\mid z)P(z)$$ para obtener $$ P(X\mid\theta) = \sum_{z}P(X\mid z,\theta)P(z\mid\theta).$$ Todo lo que estás haciendo es condicionar todo a la nueva variable o evento $\theta$ .
¿No te crees todas estas tonterías? Entonces, tritúralo por las malas utilizando todas las definiciones: \begin{align} \sum_{z}P(X|z,\theta)P(z|\theta) &= \sum_{z}\frac{P(X, z,\theta)}{P(z,\theta)}\times \frac{P(z,\theta)}{P(\theta)}\\ &= \sum_{z}\frac{P(X, z,\theta)}{P(\theta)}\\ &= \frac{1}{P(\theta)}\sum_{z} {P(X, z, \theta)}\\ &= \frac{P(X, \theta)}{P(\theta)}\\ &= P(X\mid\theta). \end{align}
Una forma de pensar, y creo que es la más fácil, es imaginar que podemos añadir cualquier número de VR al lado dado de las fórmulas de probabilidad, es decir, también tendríamos $$P(X|\theta_1,\theta_2)=\sum_z P(X|z,\theta_1,\theta_2)P(z|\theta_1,\theta_2)$$
O bien, puede multiplicar ambos lados de la ecuación anterior por $P(\theta)$ y tienen $$P(X,\theta)=\sum_z P(X|z,\theta)P(z,\theta)=\sum_z P(X,z,\theta)$$ que es en realidad la marginación.