En Kevin Murphy Conjugar el análisis Bayesiano de la distribución Gaussiana, él escribe que la parte posterior de la distribución predictiva es
$$ p(x \a mediados D) = \int p(x \mid \theta) p(\theta \mediados de la D) d \theta $$
donde $D$ es la de datos en la que el modelo se ajuste y $x$ es invisible datos. Lo que yo no entiendo es por qué la dependencia de la $D$ desaparece en el primer término de la integral. El uso de reglas básicas de la probabilidad, yo habría esperado:
$$ \begin{align} p(a) &= \int p(a \mid c) p(c) dc \\ p(a \mid b) &= \int p(a \mid c, b) p(c \mid b) dc \\ &\downarrow \\ p(x \mid D) &= \int \overbrace{p(x \mid \theta, D)}^{\star} p(\theta \mid D) d \theta \end{align} $$
Pregunta: ¿por Qué la dependencia de la $D$ en plazo $\star$ a desaparecer?
Para lo que vale, he visto este tipo de formulación (dejar que las variables condicionales) otros lugares. Por ejemplo, en Ryan Adán Bayesiano en Línea de Changepoint Detección, escribe el posterior predictivo como
$$ p(x_{t+1} \mediados de r_t) = \int p(x_{t+1} \mid \theta) p(\theta \mid r_{t}, x_{t}) d \theta $$
donde, de nuevo, desde el $D = \{x_t, r_t\}$, yo habría esperado
$$ p(x_{t+1} \mediados de x_t, r_t) = \int p(x_{t+1} \mid \theta, x_t, r_t) p(\theta \mid r_{t}, x_{t}) d \theta $$