5 votos

Suma sobre la distribución predictiva posterior

Estoy confundido acerca de la distribución predictiva posterior.

Esto es del Aprendizaje automático de Murphy: una perspectiva probabilística. De acuerdo con el ejemplo del Capítulo 3, la distribución predictiva posterior es:$$p(\tilde{x} \in C \mid D) = \displaystyle\sum_{h} p(y = 1 \mid \tilde{x}, h) p(h \mid D) $$ I believe $ y = f (x \ in C) = \begin{cases} 1 & \quad \text{if } x \in C\\ 0 & \quad \text{if } x \notin C\\ \end {cases} $ aunque no se menciona en el texto. ¿Debería la distribución predictiva posterior sumar a 1? ps

1voto

Eduardo Santa Puntos 368

La última interpretación debe ser la correcta. Mi comprensión de la posterior distribución predictiva es decir, que se busca la probabilidad de que (aún) no observada de los datos de $\tilde{x}$. Lo que tenemos aquí es un modelo con un parámetro de $h$ y observado previamente los datos que han sido procesados en una posterior distribución de probabilidad para $h$.

Se debe sostener que:

\begin{align*} p(\tilde{x}|D) = \sum_{h}p(\tilde{x},h|D) = \sum_{h}p(\tilde{x}|h)\,p(h|D) \end{align*}

Aquí $p(\tilde{x}|D)$ está dando a la probabilidad condicional para todos los posibles valores de $\tilde{x}$. La teoría de la probabilidad se establece que:

\begin{align*} p(\tilde{x} \in C|D) + p(\tilde{x}\notin C|D) = 1 \end{align*}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X