8 votos

Explicación que sigue a la distribución (marginal) predictiva previo previo y distribuciones de muestreo

Aunque tengo una vaga intuición de que esto tiene sentido, estoy interesado en la demostración formal de que el antes de la distribución predictiva en la inferencia Bayesiana es igual a la integral sobre la $\theta$ del producto de la previa distribución $p(\theta)$ y la distribución de muestreo $p(y|\theta)$, tal que:

$$p(y) = \int_{\theta} p(\theta) p(y|\theta)\text{d}\theta.$$

Se podría decir que la integral hace que la distribución incondicional (es decir, se elimina la condicionalidad) mediante la integración de más de todos los parámetros posibles?

Si es así, hay más explicación formal?

6voto

Steve Puntos 477

La ecuación de la siguiente manera a partir de la definición de la distribución marginal:

$$ p(y) = \int_\theta{p(y, \theta)} $$

Y, a partir de la factorización de la probabilidad conjunta de datos y parámetros en probabilidades condicionales, así: $$p(y, \theta) = p(y|\theta)p(\theta)$$

(Si esto es confuso, divide ambos lados por $p(\theta)$ para obtener la conocida definición de la probabilidad condicional.)

Más claramente, y como se hace referencia en los comentarios, el estado de la distribución predictiva es el Bayesiano término se define como la distribución marginal de los datos a través de la previa: denota una interpretación particular de una distribución marginal.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X