6 votos

¿Qué significa integrar en la parte posterior?

He estado leyendo un libro que cita un ejemplo donde una distribución uniforme es la inicial de antes, y entonces una persona puntuaciones de 9/10 en una prueba. El resultado posterior se convierte en el antes de la distribución.

El libro ofrece la siguiente explicación de lo que sucede, pero a pesar de consultar la página de la Wikipedia sobre la integración estoy tratando de entender exactamente lo que está pasando, y por qué este proceso es necesario.

enter image description here

13voto

SHU Puntos 18

Mateo respuesta proporciona una correcta explicación técnica. Para la comprensión intuitiva, usted puede pensar que para integrar más de una distribución es sólo un término de lujo para un promedio de más de la distribución (o, teniendo la expectativa sobre la distribución). En esta respuesta, creo que es el mismo modelo con distribuciones discretas (número finito de alternativas $\theta$s), que puede ser más fácil de entender si uno no está muy familiarizado con la integración continua de las distribuciones de probabilidad. En esta respuesta, para mayor claridad, yo uso $Pr$ para denotar probabilidades discretas y $p$ para denotar la probabilidad de densidades frecuencia $p$ se utiliza para designar tanto como en el extracto del libro ($k^{\mathrm{rep}}$ es una variable aleatoria discreta).

Discretos ejemplo

Una discreta caso puede ser más fácil de entender, así que vamos a considerar una situación en la que sólo dos tipos de ms responden: aquellos que adivinar al azar (a asumir estos son sí/no preguntas), es decir, $\theta=0.5$ y aquellos que están bastante bien (por ejemplo, $\theta=0.9$). Deje que nuestro antes de la distribución de la tasa-de-correcto-las respuestas deben estar $Pr(\theta=0.5)=0.5$, $Pr(\theta=0.9)=0.5$. Vamos ahora a trabajar de lo que es nuestra posterior predictivo de la probabilidad de que usted obtenga todos los cinco preguntas en la prueba siguiente a la derecha. Esto es $k^{\mathrm{rep}} = 5\mid n^{\mathrm{rep}} = 5$. Si usted es el total de personas que está adivinando, esta probabilidad sería \begin{equation} Pr(k^{\mathrm{rep}} = 5 \mid n^{\mathrm{rep}} = 5,\theta=0.5) = 0.5^5 \approx 0.03, \end{equation} mientras que si son bastante buenos en el contestador, la probabilidad es \begin{equation} Pr(k^{\mathrm{rep}} = 5 \mid n^{\mathrm{rep}} = 5,\theta=0.9) = 0.9^5 \approx 0.59, \end{equation} pero no sabemos cuál de estas clases de ms responden que perteneces! Por lo tanto, nuestra total probabilidad para conseguir 5/5 en la siguiente prueba se obtiene mediante la ponderación de los anteriores probabilidades por las probabilidades de que usted pertenece a cualquiera de las clases. Si queremos tomar en cuenta nuestra información acerca de su éxito en la prueba anterior ($n=10$ preguntas, $k=9$ de respuestas correctas), la correcta probabilidades de utilizar para esta ponderaciones son las probabilidades posteriores en vista de los anteriores datos. Os dejo computación en la parte posterior como un ejercicio, pero el resultado es \begin{array}{l} Pr(\theta=0.5 \mid k=9,n=10) = \frac{0.5^9\,0.5}{0.5^9\,0.5 + 0.9^9\,0.1} \approx 0.025, \\ Pr(\theta = 0.9 \mid k=9,n=10) = \frac{0.9^9\,0.1}{0.5^9\,0.5 + 0.9^9\,0.1} \approx 0.975. \end{array} Nuestro posterior predictivo de la probabilidad para llegar a todas las preguntas correctamente es entonces \begin{array}{l} & Pr(k^{\mathrm{rep}}=5 \mid n^{\mathrm{rep}}=5,n=10,k=9) \\ = & Pr(\theta=0.5 \mid k=9,n=10)\times Pr(k^{\mathrm{rep}} = 5 \mid n^{\mathrm{rep}} = 5,\theta=0.5) \\+ &Pr(\theta=0.9 \mid k=9,n=10)\times Pr(k^{\mathrm{rep}} = 5 \mid n^{\mathrm{rep}} = 5,\theta=0.9) \\ \approx & 0.577, \end{array} que está muy cerca de la predicción de la probabilidad de la muy buena clase, pero ligeramente ajustado para tomar en cuenta la pequeña probabilidad de que su buena puntuación en la prueba anterior fue solo suerte y que en realidad están respondiendo por adivinación.

Movimiento continuo de caso

La anterior discretos caso es más bien un modelo crudo - ¿por qué nos resulta probable que usted tenga un correcto-respuesta-tasa de $\theta=0.9$, pero imposible de que usted ha $\theta=0.85$?? Así, un mejor análisis de uso continuo antes de la distribución de $\theta$. En este caso, todos los valores particulares tienen probabilidad cero, y en lugar de la anterior y posterior de las distribuciones son descritos por las densidades de $p(\theta)$, $p(\theta \mid n=10,k=9)$. El objetivo de la obtención de la parte posterior de la distribución predictiva es todavía el mismo, pero ahora el promedio ponderado de la predicción se obtiene mediante la integración de más de la distribución posterior, como se explica en el de Mateo respuesta. Si este concepto es nuevo para usted, usted debe leer sobre funciones de densidad de probabilidad.

Tenga en cuenta también que en la teoría de la medida, un promedio de más discretos y continuos de las distribuciones se formaliza como la integración, de manera que el término 'integrar más posterior" puede ser utilizado en el caso discreto, demasiado.

10voto

Matt Puntos 1371

El objetivo aquí para obtener la posterior predicción de la distribución. Supongamos que tenemos los datos anteriores $y$ para el aprendizaje de los parámetros de $\theta$, por el cual podamos alcanzar la parte posterior de la $\pi(\theta \mid y)$. Pero ahora queremos entender la distribución de los $y^*$, un nuevo (conjunto de) observación(s), teniendo en cuenta los datos que ya tenemos. Que sería la distribución de $\pi(y^* \mid y)$. ¿Cómo conseguimos esto? Utilizamos la Ley de Total Probabilidad, que requiere una integral: $$ \pi(y^* \mid y) = \int \pi(y^*, \theta \mid y) d\theta = \int \pi(y^* \mid \theta) \pi(\theta \mid y) d\theta. $$ $\pi(\theta \mid y)$ es la distribución posterior, por lo que estamos integrando sobre la parte posterior para obtener $\pi(y^* \mid y)$. No podíamos simplemente el uso de $\pi(y^* \mid \theta)$ para algunos cálculo del punto de $\theta$ debido a que no sería de la contabilidad de la incertidumbre que tenemos sobre $\theta$ (y que podría haber una gran cantidad de incertidumbre). Afortunadamente en que la incertidumbre es totalmente contenida dentro de la parte posterior de la $\pi(\theta \mid y)$.

Por ejemplo, el Beta-Binomial la distribución es la parte posterior de la distribución predictiva para una binomial de probabilidad y beta antes de la obtenida por la integral $$ \int \text{Binomio}(y^* \mid \theta) \text{Beta}(\theta \mid \alpha_{\text{actualizado}},\beta_{\text{actualizado}}) d\theta. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X