4 votos

Posterior cálculo para la distribución de Laplace

Estoy lidiando con ser bayesiana y en busca de una forma cerrada para una posterior para el parámetro de escala $\tau$ de una distribución de Laplace, que yo puedo derivar un condicional completo en mi dechado de Gibbs.

No creo podría explotar GACION de Laplace, pero sería útil cualquier cómputo de forma cerrada para la parte posterior. ¿Alguna idea sobre cómo elegir a la previa y obtener una posterior forma cerrada de la que se conoce como muestra de?

11voto

Silvercode Puntos 438

La probabilidad de $n$ iid observaciones se parece a:

$ f(x_1,...x_n|\lambda,\mu) \propto \frac{1}{\lambda^n} exp(-\frac{1}{\lambda}\sum_{i=1}^n|x_i-\mu|)$

Por lo tanto, un conjugado antes de $\lambda$ $\mu, x$ conocido debe (pensando sólo en el área de álgebra) aspecto:

$ f(\lambda) \propto \frac{1}{\lambda^a} exp(-\frac{b}{\lambda})$

Como sugiere marmle, este es un proceso Inverso a la Gamma, aunque para ser agradable tendríamos que cambiar $a\rightarrow a-1$ y deje $a>0, b>0$.

EDIT: Para obtener los parámetros actualizados para $\lambda$:

$ f(\lambda|x_1,...x_n, \mu) \propto f(\lambda)f(x_1,...x_n|\lambda,\mu) $

$ \propto \frac{1}{\lambda^{- 1}} exp(-\frac{b}{\lambda}) \frac{1}{\lambda^n} exp(-\frac{1}{\lambda}\sum_{i=1}^n|x_i-\mu|)$

$ \propto \frac{1}{\lambda^{n+a-1}} exp(-\frac{1}{\lambda}(b+\sum_{i=1}^n|x_i-\mu|)) $

4voto

Lev Puntos 2212

Acondicionado en $\lambda$, la posterior en $\mu$ puede ser expresado de una manera razonablemente la forma cerrada: \begin{align} \pi(\mu|x_1,\ldots,x_n) &\propto \pi(\mu) \exp\left(-\frac{1}{\lambda}\sum_{i=1}^n|x_i-\mu|\right)\\ &= \pi(\mu) \exp\left(-\frac{1}{\lambda}\sum_{i=1}^n|x_{(i)}-\mu|\right)\\ &= \pi(\mu) \sum_{j=0}^n \mathbb{I}_{(x_{(j)},x_{(j+1)})}(\mu) \exp\left(-\frac{1}{\lambda}\sum_{i=1}^n|x_{(i)}-\mu|\right)\\ &= \pi(\mu) \sum_{j=0}^n \mathbb{I}_{(x_{(j)},x_{(j+1)})}(\mu) \exp\left(\frac{1}{\lambda}\sum_{i=1}^j[x_{(i)}-\mu|]\right)\exp\left(\frac{1}{\lambda}\sum_{i=j+1}^n[\mu-x_{(i)}|]\right)\\ &=\sum_{j=0}^n \exp\left(\frac{1}{\lambda}\sum_{i=1}^jx_{(i)}-\frac{1}{\lambda}\sum_{i=j+1}^nx_{(i)}\right)\pi(\mu)\exp\left(\frac{2j-n}{\lambda}\mu\right)\mathbb{I}_{(x_{(j)},x_{(j+1)})}(\mu) \end{align} dado que el uso Normal antes de $\pi(\mu)$ devuelve una mezcla de truncado Normales. Por ejemplo, si la anterior es una ${\cal N}(0,\sigma^2)$, luego \begin{align} \pi(\mu|x_1,\ldots,x_n) &\propto \sum_{j=0}^n \overbrace{\exp\left(\frac{1}{\lambda}\sum_{i=1}^jx_{(i)}-\frac{1}{\lambda}\sum_{i=j+1}^nx_{(i)}\right)}^{\omega_j}\exp\left(\frac{2j-n}{\lambda}\mu-\frac{\mu^2}{2\sigma^2}\right)\mathbb{I}_{(x_{(j)},x_{(j+1)})}(\mu)\\ &\propto \sum_{j=0}^n \omega_j\exp\left(2\sigma^2\frac{2j-n}{\lambda}\frac{\mu}{2\sigma^2}-\frac{\mu^2}{2\sigma^2}\right)\mathbb{I}_{(x_{(j)},x_{(j+1)})}(\mu)\\ &\propto \sum_{j=0}^n \omega_j\exp\left(\sigma^2\frac{(2j-n)^2}{\lambda^2}\right)\exp\left(\frac{-1}{2\sigma^2}\left[\mu-\frac{(2n-j)\sigma^2}{\lambda}\right]^2\right) \mathbb{I}_{(x_{(j)},x_{(j+1)})}(\mu)\\ \end{align} una mezcla de $n+1$ trunca distribuciones Normales en $\mu$, truncado, respectivamente, a los intervalos de $(x_{(j)},x_{(j+1)})$ originales media de $(2n-j)\sigma^2/\lambda$ y el original de la varianza $\sigma^2$. (Aunque obvio, el peso de la mezcla son engorrosos en que se implica la probabilidad de cobertura de $(x_{(j)},x_{(j+1)})$ por la distribución Normal con una media de $(2n-j)\sigma^2/\lambda$ y la varianza $\sigma^2$.)

Y el condicional posterior en $\lambda$ asociado con un Inversa Gamma ${\cal IG}(a,b)$ es de hecho una relación Inversa entre la Gamma$${\cal IG}\left(a+n,b+\sum_i|x_i-\mu|\right)$$lo cual implica que un paso de dos muestreador de Gibbs puede ser implementado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X