Ambos modelos van a dar los mismos resultados exactos. Por qué? La Probabilidad de principio. RJags es un paquete de R que utiliza el software de EXIGENCIAS para llevar a cabo la inferencia Bayesiana, y cualquier plenamente procedimiento Bayesiano, uno donde la inferencia de que procede de la distribución posterior, va a satisfacer la Probabilidad de principio. Esencialmente, la Probabilidad de principio establece que si dos funciones de probabilidad son proporcionales a cada otro, entonces el mismo inferencias acerca de los parámetros deben ser obtenidos a partir de las dos funciones de probabilidad.
En el ejemplo que estamos inferir la probabilidad de que una moneda caiga de cara, $p$, $n$ independiente lanzamientos, $X_1,...,X_n$, de esa moneda. Antes de tirar la moneda, se asume que el valor de $p$ en el intervalo de $[0,1]$ es igualmente probable. Por lo tanto la distribución previa para el parámetro $p$$\pi (p)=1$. Supongamos que observamos $k$ lanzar una moneda donde la moneda cae de cabeza, donde $0\leq k\leq n$. En el caso del modelo de uso de la distribución binomial, la probabilidad de la función es
$$
l(p|X_1,...,X_n)= {n \elegir k}p^k (1-p)^{n-k}
$$
Para el modelo de Bernoulli, la probabilidad de la función es
$$
l_\estrella (p|X_1,...,X_n)=p^k(1-p)^{n-k}
$$
Hemos observado los datos, por lo tanto $n$ $k$ son valores fijos y, por tanto, ${n \choose k}$ es sólo una constante, y $l(p|X_1,...,X_n) \propto l_\star(p|X_1,...,X_n)$, teniendo en cuenta $l$ $l_\star$ son funciones de la $p$. Una vez que tenemos nuestras muestras de la distribución posterior de RJags, vamos a hacer la misma conclusión, al margen de cualquier error debido a que tiene una muestra finita de una Cadena de Markov que ha esperemos convergente.
También, si usted está familiarizado con las estadísticas suficientes, se puede anotar que $k=\sum_{i=1}^n{X_i}$ es una estadística suficiente para $p$ en ambos modelos (asumiendo $n$ fijo).