(Gran parte de esta respuesta está copiada de otra respuesta mía aquí ; lo hago sin más atribución específica del material citado o parafraseado).
Una buena forma de proceder en este caso es realizar el análisis dentro del probabilidad imprecisa marco (ver esp. Walley 1991 , Walley 2000 ). En este marco, la creencia previa está representada por un conjunto de distribuciones de probabilidad y esto conduce a un conjunto correspondiente de distribuciones posteriores. A continuación le mostraré cómo funciona esto para su ejemplo específico de datos binomiales.
Antes de llegar a la implementación de este método, lo primero que hay que señalar aquí es que la forma más extrema de ignorancia posible sería tomar una distribución previa imprecisa compuesta por el conjunto de todos los posibles antecedentes en el rango de parámetros. Esto llevaría a una posterior imprecisa con es el conjunto de todas las posibles posteriores, por lo que su inferencia sería entonces vacía. Es decir, la ignorancia total al entrar conduce a la ignorancia total al salir. En consecuencia, si queremos una inferencia útil, debemos enmarcar nuestra "ignorancia" de alguna manera que restrinja la previa imprecisa a un rango razonable de previos a partir del cual se pueda formar un pequeño conjunto de posteriores. Esto puede hacerse permitiendo que la expectativa a priori del parámetro varíe sobre todos los valores posibles en su rango, pero restringiendo la varianza a priori a un solo valor o a un rango pequeño para obtener una inferencia posterior útil.
Aplicación al modelo binomial: Supongamos que observamos datos $X_1,...,X_n | \theta \sim \text{IID Bern}(\theta)$ donde $\theta$ es el parámetro desconocido de interés. Normalmente utilizaremos una densidad beta como previa (tanto la previa de Jeffrey como la de referencia son de esta forma). Podemos especificar esta forma de densidad a priori en términos de la media a priori $\mu$ y otro parámetro $\kappa > 1$ como:
$$\begin{equation} \begin{aligned} \pi_0(\theta | \mu, \kappa) = \text{Beta}(\theta | \mu, \kappa) = \text{Beta} \Big( \theta \Big| \alpha = \mu (\kappa - 1), \beta = (1-\mu) (\kappa - 1) \Big). \end{aligned} \end{equation}$$
(Este formulario da momentos previos $\mathbb{E}(\theta) = \mu$ y $\mathbb{V}(\theta) = \mu(1-\mu) / \kappa$ .) Ahora bien, en un modelo impreciso podríamos establecer que la previa consista en la conjunto de todas estas distribuciones a priori sobre todos los posibles valores esperados pero con el otro parámetro fijo para controlar la precisión en el rango de valores medios. Por ejemplo, podríamos utilizar el conjunto de priores:
$$\mathscr{P}_0 \equiv \Big\{ \text{Beta}(\mu, \kappa) \Big| 0 \leqslant \mu \leqslant 1 \Big\}. \quad \quad \quad \quad \quad$$
Supongamos que observamos $s = \sum_{i=1}^n x_i$ indicadores positivos en los datos. Entonces, utilizando la regla de actualización para el modelo Bernoulli-beta, el conjunto posterior correspondiente es:
$$\mathscr{P}_\mathbf{x} = \Big\{ \text{Beta}\Big( \tfrac{s + \mu(\kappa-1)}{n + \kappa -1}, n+\kappa \Big) \Big| 0 \leqslant \mu \leqslant 1 \Big\}.$$
El rango de valores posibles para la expectativa posterior es:
$$\frac{s}{n + \kappa-1} \leqslant \mathbb{E}(\theta | \mathbb{x}) \leqslant \frac{s + \kappa-1}{n + \kappa-1}.$$
Lo importante aquí es que aunque empezamos con un modelo que era "desinformativo" con respecto al valor esperado del parámetro (la expectativa previa abarcaba todos los valores posibles), terminamos con inferencias posteriores que son informativas con respecto a la expectativa posterior del parámetro (ahora abarcan un conjunto más estrecho de valores). Como $n \rightarrow \infty$ esta gama de valores se reduce a un solo punto, que es el verdadero valor de $\theta$ .