4 votos

En una prueba de hipótesis bayesiana

Deje $X_1,...,X_n$ ser una muestra aleatoria y $\lambda >0$ ser un parámetro, con $X_i |\lambda \sim Poisson (\lambda)$ e $\lambda \sim Gamma(\alpha, \beta) (\lambda)=\dfrac {1}{\Gamma(\alpha) \beta^\alpha} \lambda ^{\alpha-1} e^{-\lambda / \beta}$.

Quiero encontrar a una Bayesiano de la prueba de hipótesis para $H_0 : \lambda \le \lambda_0$ contra $H_1: \lambda > \lambda_1$ .

Ahora sé que una regla simple es que aceptan $H_0 :$ Si $P(\lambda \le \lambda_0|Y=y) \ge P(\lambda > \lambda_0 | Y=y) $ .

Ahora $Y=\sum_{i=1}^n X_i$ es suficiente estadísticas , y la posterior pdf de $\lambda |Y=y$ es una constante (dependiendo $y$ , pero independiente de la $\lambda$ ) veces $\lambda ^{y+\alpha -1} e^{-n\lambda -\frac {\lambda}{ \beta}}$ , lo $\lambda|Y=y \sim Gamma (y+\alpha, \dfrac {\beta}{n\beta+1}), so $ $P(\lambda \le \lambda_0|Y=y) \ge P(\lambda > \lambda_0 | Y=y)$ es equivalente a decir

$\dfrac {1}{\Gamma (y+\alpha ) } \gamma (y+\alpha,n\lambda_0 +\frac {\lambda_0}{ \beta})\ge 1-\dfrac {1}{\Gamma (y+\alpha ) } \gamma (y+\alpha,n\lambda_0 +\frac {\lambda_0}{ \beta})$, por lo que

$\lambda_0 \ge $ promedio de $Gamma (y+\alpha, \dfrac {\beta}{n\beta+1}) $ .

Pero no sé qué hacer más. Estoy aún en la pista de la derecha ?

Por favor, ayudar .

3voto

Aaron Puntos 36

Su trabajo es correcto, pero su método tiene la desventaja de que se han establecido las probabilidades previas de su hipótesis de que los valores que se corrigen antes de su distribución para el parámetro. En Bayesiano de la prueba de hipótesis por lo general, quieren tener la libertad de variar las probabilidades previas de la hipótesis general (es decir, las clases de valores de los parámetros), manteniendo la forma de la distribución previa cuando acondicionado en particular hipótesis. Podemos hacer esto en el presente caso, mediante la formulación de la modelo más general:

$$\begin{equation} \begin{aligned} X_1,...,X_n | \lambda &\sim \text{IID Pois}(\lambda), \\[10pt] \pi(\lambda | H_0) &\propto \text{Ga}(\lambda|\alpha, \beta) \cdot \mathbb{I}(\lambda \leqslant \lambda_0), \\[10pt] \pi(\lambda | H_1) &\propto \text{Ga}(\lambda|\alpha, \beta) \cdot \mathbb{I}(\lambda > \lambda_0). \\[10pt] \end{aligned} \end{equation}$$

En este modelo generalizado podemos variar la probabilidad anterior $\phi = \pi(H_0)$ mientras que el mantenimiento de la gamma formulario para el valor del parámetro (trunca bajo cada una de las hipótesis, de modo que su apoyo es sólo a través de la clase de los parámetros de dicha hipótesis). Esto nos permite llevar a cabo la prueba de hipótesis para cualquier elegido antes de probabilidad de la hipótesis.


La aplicación generalizada de prueba de hipótesis: hipótesis Bayesiano de prueba generalmente se realiza mediante el cálculo de Bayes factor. Esto le permite encontrar la probabilidad posterior de la hipótesis en virtud de lo establecido en las probabilidades previas para los dos hipótesis en la prueba. En primer lugar vamos a confirmar su derivación de la probabilidad y la posterior. En este caso, usted tiene la probabilidad de la función:

$$L_{\mathbf{x}}(\lambda) \propto \prod_{i=1}^n \text{Pois}(x_i|\lambda) = \prod_{i=1}^n \frac{\lambda^{x_i}}{x_i!} \exp(-\lambda) \propto \lambda^{\sum x_i} \exp(-n\lambda).$$

La combinación de esta con el estado le da la (hipótesis condicional) las distribuciones posteriores:

$$\pi_n(\lambda|H_0) \propto \text{Ga}\Big( \lambda \Big| \alpha + \sum_{i=1}^n x_i, \frac{\beta}{1 + n \beta} \Big) \cdot \mathbb{I}(\lambda \leqslant \lambda_0),$$

$$\pi_n(\lambda|H_1) \propto \text{Ga}\Big( \lambda \Big| \alpha + \sum_{i=1}^n x_i, \frac{\beta}{1 + n \beta} \Big) \cdot \mathbb{I}(\lambda > \lambda_0).$$

Esto confirma que la derivación de la parte posterior es la correcta, a pesar de que han generalizado el modelo para permitir la variación de $\phi$ separadamente de $\alpha$ e $\beta$. A partir de aquí podemos obtener el factor de Bayes:

$$\begin{equation} \begin{aligned} BF(\mathbf{x}) &\equiv \frac{p(\mathbf{x}|H_1)}{p(\mathbf{x}|H_0)} \\[6pt] &= \frac{\int \pi_n(\lambda|H_1) \ d\lambda}{\int \pi_n(\lambda|H_0) \ d\lambda} \cdot \frac{\int \pi(\lambda|H_0) \ d\lambda}{\int \pi(\lambda|H_1) \ d\lambda} \\[6pt] &= \frac{\int_{\lambda_0}^\infty \pi_n(\lambda|H_1) \ d\lambda}{\int_0^{\lambda_0} \pi_n(\lambda|H_0) \ d\lambda} \cdot \frac{\int_0^{\lambda_0} \pi(\lambda|H_0) \ d\lambda}{\int_{\lambda_0}^\infty \pi(\lambda|H_1) \ d\lambda} \\[6pt] &= \frac{\Gamma(\alpha + \sum x_i)-\gamma(\alpha + \sum x_i, \beta \lambda_0 /(1+n\beta))}{\gamma(\alpha + \sum x_i, \beta \lambda_0 /(1+n\beta))} \cdot \frac{\gamma(\alpha, \beta \lambda_0)}{\Gamma(\alpha)-\gamma(\alpha, \beta \lambda_0)}. \\[6pt] \end{aligned} \end{equation}$$

Utilizando el factor de Bayes se tiene:

$$\frac{\mathbb{P}(H_1|\mathbf{x})}{\mathbb{P}(H_0|\mathbf{x})} = \frac{\mathbb{P}(H_1)}{\mathbb{P}(H_0)} \cdot BF(\mathbf{x}) = \frac{1-\phi}{\phi} \cdot BF(\mathbf{x}).$$

En el caso de que usted haya decidido rechazar $H_0$ si esta posterior ratio sea superior a un (es decir, si la alternativa tiene mayor probabilidad posterior de la nula), y que implícitamente han limitado el antes de probabilidad de la hipótesis nula a $\phi = \gamma(\alpha,\beta \lambda_0)/\Gamma(\alpha)$. La ventaja de expresar las cosas en la forma más generalizada es que podemos elegir cualquier probabilidad anterior $\phi$, independientemente de los otros parámetros del modelo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X