4 votos

Prueba de hipótesis bayesiana con lanzamiento de moneda justa

Bayesiano problema de prueba de hipótesis binaria en igualdad de prejuicios y asignación de costes uniforme (es decir, $c_{ij}=1$ para $i \neq j$ De lo contrario, $0$ ):

Bajo la hipótesis $\mathrm{H}_0$ la observación $Y$ se distribuye con $p_0(y)$ . Bajo la hipótesis $\mathrm{H}_1$ Primero se lanza una moneda justa y si sale cruz, $Y$ se distribuye con $p_{11}(y)$ y si es cabeza, se distribuye con $p_{12}(y)$ .

Creo que esta pregunta representa el caso en el que una simple hipótesis ( $\mathrm{H}_0$ ) se compara con una hipótesis compuesta ( $\mathrm{H}_1$ ). Para resolver esta cuestión, no puedo limitarme a utilizar la prueba de la razón de verosimilitud: $$\displaystyle\frac{p_0(y)}{p_1(y)}$$ desde $p_1(y)$ no es una distribución única.Además, sé que existe una versión generalizada de la prueba de la proporción como (siempre que la asignación de costes uniforme sea válida): $$\frac{P(y|\Theta \in \Lambda_1)}{P(y|\Theta \in \Lambda_0)}$$ donde $\Theta$ representa las diferentes distribuciones que $Y$ puede tener bajo cada hipótesis.

Lo que creo que podría ser la solución es: En $\mathrm{H}_0$ , $P(y|\Theta \in \Lambda_0)$ se reduce a $p_0(y)$ . Pero estoy atascado en la evaluación de $P(y|\Theta \in \Lambda_1)$ . Creo que de alguna manera tengo que encontrar una relación entre $\Lambda_0$ y $\Lambda_1$ . Sin embargo, no sé cómo puedo hacerlo. Cualquier ayuda será apreciada. Gracias de antemano.

Por cierto, si mi notación es confusa y si algún punto no está claro, haré lo posible por aclararlo.

2voto

Aaron Puntos 36

Uno de los problemas aquí es que se está utilizando una notación demasiado complicada para la cuestión que se está considerando. Esto hace que un problema de inferencia muy simple parezca mucho más complejo de lo que es, y pone a prueba al lector haciéndole interpretar grandes cantidades de notación innecesaria. En particular, dado que sólo hay dos hipótesis subyacentes en consideración, el parámetro a priori puede representarse fácilmente como una simple variable binaria, y la distribución a priori para este parámetro puede escribirse como una única probabilidad para uno de sus resultados.


Para replantear las cosas de forma más sencilla, dejemos que $\theta \in \{ 0, 1 \}$ denotan el verdadero parámetro subyacente de interés, determinando el muestreo de las distribuciones. Se tiene entonces el modelo de muestreo:

$$\begin{aligned} p(y | \theta = 0) &= p_0(y), \\[6pt] p(y | \theta = 1) &= p_1(y) = \tfrac{1}{2} \cdot p_{11}(y) + \tfrac{1}{2} \cdot p_{12}(y). \\[6pt] \end{aligned}$$

(Como Xi'an ha señalado en los comentarios, la distribución $p_1$ no es compuesta, sino que es una simple distribución de mezcla determinada por el lanzamiento de una moneda). Sea $\omega \equiv \mathbb{P}(\theta = 1)$ para que la distribución a priori sea:

$$\pi(\theta) = \text{Bern}(\theta|\omega) = \omega^\theta (1-\omega)^{1-\theta}.$$

La correspondiente distribución posterior tiene probabilidades:

$$\begin{aligned} \pi(\theta=0|y) &= \frac{\pi(0) \ p(y | \theta=0)}{p(y)} \\[6pt] &= \frac{\pi(0) \ p(y | \theta=0)}{\pi(0) \ p(y | \theta = 0) + \pi(1) \ p(y | \theta = 1)} \\[6pt] &= \frac{(1-\omega) \ p_0(y)}{(1-\omega) \ p_0(y) + \omega \ (\tfrac{1}{2} \cdot p_{11}(y) + \tfrac{1}{2} p_{12}(y))}, \\[12pt] \pi(\theta=1|y) &= \frac{\pi(1) \ p(y | \theta=1)}{p(y)} \\[6pt] &= \frac{\pi(1) \ p(y | \theta=1)}{\pi(0) \ p(y | \theta = 0) + \pi(1) \ p(y | \theta = 1)} \\[6pt] &= \frac{\omega \ (\tfrac{1}{2} \cdot p_{11}(y) + \tfrac{1}{2} p_{12}(y))}{(1-\omega) \ p_0(y) + \omega \ (\tfrac{1}{2} \cdot p_{11}(y) + \tfrac{1}{2} p_{12}(y))}. \\[6pt] \end{aligned}$$

Como puede ver, esto simplifica significativamente la notación para el modelo, y hace mucho más fácil ver las distribuciones en juego. Le recomiendo que proceda con una notación más sencilla como ésta. Entonces será trivial derivar el factor de Bayes para la prueba, y cualquier otra probabilidad asociada de interés.

0voto

Sindhudweep Puntos 454

Siguiendo el comentario de @Xi'an, creo que he encontrado la solución. $w(\Theta \in \Lambda)$ sea la distribución a priori de $\Theta$ . $P(y|\Theta \in \Lambda_0)=w(\Theta \in \Lambda_0).p_0(y)$ donde $w(\Theta \in \Lambda_0) = 1$ ya que es una hipótesis simple y sólo hay una distribución. Del mismo modo, $P(y|\Theta \in \Lambda_1)=\sum_{i=1}^2 w(\Theta \in \Lambda_1).p_{1i}(y)$ donde $\Theta$ es una variable aleatoria Bernoulli con $p=1/2$ . Por lo tanto, $P(y|\Theta \in \Lambda_1)=0.5p_{11}(y)+0.5p_{12}(y)$ . ¡Gracias por la ayuda de nuevo!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X