2 votos

Halla la probabilidad de una cara de un dado cargado.

Tengo un dado, para el que todas las caras tienen la misma probabilidad, excepto una cara. Sé de antemano qué cara es diferente, digamos que es el 6. Mi objetivo es encontrar la probabilidad de esa cara lanzando el dado $n$ veces y contando cuántas veces cae sobre la cara cargada.

Supongamos que tiro el dado $n = 1000$ veces y aterrizó $k = 250$ veces en el 6. La respuesta obvia sería que la probabilidad de caer en el 6 es $\frac{k}{n} = \frac{1}{4}$ . Pero la probabilidad real ( $\frac{k}{n}$ después de infinitos lanzamientos) podría ser diferente. También podría ser sólo $\frac{1}{8}$ pero en este caso tuve mucha suerte y el dado cayó 250 de cada 1000 veces en el 6. Sin embargo, esto sería extremadamente improbable, pero ¿cómo de improbable? ¿Cómo calcular la probabilidad, que x% es la probabilidad real del dado? Me gustaría tener una función f(x) = probabilidad de que x sea la probabilidad real del dado con los parámetros $n$ y $k$ . Creo que el máximo de esta función debe estar en $\frac{k}{n}$ pero no estoy seguro de cómo sería exactamente la función.

Además, me gustaría dar límites superior e inferior de la probabilidad después de $n$ lanzamientos. Sé que es técnicamente imposible ya que el dado podría caer $k$ veces sobre el 6 sin importar cuál sea la probabilidad real (excepto si es 0% o 100%). Sin embargo, podría establecer los límites de forma que ignoren los sucesos extremadamente improbables. Así, quiero decir que la probabilidad real del dado está entre a% y b%, con una probabilidad de c%. Creo que esto se puede resolver utilizando integrales, pero ¿cómo?

0 votos

$\frac kn$ es la máxima verosimilitud y, por tanto, la "mejor estimación" de $p$ . Sin embargo, las estimaciones de probabilidad que usted desea requerirían una distribución a priori. por ejemplo, si sacamos el dado de una bolsa con un espécimen cada uno para $p=0.1$ , $p=0.2$ , $\ldots$ , $p=0.9$ la respuesta sería diferente de una situación en la que la bolsa contuviera $k$ muestra para $p=\frac k{100}$ , $k=1,\ldots, 99$ . En ausencia de cualquier otra orientación, tal vez queramos suponer que $p$ se distribuye uniformemente en $[0,1]$ ?

0 votos

Suponiendo una distribución uniforme a priori de $p$ digamos que tienes $k$ aterriza en $6$ de un total de $n$ lo intenta. Entonces, la probabilidad de que el "aterrizaje 6" caiga entre $a$ y $b$ es $(\int_{a}^{b} p^k(1-p)^{n-k} dp)/\binom{n}{k} $

1voto

BruceET Puntos 7117

El número $X$ de 6 en su experimento con $n=1000$ rollos sería una variable aleatoria binomial con $X \sim \mathsf{Binom}(100, p),$ donde $p$ es la probabilidad de la cara cargada 6.

Utilizando un enfoque frecuentista, podría utilizar esta información para hacer un intervalo de confianza de Wald del 95% para $p$ de la forma $\hat p \pm 1.96\sqrt{\frac{\hat p(1-\hat p)}{1000}},$ donde $\hat p = X/n = 250/1000 = 0.25,$ como tú dices. Usando R, esto se calcula en el intervalo $(0.223, 0.277).$ El Wald no da buenos resultados para $n,$ pero para $n = 1000,$ da una buena estimación de intervalo de la probabilidad $p$ de la cara cargada.

n = 1000;  x = 250
p.hat = x/n
CI = p.hat + qnorm(c(.025,.975))*sqrt(p.hat*(1-p.hat)/n)
CI
[1] 0.2231621 0.2768379

Adoptando el enfoque bayesiano sugerido en el comentario de @user3257842, se tendría la distribución a priori $\mathsf{Unif}(0,1) \equiv \mathsf{Beta}(1,1).$ Su función de verosimilitud binomial sería proporcional a $p^{250}(1-p)^{750}.$

Entonces, por el Teorema de Bayes, la distribución posterior de $p$ tendría una función de densidad proporcional al producto de la distribución a priori beta anterior y la función de verosimilitud binomial binomial. Afortunadamente, estas dos funciones son matemáticamente compatibles (el término técnico es "conjugadas"), por lo que es fácil ver que la función de densidad posterior es proporcional a $p^{1+250-1}(1-p)^{1+750 - 1},$ que coincide con el forma de la función $\mathsf{Beta}(251,751)$ función de densidad. A continuación, se obtiene una estimación del intervalo posterior del 95% (también denominada bayesiano intervalo creíble bayesiano") es $(0.224, 0.278)$ como se muestra a continuación en R.

qbeta(c(.025,.975), 251, 751)
[1] 0.2241639 0.2777775

A diferencia del intervalo de confianza frecuentista, el intervalo creíble bayesiano bayesiano puede interpretarse de forma que se aplique directamente a su dado sesgado ---siempre que creas que la distribución a priori es razonable. Afortunadamente, con $n=1000$ tiradas del dado tienes tanto datos que la influencia del previo uniforme en el resultado final es pequeña.

Notes : (1) Si no está familiarizado con las distribuciones beta, vea si puede encontrarlas en un libro de texto. También puede consultar la página Wikipedia sobre distribuciones beta.

(2) Hay muchos estilos de intervalos de confianza frecuentista para la probabilidad de éxito binomial. Véase la página de Wikipedia sobre intervalos de confianza binomiales.

(2) Entre los intervalos frecuentistas de (1) se encuentra el intervalo de Jeffreys, que se deriva de un argumento bayesiano a partir de la prioridad de Jeffreys de Jeffreys $\mathsf{Beta}(.5,.5).$ El intervalo de Jeffreys del 95% para sus datos (ya sea interpretado como un intervalo de confianza frecuentista o como un intervalo bayesiano) es $(0.224, 0.278)$ (redondeado a tres cifras). Por razones técnicas, muchos bayesianos prefieren utilizar $\mathsf{Beta}(.5,.5)$ en lugar de $\mathsf{Beta}(1,1)$ como una distribución a priori "no informativa" (en ausencia de datos previos o de una opinión personal sólida).

qbeta(c(.025,.975), 250.5, 750.5)
[1] 0.2239111 0.2775336

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X