5 votos

Extensión del Teorema de Bayes ejemplo de lanzamiento de monedas - encontrar una moneda justa en una bolsa de monedas sesgadas

Hay un ejemplo bastante común del Teorema de Bayes en el que se extrae una moneda de una población con una cantidad conocida de monedas sesgadas y monedas justas. Se extrae una moneda, se lanza una cierta cantidad de veces y, a continuación, se desafía a determinar la probabilidad de que la moneda lanzada esté sesgada, lo que da lugar a una aplicación estándar del Teorema de Bayes.

Estaba pensando en una extensión de esta pregunta, donde el objetivo es encontrar una moneda justa extraída de una población.

Como ejemplo concreto, supongamos que tenemos $N$ monedas, de las cuales $n$ son monedas justas y el resto siempre saldrá cara. Nuestro objetivo entonces es esencialmente lanzar una cruz para saber que tenemos una moneda justa. De antemano decidimos después $m$ Si una moneda individual sale cara, sacaremos una nueva moneda.

¿Cómo abordaría el problema de calcular cuántas monedas tendría que sacar antes de alcanzar un determinado umbral de probabilidad? $p$ de haber lanzado una cruz en algún momento?

En este caso el Teorema de Bayes nos dice que la probabilidad de que la primera moneda elegida al azar esté sesgada después de $m$ cabezas está dada por:

$$\frac{\frac{N-n}{N}}{\frac{N-n}{N}+\frac{1}{2}^m*\frac{n}{N}}$$

Mi idea inicial era plantear el problema en la línea de "cuántos lanzamientos de moneda necesito para tener una probabilidad $p$ de haber lanzado un cara o cruz" y usar el Teorema de Bayes entre cada lanzamiento, pero los ejemplos de esas preguntas que he encontrado requieren eventos mutuamente independientes, así que no creo que se aplique a este problema.

Además, ¿la cuestión de encontrar un "óptimo" $m$ estar relacionado con el tiempo de parada?

editar : Después de volver a esta pregunta con la mente fresca, tuve la idea de que en el caso de que sólo haya una moneda justa (es decir $n=1$ ) entonces podríamos decir que la probabilidad de que volteemos $i$ monedas y no ver una cola sería:

$$\frac{i}{N}*\frac{1}{2}^m+\frac{N-i}{N}$$

que calcularía la probabilidad de que la moneda justa estuviera en la primera $i$ monedas extraídas y que fue volteado $m$ veces sin ver una cruz, y añadir eso a la probabilidad de que la moneda justa no haya sido extraída todavía. Si esto es válido, entonces creo que veo cómo extenderlo a $n$ monedas justas (sumando sobre las diferentes cantidades de monedas justas posiblemente extraídas), así como la forma de extenderlo a los lanzamientos individuales, pero también me preocupa que esté violando alguna suposición en la probabilidad e intuyendo algo incorrectamente. ¿Funcionaría esto?

1voto

John L Puntos 241

Comience con $N$ monedas de las cuales $n$ son justos y $N-n$ siempre muestran cabezas.
Dibujar $k$ moneda al azar y lanzar cada una de ellas $m$ tiempos.
La probabilidad de no obtener ninguna cola es:
$$\sum_{i=0}^k P[\text{draw exactly } i \text{ fair coins}]\times \left(0.5^m\right)^i=\sum_{i=0}^k \frac{{n\choose i}{{{N-n}\choose {k-i}}}}{N \choose k}\times \left(0.5^m\right)^i$$
Ahora, encuentra el más pequeño $k$ que hace que esta probabilidad sea menor o igual a $1-p$ . Entonces, la probabilidad de ver al menos una cola será como mínimo $p$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X