7 votos

La combinación de Variables aleatorias binomiales

(Descargo de responsabilidad: Esto no es una tarea cuestión). Estoy tratando de enseñar a mi mismo algunas elementales de probabilidad, y pensé en este siguiente ejemplo: Imagina que estás jugando a un juego de la participación de dos monedas. Con el fin de ganar el juego, debes voltear cabezas antes que tu oponente. Es decir, si no voltear cabezas primero se gana y se pierde. Supongamos también que el juego se juega en un giro basado en la moda y se están moviendo de un tirón la moneda de la primera. También, las monedas son "injusto" con $P(X=heads)|_{coin 1}=p_1$$P(X=heads)|_{coin 2} = p_2$.

Estoy seguro de cómo se calculan en promedio cuántas vueltas que nos ayudará a ganar el juego.

Hasta ahora, creo que podemos modelo de este juego con la siguiente función $P(X=k) = p_1(1-p_1)^{k-1}(1-p_2)^{k-1}$ (lo que parece muy similar a una distribución geométrica), porque en fin de ganar el juego (suponiendo que volcó colas primera) el oponente debe voltear colas con la probabilidad de $(1-p_2)$ o se pierde. Este patrón se repite para cada ronda del juego.

Creo que la probabilidad de ganar es igual a $\sum_{k=1}^{\inf}p_1(1-p_1)^{k-1}(1-p_2)^{k-1}$ y el número esperado de vueltas para ganar es dado por $\sum_{k=1}^{\inf}p_1(1-p_1)^{k-1}(1-p_2)^{k-1} k$.

Escribí una simulación de Monte Carlo para calcular estos valores con la asunción de los valores de $p_1$$p_2$, pero que no es satisfactorio para mí. Me gustaría saber cómo resolver este problema matemáticamente como contraposición a la programación.

Dos preguntas: 1) ¿Estoy en el camino correcto con la probabilidad de ganar y la previsión del número de vueltas para ganar? 2) Si es así, puede que me ayude en la solución de estas series infinitas. Sin duda, yo no soy grande con la resolución de la serie.

Edit: La pregunta ha sido respondida, pero quería publicar mi código por si a alguien le interesa. (Yo era originalmente el pensamiento acerca de este problema en términos de una batalla naval, así que por eso los comentarios y los nombres de las variables se denominan de esa manera).

from pylab import *
nSim = 100000
p_h1 = 0.5
p_h2 = 0.5
number_won = 0
total_shots = []
for i in range(nSim):
    won = False
    shots_fired = 0
    while not won:
        shots_fired += 1
        # simulate shot
        shot = rand(1)
        # if it hits, the game is over
        if shot <= p_h1:
            won = True
            number_won += 1
        # else, other player shoots
        else:
            shot = rand(1)
            if shot <= p_h2:
                won = True 
        total_shots.append(shots_fired)

print 'from monte carlo simulation:'
print 'P(win): ', float(number_won) / float(nSim)
print 'expected # of shots: ', np.array(total_shots).mean()

# testing
print 'from theory:'
denom = (1-p_h1)*(1-p_h2)
print 'P(win): ', p_h1 / (1 - denom)
pstar = (1 - (1-p_h1)*(1-p_h2))
print 'expected # of shots: ', 1. / pstar

y el resultado:

from monte carlo simulation:
P(win):  0.66706
expected # of shots:  1.33967131236
from theory:
P(win):  0.666666666667
expected # of shots:  1.33333333333

6voto

AdamSane Puntos 1825

[Me he puesto un poco de material sobre cómo la suma de progresiones geométricas y la expectativa de una geométricas variables aleatorias al final, esta respuesta depende de los resultados, pero está bastante bien conocidos, así que pensé que no empezar con ellos. Si alguno de los lectores no son, entonces pase a la final para ver una manera de sacarlos de allí. Vale la pena hacer algunas de esas sí mismo (sin mirar) para fijar la idea en su mente.]

Si usted asume el jugador 1 debe ganar, entonces usted necesita para trabajar probabilidades condicionales. Cuando la condición de jugador 1 la ganancia de sus cálculos son incorrectos.

$P(A|B) = \frac{P(AB)}{P(B)}$

$P(\text{a tirar }k\text{ jugador 1 gana}|\text{jugador 1 gana})= \frac{P(\text{jugador 1 gana en el sorteo }k)}{P(\text{jugador 1 gana})}$

$=\frac{p_1(1-p_1)^{k-1}(1-p_2)^{k-1}}{\sum_{j=1}^\infty p_1(1-p_1)^{j-1}(1-p_2)^{j-1}}$

Ahora vamos a salvarnos a nosotros mismos un poco de esfuerzo: Vamos a $1-p^*=(1-p_1)(1-p_2)$

$=\frac{p_1(1-p^*)^{k-1}}{p_1\sum_{j=1}^\infty (1-p^*)^{j-1}}$

$=\frac{p^*(1-p^*)^{k-1}}{p^*\sum_{j=1}^\infty (1-p^*)^{j-1}}$

Ahora el numerador es el pmf de una variable aleatoria geométrica y el denominador es la suma de ese geométricas pmf (suma 1):

$={p^*(1-p^*)^{k-1}}$

(con un poco de pensamiento se puede llegar a la misma respuesta directamente, sin ningún tipo de manipulación algebraica)

Ahora la esperanza condicional sale de inmediato a ser

$E(\text{number of tosses until player 1 wins}|\text{player 1 wins}))=\frac{1}{p^*}$


Suma de una serie geométrica:

$\qquad\qquad\quad\: S_0\:=\:p+p(1-p)+p(1-p)^2+p(1-p)^3+...$

$\qquad\:(1-p)S_0\:=\:\:\:\quad p(1-p)+p(1-p)^2+p(1-p)^3+...$

$(1-(1-p)) S_0=\:p+\quad\, 0\quad\:\: +\quad\: 0\qquad +\quad\: 0\qquad +...$

Por lo $pS_0=p$ o $S_0=1$.

Si usted necesita para ver cómo conseguir la expectativa de una forma geométrica($p$) variable aleatoria, podemos usar el mismo truco que sobre - escribir los términos en $S_1=\sum_{k=1}^\infty kp(1-p)^{k-1}$ uno por uno, y, a continuación, en virtud de que escribir los términos en $(1-p)S_1$, pero cambia de manera que el segundo conjunto de términos que se han desplazado a la derecha.

A continuación, tome las diferencias término por término, y esta vez te deja con una serie geométrica (en lugar de un valor único y totalmente cancelado términos), pero ya sabemos cómo de la suma de la serie geométrica, la hicimos con $S_0$ por encima.

2voto

Dilip Sarwate Puntos 16161

Vamos a definir una ronda de lanzamientos como dos tiros; el primero de la sacudida por Una que tira una moneda con $P(\text{Heads}) = p_1$ y el segundo sorteo por B que arroja una moneda con $P(\text{Heads}) = p_2$.

Los resultados de una ronda y las probabilidades correspondientes son $$\begin{matrix} HH & &p_1p_2\\ HT & &p_1(1-p_2)\\ TH & &(1-p_1)p_2\\ TT & &(1-p_1)(1-p_2) \end{de la matriz}$$ donde, si uno de los dos primeros resultados se produce, Una gana (con una probabilidad de $p_1$); de hecho, no importa en la menos si B arroja una moneda a todos Una vez que ha sacudido la Cabeza. Llame a este evento $\mathcal A$ Si el tercer resultado $TH$ se produce, B gana (con una probabilidad de $(1-p_1)p_2 = p_2 - p_1p_2$; llamamos a esto $\mathcal B$. Si el cuarto resultado $TT$ ocurre, nadie gana, y una nueva ronda que se inicia. Este es evento $\mathcal C$. Por lo tanto, uno de los tres (discontinuo) eventos $\mathcal{A, B, C}$ puede ocurrir en una ronda. El juego termina en una ronda con una probabilidad de $p^* = p_1 + p_2 - p_1p_2$ y continúa para la próxima ronda con una probabilidad de $1-p^*$.

Gana el juego si los resultados de las rondas de cualquiera de los tras distinto, secuencias de eventos: \begin{align} &\mathcal{A}\\&\mathcal{CA}\\&\mathcal{CCA}\\&\mathcal{CCCA}\\ &\quad\vdots\\&\mathcal{C}^{k-1}\mathcal{A}\\&\quad\vdots \end{align} Por lo tanto, $$P(\mathcal A) = p_1 + (1-p^*)p_1 + (1-p^*)^2p_1 + \cdots = \frac{p_1}{p^*}$$ y del mismo modo, \begin{align}P(\mathcal B) &= (1-p_1)p_2 + (1-p^*)(1-p_1)p_2 + (1-p^*)^2(1-p_1)p_2 + \cdots \\ &= \frac{(1-p_1)p_2}{p^*} \\ &= \frac{p^*-p_1}{p^*}\\ &= 1-P(\mathcal A).\end{align}

Tenga en cuenta que condicionado en el caso de que el juego terminó en la ronda de bajo consideración, las probabilidades de los jugadores ganar $$P(\text{gana}) = \frac{p_1}{p_1 + p_2 - p_1p_2} = \frac{p_1}{p^*}, \quad P(\text{B gana a}) = \frac{p_2 - p_1p_2}{p_1 + p_2 - p_1p_2} = \frac{p^*-p_1}{p^*}.$$ Estos son los mismos que los incondicional las probabilidades de $\mathcal A$ $\mathcal B$

Deje $X$ denotar el número de rondas hasta que el juego termina. $X$ también indica el número de veces que el ganador de la juego de lanzamientos de la moneda. A continuación, $X$ es una variable aleatoria geométrica con parámetro $p^* = p_1 + p_2 - p_1p_2$. Pero, el párrafo anterior muestra que acondicionado en la ocurrencia del evento $\{X = k\}$, el condicional probabilidad de $\mathcal A$ es el mismo que el incondicional de la probabilidad, que es, _for cada una de las $k, k =1,2,3,\ldots$, el evento $\{X = k\}$ y en el caso de $\mathcal A$ son mutuamente eventos independientes. De hecho, la variable aleatoria $X$ es independiente del evento $\mathcal A$. Ahora, se espera que el valor de $X$ es \begin{align} E[X] &= 1\cdot p^* + 2\cdot (1-p^*)p^* + 3\cdot (1-p^*)^2p^* + \cdots\\ &= p^*\left[1 + 2\cdot (1-p^*) + 3\cdot (1-p^*)^2 + \cdots \right]\\ &= p^* \cdot \frac{1}{(1-(1-p^*))^2}\\ &= p^* \cdot \frac{1}{(p^*)^2}\\ &= \frac{1}{p^*} = \frac{1}{p_1 + p_2 - p_1p_2} \end{align} y este valor esperado es supremamente indiferente a la ocurrencia o no-ocurrencia de $\mathcal A$. En definitiva, el número esperado de lanzamientos cuando gana el juego es $\frac{1}{p^*}$ que es el mismo que el número esperado de lanzamientos cuando B gana el juego.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X