6 votos

una pregunta relacionada con dos patrones que compiten en lanzar moneda

Si tengo una moneda de dos caras con probabilidad $p$ que demuestra la cabeza. Varias veces mezcle aparezca HTHTH o HTHH. Puede calcular

1) la probabilidad cuando llegué HTHTH, y

¿2) el valor esperado del número de lanzamientos antes de dejar de?

Gracias.

9voto

Martin OConnor Puntos 116

Deje $q$ la probabilidad de que las colas. A continuación, las respuestas son

$$1) \frac{q}{1+q}$$

$$2) \frac{1+pq+p^2q+p^2q^2}{p^3q(1+q)}.$$

Las ideas y notación en la siguiente derivación son cortesía de la Sección 8.4 ("tirar Monedas") de Concreto de las Matemáticas. Ver que la sección para obtener más detalles y ejemplos.

Imaginar esto como una competición en la que Un Jugador gana si HTHTH aparece primero y el Jugador B gana si HTHH aparece en primer lugar. Deje $S_A$ $S_B$ denotar la suma de la ganancia de secuencias de lanzamientos para HTHTH y HTHH, respectivamente. (Esta es la sobrecarga del operador de suma, pero funciona.) Deje $N$ denotar la suma de las secuencias en las que ni HTHTH ni HTHH ha ocurrido todavía. ($N$ incluye la secuencia vacía.) Por lo tanto $$S_A = \text{HTHTH + THTHTH + HHTHTH + TTHTHTH + THHTHTH + HHHTHTH} + \cdots,$$ $$S_B = \text{HTHH + THTHH + HHTHH + TTHTHH + THHTHH + HHHTHH} + \cdots,$$ $$N = \text{1 + H + T + HH + HT + TH + TT} + \cdots.$$

Entonces, sustituyendo $p$ H y $q$ para T, $S_A$, $S_B$, y $N$ convertido en la probabilidad de que $A$ gana, la probabilidad de que $B$ gana, y el número esperado de lanzamientos hasta que el juego termina, respectivamente. Las dos primeras afirmaciones son sencillas. La tercera se deduce del hecho de que si $X$ es una variable aleatoria no negativa, a continuación, $E[X] = \sum_{k=0}^{\infty} P(X > k).$

Como las sumas de las secuencias, también tenemos $$N \text{ HTHTH} = S_A + S_A \text{ TH} + S_A \text{ THTH} + S_B \text{ THTH},$$ $$N \text{ HTHH} = S_A \text{ H} + S_A \text{ THH} + S_B + S_B \text{ THH}.$$

La idea detrás de la primera ecuación es que las secuencias de lanzamientos obtenido añadiendo HTHTH a $N$ debe ser una secuencia de ganar tira para $A$ o $B$ y posiblemente algunos extra lanzamientos. En particular, cada secuencia $N$ HTHTH debe ser exactamente uno de 1) una ganancia de secuencia para $A$, 2) una ganancia de secuencia para$A$, seguido por TH, 3) la ganancia de la secuencia de $A$, seguido por YA, o 4) una ganancia de secuencia para$B$, seguido por YA. Estas son todas las posibilidades, ya que representan todas las formas en que parte de la secuencia HTHTH puede empezar (es decir, se superponen) otra ocurrencia de HTHTH o (4) en el que HTHH puede comenzar una aparición de HTHTH. La idea detrás de la segunda ecuación es similar.

Entonces, sustituyendo $p$ H y $q$ T tenemos $$N p^3q^2 = S_A + S_A pq + S_A p^2q^2 + S_B p^2q^2,$$ $$N p^3q = S_A p + S_A p^2 q + S_B + S_B p^2q.$$

Para resolver simultáneamente estas dos ecuaciones con $S_A + S_B = 1$ rendimientos $$S_A = \frac{q}{1+q},$$ $$S_B = \frac{1}{1+q},$$ $$N = \frac{1+pq+p^2q+p^2q^2}{p^3q(1+q)}.$$


Actualización, en respuesta a la OP de la pregunta en los comentarios: ¿por Qué la sustitución de $p$ H y $q$ T y el hecho de que $E[X] = \sum_{k=0}^{\infty} P(X > k)$ para una variable aleatoria no negativa significa que $N$ es el número esperado de lanzamientos hasta que el juego termina?

Deje $X$ el número de lanzamientos hasta que el juego termina. $P(X > 0)$ está a sólo 1. $P(X > 1)$ es la probabilidad de que no hemos visto uno de los patrones, pero con una sola tirada; es decir, H + T, con $p$ subbed en H y $q$ para T. $P(X > 2)$ es la probabilidad de que no hemos visto uno de los patrones, pero con dos tiros, que es HH + HT + TH + TT, con $p$ subbed en H y $q$ para T. $P(X > 3)$ es..., etc. Esa no es muy interesante, hasta que nos fijamos en $P(X > 4)$, lo que incluiría a todos los cuatro secuencias de longitud de H y T, excepto para HTHH. La adición de todas aquellas secuencias en las que ni HTHH ni HTHTH ha ocurrido todavía es exactamente $N$, y subbing en $p$ H y $q$ T en $N$ da $E[X]$.

Véase también la solución del Problema 8.21 en Concreto de las Matemáticas, p. 578 (segunda edición).

7voto

Did Puntos 1

Existe una relación directa, y de forma bastante automática, para calcular la probabilidad de golpear A=HTHTH primer lugar de B=HTHH.

Ambos motivos comenzar por HTH por lo tanto, uno puede esperar hasta HTH aparece por primera vez. Entonces, (1) la siguiente letra H, o (2) los dos siguientes letras son de TH, o (3) las dos siguientes letras son TT. Si (1) si ocurre a, B ganó. Si (2) sucede, Un ganado. Si (3) ocurre, uno tiene que esperar para obtener más cartas para saber quién ganó. El hecho importante en el caso de (3) es que, desde la última de las cartas son TT, a o B debe ser producida enteramente nuevo.

Por lo tanto, $p_B=p_1+p_3p_B$ $p_A=p_2+p_3p_A$ donde $p_i$ $i=$ 1, 2 y 3, es una abreviación de la probabilidad condicional de que (a$i$) ocurre a partir de la palabra HTH. Desde $p_1=p$, $p_2=qp$ y $p_3=q^2$, se pone en $p_B=p_1/(1-p_3)=p/(1-q^2)$, por lo tanto $$ p_B=1/(1+q),\quad p_A=q/(1+q). $$ Del mismo modo, un estándar, y de forma bastante automática, para calcular la media del número de lanzamientos antes de que esto suceda es considerar una cadena de Markov en el espacio de estado hizo de los prefijos de las palabras que uno desea completar.

Aquí, los estados son 0 (sin prefijo), 1=alto, 2=HT, 3=HTH, B=HTHH, 4=HTHT y=HTHTH. Las transiciones de 0 a 1 y 0, de 1 a 2 y 1, de 2 a 3 y 0, de los 3 a B y 4 y de 4 a y 0. La transición de la B y de a son irrelevantes. El siguiente paso es calcular los $n_s$ el número de lanzamientos necesarios para producir Un o B a partir de cualquier estado $s$ entre 0, 1, 2, 3 y 4, el saber que uno es, de hecho, sólo interesado en $n_0$.

El $n_s$ son soluciones de un sistema de Cramér que refleja la estructura de la base de la cadena de Markov: $$ n_0=1+pn_1+qn_0,\quad n_1=1+pn_1+qn_2,\quad n_2=1+pn_3+qn_0, $$ $$ n_3=1+qn_4,\quad n_4=1+qn_0. $$ Resolviendo este sistema de ecuaciones al revés, es decir, ir desde la última ecuación de vuelta a la primera, los rendimientos de $n_3$ en términos de$n_0$, $n_2$ en términos de$n_0$, $n_1$ en términos de $n_0$, y finalmente una ecuación para $n_0$ solo, que los rendimientos de Mike con la fórmula de la $n_0$, a saber: $$ n_0=\frac{1+pq+p^2q+p^2c^2}{p^3t(1+q)}. $$ Accesible referencia para estas técnicas (en el contexto del análisis de la secuencia genómica) es el libro de ADN, las Palabras y los Modelos de Robin, Rodolphe y Schbath, en Cambridge.

-2voto

Fionnuala Puntos 67259

Asumir que las sacudidas de la moneda es infinita. Definir el estado en tiempo $n$ que los resultados más recientes de $5$ cuando $n \geq 5$ y los resultados más recientes de la $n$ cuando $n <5$. Esto es una cadena de Markov. Ahora es igual al inverso del tiempo medio para pasar de estado HTHTH a HTHTH $\pi_{HTHTH}$(the limiting probability). Así $\pi_{HTHTH} = p^{3}q^2$ (probabilidad de conseguir HTHTH) donde $q=1-p$. Así $1/(p^{3}q^2)$ es el tiempo promedio para ir de HTHTH a HTHTH. Thus $$E(\text{time to get} \ HTHTH) = E(\text{time to get} \ HT)+ \frac{1}{p^{3}q^{2}}$$ $$= E(\text{time to get} \ H)+ \frac{1}{pq}+\frac{1}{p^{3}q^{2}} = \frac{1}{p}+\frac{1}{pq}+\frac{1}{p^{3}q^{2}}$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X