Nota. La siguiente respuesta utiliza la misma metodología que la respuesta líder aceptada. Es autocontenida, incluye código de Maple y algunos elementos asintóticos. Quizás pueda servir como un propósito didáctico y mostrar que la computación básica es muy simple.
Con $z$ para éxitos y $w$ para fracasos obtenemos la función generadora
$$\left(1+z+\cdots+u\frac{z^m}{1-z}\right) \left(\sum_{q\ge 0} \frac{w^q}{(1-w)^q} \left(z+\cdots+u\frac{z^m}{1-z}\right)^q \right)\frac{1}{1-w}.$$
Ahora, como prueba de cordura, cuando ponemos $w=z$ y $u=1$ deberíamos obtener todas las cadenas binarias. Haciendo el cálculo encontramos
$$\frac{1}{1-z} \frac{1}{1-wz/(1-w)/(1-z)} \frac{1}{1-w} \\ = \frac{1}{(1-w)(1-z)-wz} = \frac{1}{1-w-z}.$$
Poniendo $z=w$ obtenemos
$$\frac{1}{(1-z)^2} \frac{1}{1-z^2/(1-z)^2} = \frac{1}{(1-z)^2-z^2} = \frac{1}{1-2z}$$
y la prueba de cordura se cumple.
Para las probabilidades, debemos restar el valor para $u=0$ de la función generadora y luego establecer $u=1$. Obtenemos para el término cero
$$\frac{1-z^m}{1-z} \left(\sum_{q\ge 0} \frac{w^q}{(1-w)^q} z^q \frac{(1-z^{m-1})^q}{(1-z)^q}\right) \frac{1}{1-w} \\ = \frac{1-z^m}{1-z} \frac{1}{1-wz(1-z^{m-1})/(1-w)/(1-z)} \frac{1}{1-w} = \frac{1-z^m}{(1-w)(1-z)-wz(1-z^{m-1})} = \frac{1-z^m}{1-w-z+wz^{m}}.$$
Para obtener las probabilidades, establecemos $z=pv$ y $w=(1-p)v$ para obtener el término uno
$$\frac{1}{1-w-z} = \frac{1}{1-(1-p)v-pv} = \frac{1}{1-v}$$
entonces $$[v^n] \frac{1}{1-v} = 1.$$
La contribución restada del término cero es
$$\frac{1- p^m v^m}{1-v+(1-p)p^m v^{m+1}}.$$
Ahora, para la extracción de coeficientes, escribimos
$$[v^Q] \frac{1}{1-v+(1-p)p^m v^{m+1}} \\ = [v^Q] \sum_{q\ge 0} (v-(1-p)p^m v^{m+1})^q \\ = [v^Q] \sum_{q\ge 0} \sum_{r=0}^q {q\choose r} v^{q-r} (-1)^r (1-p)^r p^{mr} v^{(m+1)r}. \\ = [v^Q] \sum_{q\ge 0} \sum_{r=0}^q {q\choose r} v^{mr+q} (-1)^r (1-p)^r p^{mr} \\ = \sum_{r=0}^{\lfloor Q/m\rfloor} {Q-mr\choose r} (-1)^r (1-p)^r p^{mr}.$$
Por lo tanto, obtenemos la forma cerrada
$$\bbox[5px,border:2px solid #00A000]{ 1 - a_N + p^m a_{N-m} \quad \text{donde} \quad a_Q = \sum_{r=0}^{\lfloor Q/m\rfloor} {Q-mr\choose r} (-1)^r (1-p)^r p^{mr}.}$$
Nota que para $N\lt m$ obtenemos
$$1- {N\choose 0} \times 1 \times 1\times 1 = 0$$
que es el resultado correcto. También para $N=m$ obtenemos
$$1 - 1 - {0\choose 1} \times -1 \times (1-p) \times p^m + p^m \times 1 = p^m $$
lo cual también es correcto.
Ahora, para un análisis asintótico, notamos que la raíz $\rho$ con el módulo más pequeño de $1-v+(1-p)p^m v^{m+1}$ es aquella cercana a $v_0=1$ y obtenemos de Newton-Raphson la primera aproximación
$$v_1 = v_0 - \frac{1-v_0 + (1-p)p^m v_0^{m+1}}{-1+(m+1)(1-p)p^m v_0^{m}}.$$
Esto resulta en
$$1+ \frac{(1-p)p^m}{1-(m+1)(1-p)p^m} = \frac{1-m(1-p)p^m}{1-(m+1)(1-p)p^m} = \rho.$$
El término correspondiente de la descomposición en fracciones parciales es
$$\frac{1}{v-\rho} \mathrm{Res}_{v=\rho} \frac{1}{1-v+(1-p)p^m v^{m+1}} \\ = \frac{1}{v-\rho} \times \left.\frac{1}{-1+(m+1)(1-p)p^m v^{m}}\right|_{v=\rho} \\ = - \frac{1}{\rho} \frac{1}{1-v/\rho} \frac{1}{-1+(m+1)(1-p)p^m \rho^{m}}.$$
Por lo tanto, obtenemos
$$\bbox[5px,border:2px solid #00A000]{ a_Q \sim \frac{1}{\rho^{Q+1}} \frac{1}{1-(m+1)(1-p)p^m \rho^{m}}.}$$
Podemos reemplazar $\rho$ por una mejor aproximación de Newton-Raphson en un contexto donde se requieren cálculos numéricos, lo cual se hace en el código de muestra que sigue.
MRUNPROB :=
proc(N, m)
option remember;
local ind, d, pos, cur, run, runs, prob,
zcnt, wcnt;
prob := 0;
for ind from 2^N to 2\*2^N-1 do
d := convert(ind, base, 2);
cur := -1; pos := 1;
run := \[\]; runs := \[\];
while pos <= N do
if d\[pos\] <> cur then
if nops(run) > 0 then
runs :=
\[op(runs), \[run\[1\], nops(run)\]\];
fi;
cur := d\[pos\];
run := \[cur\];
else
run := \[op(run), cur\];
fi;
pos := pos + 1;
od;
runs := \[op(runs), \[run\[1\], nops(run)\]\];
if nops(select(r -> (r\[1\] = 1 and r\[2\] >= m), runs)) > 0
then
wcnt := add(\`if\`(r\[1\] = 0, r\[2\], 0), r in runs);
zcnt := add(\`if\`(r\[1\] = 1, r\[2\], 0), r in runs);
prob := prob + p^zcnt \* (1-p)^wcnt;
fi;
od;
expand(prob);
end;
V1 :=
proc(N, m)
option remember;
local gf;
gf := (1-p^m\*v^m)/(1-v+(1-p)\*p^m\*v^(m+1));
expand(1-coeftayl(gf, v=0, N));
end;
a := (Q, m) ->
add(binomial(Q-m\*r,r)\*(-1)^r\*(1-p)^r\*p^(m\*r),
r = 0 .. floor(Q/m));
V2 :=
proc(N, m)
option remember;
expand(1-a(N,m)+p^m\*a(N-m,m));
end;
a2 :=
proc(Q, m)
local rho;
rho := (1-m\*(1-p)\*p^m)/(1-(m+1)\*(1-p)\*p^m);
1/rho^(Q+1)\*1/(1-(m+1)\*(1-p)\*p^m\*rho^m);
end;
a3 :=
proc(Q, m, p)
local rho;
rho :=
sort(\[fsolve(1-v + (1-p)\*p^m\*v^(m+1), v)\],
(r1, r2) -> abs(r1-1) < abs(r2-1));
rho := op(1, rho);
1/rho^(Q+1)\*1/(1-(m+1)\*(1-p)\*p^m\*rho^m);
end;
7 votos
Podrías tener una cadena de Markov con estados $0, 1, 2, \ldots l$ donde la probabilidad de pasar de $i$ a $i+1$ es $p$ y de $i$ a $0$ es $1-p$ para $i
1 votos
@Shawn Lo que sugieres es una cadena de Markov que daría lugar a una probabilidad geométrica para la longitud de una única secuencia, sin embargo, en $n$ simulaciones podría haber más secuencias que esa. El número de secuencias es aleatorio en sí mismo, por lo que la distribución que espero obtener no es geométrica. Además, tu idea no tiene en cuenta el número de lanzamientos de moneda.
1 votos
Creo que mi "l" es tu "m." El número de cambios que haces está determinado por la potencia de la matriz de transición que estás observando.
0 votos
Es bien sabido que $\ell_n / \log_2 n \to 1 \,\mathrm{c.s.}$, y no es difícil mostrar que para cualquier $\epsilon > 0$, $\mathbb{P}(\ell_n > (1-\epsilon)\log_2 n) \geq 1 - \exp( -n^\epsilon / 2 \log_2 n )$ para valores suficientemente grandes de $n$.
4 votos
@Sasha: Ambas de tus preocupaciones son tenidas en cuenta en la propuesta de Shawn. El hecho de que la transición de $m$ a $m$ tenga probabilidad $1$ se encarga de la posibilidad de múltiples ejecuciones de longitud $m$; el sistema permanece en el estado $m$ después de la primera ejecución. Si todo lo que necesitas es el resultado para un $m$ en particular, puedes usar el enfoque de Shawn. Otra pregunta es si la estructura de la matriz de transición permite escribir la probabilidad de forma cerrada para $m$ y $n$ generales.
0 votos
@Sasha: Con respecto a ese último punto (una forma cerrada), creo que estás fuera de suerte; mira este caso sencillo.
0 votos
@Shawn Gracias por la respuesta. Si pudieras copiar tus comentarios en una respuesta, la aceptaría. Gracias a joriki por hacerme ver cómo funciona. En retrospectiva, esto es trivial, pero no se me había ocurrido.
0 votos
@Sasha: De nada. Obviamente Byron y De Moivre me demostraron lo contrario en ese último punto :-)
0 votos
@joriki ¡Demos crédito completo a de Moivre. ¡Todo lo que hice fue buscarlo! :)
0 votos
@Byron: Dudé un poco si debía poner primero a ti o a de Moivre allí ;-)
2 votos
Este documento puede ser útil: La racha más larga de caras, M.K. Schilling