Esta es ahora una respuesta completa.
Resulta que Markus se haga todo junto : con esta particular partida de configuración, el número de bolas negras es una cadena de Markov, y en cualquier punto en el tiempo, la distribución de la secuencia es uniforme acondicionado en el número de bolas negras en el espacio de secuencias de partida con una bola negra.
Deje $\Omega$ el conjunto de secuencias de $0$ $1$ de la longitud de la $n$ comenzando con $1$.
Para mostrar que el número de bolas negras es una cadena de Markov es suficiente para demostrar que si se nos da una secuencia aleatoria en $\Omega$ distribuido de manera uniforme, condicionado a que el número de bolas negras y aplicar un paso del proceso, entonces todavía podemos obtener una secuencia distribuidos de manera uniforme, condicionado a que el número de bolas negras.
Más formalmente, vamos a $\Omega' = \{1 \ldots n\}$ ser el posible número de bolas negras y $f : \Omega \to \Omega'$ ser el recuento de mapa.
Deje $F,F'$ ser el libre espacios vectoriales sobre la base $\Omega$ $\Omega'$ respectivamente.
Su proceso es descrito por una lineal endormorphism $T : F \to F$, e $f$ induce lineal mapa de $f : F \to F'$.
Deje $g : F' \to F$ ser el mapa enviar a $1.[k]$$k \in \Omega'$$\frac 1{|f^{-1}(k)|} \sum_{f^{-1}(k)} 1.[\omega]$.
Obviamente tendremos que $f \circ g = id_{F'}$.
Si podemos demostrar que la imagen de $g$ es estable por $T$, entonces hay un mapa de $T' : F' \to F'$ tal que $T \circ g = g \circ T'$.
Luego nos vamos (voy a omitir las composiciones a partir de ahora)
$gfTgf = gf(Tg)f = gf(gT')f = g(fg)T'f = gT'f = Tgf$.
Por inducción se sigue que $T^ngf = (Tgf)^n$ $fT^ngf = (fTg)^nf = T'^n f$
Dado que sólo estamos interesados en el comportamiento de $fT^n(V)$ para el primer vector de $V = 1.[10\ldots0] \in F$,
y porque tenemos $gfV=V$, estamos interesados en el comportamiento de
$fT^n(V) = fT^ngf(V) = T'^n f(V) = T'^n(1.[1])$.
Es decir, $T'$ es la matriz de transición de una cadena de Markov en $\Omega'$
y queremos saber cuál es el tiempo de espera para obtener de$1$$n$.
Intuitivamente, si usted interpretar $gf$ como un proceso que de forma aleatoria permutes la $n-1$ derecha bolas, esto nos dice que los dos procesos
"randomize ; aplicar el paso ; randomize" y "randomize ; aplicar el paso" son equivalentes.
Entonces para cualquier $k$, el proceso de "inicializar ; randomize ;( aplicar el paso ; randomize) x $k$"
es equivalente al proceso de "inicializar ; randomize ; aplicar el paso x $k$".
Y desde la configuración inicial es ya aleatorizado, "inicializar ; randomize" es equivalente a "inicializar".
Por lo tanto, el proceso original es equivalente a "inicializar ; randomize ; (aplicar el paso ; randomize) x $k$", donde el número de bolas negras es , obviamente, una cadena de Markov
Ahora voy a mostrar que la imagen de $g$.es estable por $T$.
Deje $N = n(n-1)/2$ el número de pares de $(i,j)$$1 \le i < j \le n$.
Para probar esto básicamente para contar las cosas. El "sorprendente" es que
para obtener una secuencia en particular como resultado de una no trivial copiar mover, el
número de maneras de obtener que no dependen del orden de las bolas
Si desea obtener una secuencia de con $4$ mediante la copia de un $1$ a una $0$,
usted tiene que elegir entre dos $1$ , a continuación, reemplace la derecha con un $0$.
Aunque usted consigue algunas secuencias de entrada más veces que otros, ya que todos ellos son equiprobables,
el resultado de la probabilidad para cada secuencia de salida no depende del orden de las bolas.
Por el contrario, algunas entradas tienen una tendencia a aumentar la suma, y algunos otros tienen una tendencia a disminuir la suma,
pero en realidad, cuando se suma cada permutación de las entradas, se hará algo uniforme dentro de cada clase de equivalencia.
Para calcular los $T(g(k))$, considere la posibilidad de una secuencia aleatoria que tiene suma $k$ y se distribuye de forma homogénea, de manera que cada secuencia de suma $k$ probabilidad de $1/\binom {k-1}{n-1}$ a la de entrada.
Para cada posible secuencia de salida de suma $k$, tener en cuenta cuántas veces se puede llegar a ella.
Para conseguir una secuencia de suma $k$ usted necesita hacer un movimiento que no hace nada, y para cada secuencia de salida hay $k(k-1)/2+(n-k)(n-k-1)/2$ movimientos que hacerlo, de manera que cada secuencia de suma $k$ se alcanza en total con una probabilidad de $(k(k-1)+(n-k)(n-k-1))/(2N \binom {k-1}{n-1})$,
esto es $ (k(k-1)+(n-k)(n-k-1))/2N \;.g(k)$.
Ahora considere la posibilidad de la salida de secuencias de suma $k+1$ (si $k<n$).
Para conseguir una secuencia de suma $k+1$ usted necesita una copia de un $1$ a una $0$.
Para cada resultado, ha $k$ secuencias de suma $k$ que lo puede producir,
uno que se produce en uno de los casos, el siguiente en dos casos, y así sucesivamente.
Ya que cada secuencia de suma $k$ es igualmente probables, cada secuencia de salida se puede llegar
con igual probabilidad $k(k+1)/(2N \binom {k-1}{n-1})$, por ello la suma de todo
esto es $k(k+1)\binom {k}{n-1}/(2N\binom {k-1}{n-1})\;. g(k+1) = (k+1)(n-k)/2N \;. g(k+1)$
Por último, considere la posibilidad de la salida de secuencias de suma $k-1$ (si $k>0$)
Para conseguir una secuencia de suma $k-1$ usted necesita una copia de un $0$ a una $1$.
Para cada resultado, ha $n-k$ secuencias de suma $k$ que lo puede producir,
uno que se produce en uno de los casos, el siguiente en dos casos, y así sucesivamente.
Ya que cada secuencia de suma $k$ es igualmente probables, cada secuencia de salida se puede llegar
con igual probabilidad $(n-k)(n-k+1)/(2N \binom {k-1}{n-1})$, por ello la suma de todo
esto es $(n-k)(n-k+1)\binom {k-2}{n-1}/(2N\binom {k-1}{n-1}) \;. g(k-1) = (n-k)(k-1)/2N \;. g(k-1)$
Y $k(k-1)+(n-k)(n-k-1) + (k+1)(n-k) + (n-k)(k-1) = n(k-1)+(n-k)n = n^2-n = 2N$, por lo que los tres términos de la suma a $1$ según sea necesario.
Por último, podemos utilizar el hecho de que las secuencias están distribuidos de manera uniforme, condicionado a que el número de bolas negras para demostrar que $E[T_n - T_{n-1}] = 1$.
Considerar en cada momento, las probabilidades de que vamos a partir de una secuencia particular con $n-1$ $1$s a la secuencia final con $n$ $1$s.
En todos los tiempos, el $n-1$ secuencias con suma $n-1$ son igualmente probables (decir $p_t$), luego de una cuenta simple argumento dice que la secuencia final viene de $1\ldots10$ con una probabilidad de $(n-1)p_t/N = 2p_t/n$ y se trata de uno de los $n-2$ otras secuencias con una probabilidad de $(1+2+\ldots+n-2)p_t/N = (n-2)(n-1)p_t/2N = (n-2)p_t/n$.
Resumiendo los eventos para cada tiempo de $t$, la probabilidad de que el último paso viene de $1\ldots10$$2/n$, lo que significa que $P(T_{n-1} < T_n) = 2/n$,$P(T_{n-1} = T_n) = (n-2)/n$.
Pero si $T_{n-1} < T_n$, entonces el tiempo de espera para el último paso es $N/(n-1) = n/2$ (porque estamos estancados en $1\ldots10$ hasta que nos trasladamos a $1\ldots 11$, lo cual ocurre con probabilidad de $2/n$)
Por lo tanto $E[T_n - T_{n-1}] = 2/n \times n/2 + 0 \times (n-2)/2 = 1$.
Usted puede probar fácilmente que @leonbloy de la conjetura a partir de la observación de que $P(T_{n} > T_{n-1}) = 2/n$.
Si se puede ocultar la última $n-k$ bolas, entonces lo que vemos es una mezcla de un mismo proceso, en la primera $k$ bolas y los pasos que
copia uno de visible bolas a uno de los ocultos bolas, y así los pasos que no visiblemente hacer nada.
Por lo tanto, aunque puede ver una ralentizado el proceso, esto no influye en las probabilidades de $P(T_{k-1} > T_{k}) = 2/k$.
A partir de entonces, es fácil obtener el tiempo de espera entre cada paso, porque si tenemos la igualdad, a continuación,$T_{k-1} - T_{k} = 0$,
y si no, a cada paso entre ellos tiene una probabilidad de $(k-1)/N$ de colorante de la $k$th bola negra, y se lleva $N/(k-1)$ pasos.
Finalmente, se espera que los diferencia es $N/(k-1) \times 2/k = n(n-1)/k(k-1)$.