Actualización: Esto está mal - lo siento, no entendí la pregunta, tengo entendido que estaban interesados en conseguir todas las permutaciones (palabras con letras diferentes).
Para n=2 no es difícil ver que la duración prevista es de 5 : duración prevista de la primera ejecución (2) + duración prevista de la segunda (2) + 1. Para n>2 me parece más difícil.
Aplicando el cupón-colector de enfoque, se podría decir que el número esperado de trata de recoger la m-th permutación (entre n! permutaciones) es1/p_m = n^n/(n!-m), por lo que
E_n = n^n \left( \frac{1}{1} + \frac{1}{2} + \dots +\frac{1}{n!} \right)=n^n H({n!})
Esto, por supuesto, es una aproximación, porque se supone que cada nueva letra de la secuencia da un nuevo n-palabra, independiente de los anteriores; pero la superposición debe introducir alguna dependencia. No está claro, sin embargo, el sentido de esta dependencia. Y esto, junto con el hecho de que un gran n la probabilidad de que una palabra de ser una permutación (incluso para el "primer cupón") es baja, lleva a pensar que la aproximación podría ser razonable. Evidencia numérica ve a un acuerdo.
Por ejemplo: para E_5 = 16777.7, empíricamente llego \approx 16730.
Actualización: en Realidad no estamos interesados en conseguir todas las permutaciones ( n! ), pero todas las palabras (n^n). El de arriba coupen-colector de enfoque también se puede aplicar, dándonos E_n \approx n^n H(n^n) \sim n^{n+1} \log(n) , pero la independencia de la asunción está menos justificado, y el resultado es menos preciso.
Podemos considerar cada palabra como un vértice en un grafo dirigido, o el estado de un doblemente estocástico de cadenas de Markov (n igual no nulos entradas en cada columna de la fila). Estamos pidiendo, a continuación, sobre la cubierta del tiempo de esta cadena. Esto podría ayudar a localizar el material. Por ejemplo, aquí (sección 2.3) se afirma como un resultado conocido (pero las referencias que faltan) la asympotic
E_n \sim n^n \log(n)
También, ver aquí (página 11.3.3).