Actualización: Esto está mal - lo siento, no entendí la pregunta, tengo entendido que estaban interesados en conseguir todas las permutaciones (palabras con letras diferentes).
Para $n=2$ no es difícil ver que la duración prevista es de 5 : duración prevista de la primera ejecución (2) + duración prevista de la segunda (2) + 1. Para $n>2$ me parece más difícil.
Aplicando el cupón-colector de enfoque, se podría decir que el número esperado de trata de recoger la $m$-th permutación (entre $n!$ permutaciones) es$1/p_m = n^n/(n!-m)$, por lo que
$$E_n = n^n \left( \frac{1}{1} + \frac{1}{2} + \dots +\frac{1}{n!} \right)=n^n H({n!}) $$
Esto, por supuesto, es una aproximación, porque se supone que cada nueva letra de la secuencia da un nuevo $n$-palabra, independiente de los anteriores; pero la superposición debe introducir alguna dependencia. No está claro, sin embargo, el sentido de esta dependencia. Y esto, junto con el hecho de que un gran $n$ la probabilidad de que una palabra de ser una permutación (incluso para el "primer cupón") es baja, lleva a pensar que la aproximación podría ser razonable. Evidencia numérica ve a un acuerdo.
Por ejemplo: para $E_5 = 16777.7$, empíricamente llego $\approx 16730$.
Actualización: en Realidad no estamos interesados en conseguir todas las permutaciones ( $n!$ ), pero todas las palabras ($n^n$). El de arriba coupen-colector de enfoque también se puede aplicar, dándonos $E_n \approx n^n H(n^n) \sim n^{n+1} \log(n) $, pero la independencia de la asunción está menos justificado, y el resultado es menos preciso.
Podemos considerar cada palabra como un vértice en un grafo dirigido, o el estado de un doblemente estocástico de cadenas de Markov ($n$ igual no nulos entradas en cada columna de la fila). Estamos pidiendo, a continuación, sobre la cubierta del tiempo de esta cadena. Esto podría ayudar a localizar el material. Por ejemplo, aquí (sección 2.3) se afirma como un resultado conocido (pero las referencias que faltan) la asympotic
$$E_n \sim n^n \log(n)$$
También, ver aquí (página 11.3.3).