El objetivo de esta respuesta es utilizar el método del segundo momento para hacer riguroso el argumento heurístico de Michael Lugo. (He aquí por qué su argumento es sólo heurístico: Si $N$ es una variable aleatoria entera no negativa, como el número de longitudes $r$ secuencias consecutivas crecientes en una permutación aleatoria de $\{1,2,\ldots,n\}$ sabiendo que $E[N] \gg 1$ no implica que $N$ es positivo con alta probabilidad, porque la gran expectativa podría ser causada por un evento raro en el que $N$ es muy grande).
Teorema: La longitud esperada del bloque creciente más largo en una permutación aleatoria de $\{1,2,\ldots,n\}$ es $r_0(n) + O(1)$ como $n \to \infty$ , donde $r_0(n)$ es el menor número entero positivo tal que $r_0(n)!>n$ . ("Bloque" significa subsecuencia consecutiva $a_{i+1},a_{i+2},\ldots,a_{i+r}$ para algunos $i$ y $r$ sin condiciones sobre los tamaños relativos de los $a_i$ .)
Nota: Como señaló Michael, $r_0(n)$ es de orden $(\log n)/(\log \log n)$ .
Prueba del teorema: Dejemos que $P_r$ es la probabilidad de que exista un bloque creciente de al menos $r$ . La longitud esperada del bloque creciente más largo es entonces $\sum_{r \ge 0} r(P_r-P_{r+1}) = \sum_{r \ge 1} P_r$ . Acotaremos esta última suma por arriba y por abajo.
Límite superior: La probabilidad $P_r$ es como máximo la esperada número de bloques crecientes de longitud $r$ que es exactamente $(n-r+1)/r!$ ya que para cada uno de los $n-r+1$ valores de $i$ en $\{0,\ldots,n-r\}$ la probabilidad de que $a_{i+1},\ldots,a_{i+r}$ están en orden creciente es $1/r!$ . Así, $P_r \le n/r!$ . Por comparación con una serie geométrica con relación $2$ tenemos $\sum_{r > r_0(n)} P_r \le P_{r_0(n)} \le 1$ . Por otro lado $\sum_{1 \le r \le r_0(n)} P_r \le \sum_{1 \le r \le r_0(n)} 1 \le r_0(n)$ Así que $\sum_{r \ge 1} P_r \le r_0(n) + 1$ .
Límite inferior: Aquí necesitamos el método del segundo momento. Para $i \in \{1,\ldots,n-r\}$ , dejemos que $Z_i$ sea $1$ si $a_{i+1}<a_{i+2}<\ldots<a_{i+r}$ y $a_i>a_{i+1}$ y $0$ en caso contrario. (La condición añadida $a_i>a_{i+1}$ es un truco para reducir la correlación positiva entre los $Z_i$ .) La probabilidad de que $a_{i+1}<a_{i+2}<\ldots<a_{i+r}$ es $1/r!$ y la probabilidad de que se mantenga mientras $a_i>a_{i+1}$ falla es $1/(r+1)!$ Así que $E[Z_i]=1/r! - 1/(r+1)!$ . Dejemos que $Z=\sum_{i=1}^{n-r} Z_i$ Así que $$E[Z]=(n-r)(1/r! - 1/(r+1)!).$$ A continuación calculamos el segundo momento $E[Z^2]$ al ampliar $Z^2$ . Si $i=j$ entonces $E[Z_i Z_j] = E[Z_i] = 1/r! - 1/(r+1)!$ sumando todo esto $i$ da menos o igual que $n/r!$ . Si $0<|i-j|<r$ entonces $E[Z_i Z_j]=0$ ya que las desigualdades son incompatibles. Si $|i-j|=r$ entonces $E[Z_i Z_j] \le 1/r!^2$ (esta última es la probabilidad si eliminamos la condición añadida en la definición de $Z_i$ y $Z_j$ ). Si $|i-j|>r$ entonces $Z_i$ y $Z_j$ son independientes, por lo que $E[Z_i Z_j] = (1/r! - 1/(r+1)!)^2$ . La suma de todos los $i$ y $j$ muestra que $$E[Z^2] \le \frac{n}{r!} + E[Z]^2 \le \left(1 + O(r!/n) \right) E[Z]^2.$$ El método del segundo momento da la segunda desigualdad en $$P_r \ge \operatorname{Prob}(Z \ge 1) \ge \frac{E[Z]^2}{E[Z^2]} \ge 1 - O(r!/n).$$ Si $r \le r_0(n)-2$ entonces $r! \le (r_0(n)-1)!/(r_0(n)-1)$ Así que $r!/n \le 1/(r_0(n)-1)$ Así que $P_r \ge 1 - O(1/r_0(n))$ . Así, $$\sum_{r \ge 1} P_r \ge \sum_{r=1}^{r_0(n)-2} \left( 1 - O(1/r_0(n)) \right) = r_0(n) - O(1).$$