Aquí es un esquema de una prueba de la casi seguro de que la convergencia de $t^{\frac{1}{n(t)}}$ $e$(es decir, por qué el "handwavy apelación a la ley de los grandes números aquí" puede ser invocada). Esto está muy lejos de ser trivial; para obtener un casi seguro de convergencia que usted necesita para controlar cómo evoluciona el proceso, y qué tan probable es excepcional valores; un control sobre su promedio no es suficiente. La prueba no es completa. Creo que las fijaciones de las brechas en esto sería muy técnica, sin ningún ganado la penetración. Usted puede tratar de completarla si usted está interesado (pero es bastante involucrados - no sé si usted sabe que los métodos aquí utilizados, como usted dice que "[que] no tienen demasiado amplios antecedentes en matemáticas").
Para simplificar el tema, voy a suponer que trabajamos con la distribución uniforme en $[0,1]$, y que nos fijamos en los sucesivos mínimos y no de máximos. No cambia nada; como había adivinado, lo que funciona para una distribución uniforme funciona para cualquier no-atómica medida a lo largo de $\mathbb{R}$ (sólo tiene que enviar a la uniforme medida a través de la función de distribución).
Deje $(X_n)$ ser una secuencia de variables aleatorias uniformemente distribuidas en $[0,1]$. Vamos a definir de forma recursiva dos secuencias de variables aleatorias $(Y_n)$$(\tau_n)$, con $X_0 = 1$, $\tau_0 = 0$, y:
- $\tau_{n+1} = \inf \{ m > \tau_n : X_m < Y_n \}$,
- $Y_{n+1} = X_{\tau_{n+1}}$.
En la llanura inglés, $(Y_n)$ es la secuencia de mínimos y $\tau_n$ es la secuencia de los tiempos de estos mínimos se producen. Si tenemos un nuevo mínimo $Y_n$, como mínimo, los siguientes $Y_{n+1}$ se produce cuando un punto de $X_m$ caen en el intervalo de $[0, Y_n]$, lo cual ocurre con probabilidad de $Y_n$ a cada paso. Por lo tanto,
- $\tau_{n+1} - \tau_n$ tiene una distribución exponencial de parámetro $Y_n$,
- $Y_{n+1}$ es distribuido uniformemente en $[0, Y_n]$.
Ahora, permítanme definir $Z_n = \ln (Y_n)$. Un breve cálculo muestra que:
- $\mathbb{E} (Z_{n+1} | Z_n, \cdots, Z_0) = -1$;
- $\text{Var} (Z_{n+1} | Z_n, \cdots, Z_0) = 1$.
Esto implica que la secuencia de $(Z_n)$ se comporta le gusta un paseo aleatorio con constante a la deriva. En particular, para todos los $\varepsilon > 0$, casi seguramente, para lo suficientemente grande como $n$,
$$-(1+\varepsilon) n \leq Z_n \leq -(1-\varepsilon) n,$$
o, en otras palabras,
$$e^{-(1+\varepsilon) n} \leq Y_n \leq e^{-(1-\varepsilon) n}.$$
Este no es un resultado trivial, pero hay una abundante literatura sobre el tema. De forma heurística, $Y_{n+1}/Y_n$ es aproximadamente el $e^{-1}$, lo $\tau_{n+2} - \tau_{n+1} \sim e (\tau_{n+1} - \tau_n)$. Cuando dices que "los Experimentos parecen indicar la cantidad de tiempo que toma para encontrar el siguiente número múltiplos por sobre $3$ por cada número encontrado", está bastante cerca de la verdad. Se multiplica por sobre $e$.
De todos modos, para lo suficientemente grande como $n$, obtenemos $\mathbb{P} (\tau_{n+1} - \tau_n \leq e^{(1-2\varepsilon)n}) \leq 1-e^{-e^{-(1-\varepsilon)n} e^{(1-2\varepsilon)n}} \leq e^{- \varepsilon n}$$\mathbb{P} (\tau_{n+1} - \tau_n \geq e^{(1+2\varepsilon)n}) \leq e^{-e^{-(1+\varepsilon)n} e^{(1+2\varepsilon)n}} = e^{-e^{\varepsilon n}}$. Las secuencias de $(e^{- \varepsilon n})$ $(e^{-e^{\varepsilon n}})$ son tanto summable, así que por Borel-Cantelli lema, casi seguramente, para todos lo suficientemente grande como $n$,
$$e^{(1-2\varepsilon)n} \leq \tau_{n+1} - \tau_n \leq e^{(1+2\varepsilon)n}.$$
Ahora, se suma esta desigualdad para $0 \leq n < N$. Voy a saltar un par de detalles técnicos (me tome un poco más grande de los márgenes en los exponentes así como para deshacerse de los molestos constante), se obtiene que, casi seguramente, para todos lo suficientemente grande como $N$,
$$e^{(1-3\varepsilon)N} \leq \tau_N \leq e^{(1+3\varepsilon)N}.$$
Por otra parte, $\tau_N \leq C$ es equivalente a $n(C) \geq N$ $\tau_N \geq C$ es equivalente a $n(C) \leq N$. Voy a saltar otra ronda de tecnicismos, pero, usando el hecho de que la función $n$ es no decreciente, se obtiene que, casi seguramente, para lo suficientemente grande como $t$,
$$\frac{\ln (t)}{1+4\varepsilon} \leq n(t) \leq \frac{\ln (t)}{1-4\varepsilon}.$$
Esto es equivalente al hecho de que, casi seguramente,
$$\lim_{t \to + \infty} \frac{n(t)}{\ln (t)} = 1,$$
por lo tanto $\lim_{t \to + \infty} t^{\frac{1}{n(t)}} = e$.