Un trastorno es una permutación de $\sigma$ de $\{1,2,3,\dots,n\}$ tal que $\sigma(i) \neq i$ por cada $i$. Una aplicación común de la inclusión/exclusión en el pregrado de la combinatoria y probabilidad de las clases es para calcular el número de alteraciones, y en el proceso se demuestra que la probabilidad de una permutación aleatoria es una alteración de los enfoques $\frac{1}{e}$ para $gran$ n.
También existe un "estándar" de la intuición para esta probabilidad, que va más o menos la siguiente: Vamos a $E_i$ ser el caso de que $\sigma(i)=i$.
1) Para un $i$, la probabilidad de $E_i$ es exactamente $\frac{1}{n}$.
2) Si $n$ es grande, que estos eventos deben ser "casi" independiente ($E_i$ ocurren significa que $\sigma(i) \neq j$, lo que es un poco más probable que $\sigma(j)=j$, pero esto no debería haber mucho de un efecto para grandes $n$), por lo que sería de esperar, la probabilidad de que ninguno de los $E_i$ ocurren aproximadamente $\left(1-\frac{1}{n}\right)^n$.
3) Para las grandes $n$, $\left(1-\frac{1}{n} \right)^n \approx \frac{1}{e}$.
Ahora la última aproximación ya solo tiene un error proporcional a $\frac{1}{n}$. Lo sorprendente es que, después de trabajar a través de la inclusión/exclusión, se encuentra que la probabilidad no es sólo de aproximadamente $\frac{1}{e}$, pero muy cerca-el error es menor que $\frac{1}{(n+1)!}$.
¿Hay alguna alternativa intuitiva explicación de la $\frac{1}{e}$ asintótica probabilidad de que da una idea de por qué la convergencia es tan rápido?