Aquí es una confirmación de @Somos' computación. Observe que
$$ \binom{x}{N} = \frac{x(x-1)\cdots(x-N+1)}{N!} = \sum_{k=0}^{N} (-1)^{N-k} \frac{1}{N!}\left[ {N \atop k} \right] x^k, $$
donde $\left[ {N \atop k} \right]$ es el unsigned los números de Stirling de primera especie. Conectando la espalda y la informática,
\begin{align*}
I_N := \int_{0}^{N} e^{-Nx} \binom{x}{N} \, \mathrm{d}x
&= \sum_{k=0}^{N} (-1)^{N-k} \frac{1}{N!}\left[ {N \atop k} \right] \int_{0}^{N} x^k e^{-Nx} \, \mathrm{d}x \\
&= \sum_{k=0}^{N} (-1)^{N-k} \frac{1}{N!}\left[ {N \atop k} \right] \frac{k!}{N^{k+1}}(1 - \epsilon_{N,k}),
\end{align*}
donde $\epsilon_{N,k} = \int_{N^2}^{\infty} \frac{x^k}{k!} e^{-x} \, dx $.
La estimación del término de error. Primero nos tenga en cuenta que existe una constante $C_1 > 0$ satisfactorio
$$ \epsilon_{N,k} \leq \epsilon_{N,N} \leq C_1 e^{-N}$$
para todos los $1 \leq k \leq N$. La primera desigualdad es fácilmente demostrado que bajo ciertas probabilística de la interpretación. Deje $T_1, T_2, \cdots$ ser independiente de las variables aleatorias tener distribuciones exponenciales. Entonces podemos escribir $ \epsilon_{N,k} = \Bbb{P}(T_1 + \cdots + T_{k+1} > N^2 ) $. Esto demuestra que $\epsilon_{N,k}$ es monótona creciente en $k$. A continuación, aplique la sustitución de $ x \mapsto x + N$ escribir
$$ \epsilon_{N,N} = e^{-N} \int_{N^2 - N}^{\infty} \frac{(x+N)^N}{N!} e^{-x} \, dx. $$
Ahora note que $x + N \leq \frac{N}{N-1} x$$x \geq N^2 - N$. El uso de esta,
$$ \epsilon_{N,N} \leq
e^{-N} \left(\frac{N}{N-1}\right)^N \int_{0}^{\infty} \frac{x^N}{N!} e^{-x} \, dx
\leq C_1 e^{-N} $$
para algunos $C_1 > 0$. Este bound es un poco crudo, pero es suficiente para nuestro propósito. Lo siguiente que recuerdo la siguiente identidad
$$ \sum_{k=0}^{N} \left[ {N \atop k} \right] = N! $$
A partir de esto, hemos
$$ \left| \sum_{k=0}^{N} (-1)^{N-k} \frac{1}{N!}\a la izquierda[ {N \cima de k} \right] \frac{k!}{N^{k+1}} \epsilon_{N,k} \right|
\leq C_1e^{-N}. $$
La extracción de los líderes plazo. Hacemos la observación de las siguientes identidades: si $N \geq 1$, luego
$$ \left[ {N \atop 0} \right] = 0, \qquad \left[ {N \atop 1} \right] = (N-1)!, \qquad \left[ {N \atop 2} \right] = (N-1)!N_{N-1}. $$
Desde $k!/N^k$ es la disminución en $k$ $k \geq 3$ tenemos $ k!/N^k \leq 6/N^3$. Así
\begin{align*}
&\sum_{k=0}^{N} (-1)^{N-k} \frac{1}{N!}\left[ {N \atop k} \right] \frac{k!}{N^{k+1}} \\
&\hspace{2em} = (-1)^{N-1} \frac{1}{N^3} + (-1)^{N-2} \frac{2H_{N-1}}{N^4} + \mathcal{O}\left( \sum_{k=3}^{N} \frac{1}{N!}\left[ {N \atop k} \right] \frac{6}{N^{4}} \right) \\
&\hspace{4em} = (-1)^{N-1} \frac{1}{N^3} + (-1)^{N-2} \frac{2H_{N-1}}{N^4} + \mathcal{O}\left( \frac{1}{N^{4}} \right).
\end{align*}
Conclusión. La combinación de ambas estimaciones, obtenemos
$$I_N = (-1)^{N-1} \frac{1}{N^3} + (-1)^{N-2} \frac{2\log N}{N^4} + \mathcal{O}\left( \frac{1}{N^{4}} \right). $$