Vamos a hacerlo un poco como la forma en que el reverendo Thomas Bayes hizo en el siglo 18 (pero voy a frase moderno probabilística de la terminología).
Supongamos $n+1$ independientes variables aleatorias $X_0,X_1,\ldots,X_n$ están uniformemente distribuidos en el intervalo $[0,1]$.
Supongamos por $i=1,\ldots,n$ (a partir de $1$, no con $0$) tenemos:
$$Y_i = \begin{casos} 1 & \text{si }X_i<X_0 \\ 0 & \text{si }X_i>X_0\end{casos}$$
Entonces $Y_1,\ldots,Y_n$ son condicionalmente independientes dado $X_0$ y $\Pr(Y_i=1\mediados de X_0)= X_0$.
Por lo que $\Pr(Y_1+\cdots+Y_n=k\a mediados de X_0) = \dbinom{n}{k} X_0^k (1-X_0)^{n-k},$ y, por tanto,
$$\Pr(Y_1+\cdots+Y_n=k) = \mathbb{E}\left(\dbinom{n}{k} X_0^k (1-X_0)^{n-k}\right).$$
Esto es igual a
$$
\int_0^1 \binom nk x^k(1-x)^{n-k}\;dx.
$$
Pero el caso es lo mismo que decir que el índice $i$ de los cuales $X_i$ es en el $(k+1)$th posición cuando $X_0,X_1,\ldots,X_n$ se ordenan en orden creciente es $0$.
Dado que la totalidad de los $n+1$ índices tienen la misma probabilidad de estar en esa posición, esta probabilidad es de $1/(n+1)$.
Por lo tanto $$\int_0^1\binom nk x^k(1-x)^{n-k}\;dx = \frac{1}{n+1}.$$