Sea $\vec{R}$ el vector de distancia de extremo a extremo de una caminata aleatoria de longitud de paso fija $|\vec{r}_i| = l$. Entonces, $\vec{R}$ puede expresarse como $\displaystyle \vec{R} = \sum_{i=1}^N \vec{r}_i$, donde $\vec{r}_i$ es el vector del $i$-ésimo paso. La distancia de extremo a extremo cuadrática media se da por $\textrm{RMS}=\sqrt { \langle R^2 \rangle }$. Dado que los pasos son mutuamente independientes, la covarianza de dos pasos $\vec{r}_i$ y $\vec{r}_j$ es cero si $i\neq j$ y $\textrm{Cov}(\vec{r}_i, \ \vec{r}_j)= \textrm{Var}(\vec{r}_i)$ si $i=j$. La varianza de $ \vec{r}_i$ puede expresarse como $ \textrm{Var}(\vec{r}_i)= \langle \vec{r}_i \cdot \vec{r}_i \rangle - \langle \vec{r}_i \rangle^2$. Debido a la simetría $\langle \vec{r}_i \rangle=\vec{0}$ y por lo tanto la varianza de de $ \vec{r}_i$ es simplemente $ \textrm{Var}(\vec{r}_i)= \langle \vec{r}_i \cdot \vec{r}_i \rangle = |\vec{r}_i|^2 = l^2$. En conjunto, la covarianza de $\vec{r}_i$ y $\vec{r}_j$ es igual a $\textrm{Cov}(\vec{r}_i, \ \vec{r}_j)=\delta_{ij}l^2$. La covarianza de $\vec{r}_i$ y $\vec{r}_j$ también puede expresarse como $\textrm{Cov}(\vec{r}_i, \ \vec{r}_j) = \langle \vec{r}_i \cdot \vec{r}_j \rangle - \langle \vec{r}_i \rangle \cdot \langle \vec{r}_j \rangle$. Combinando las dos expresiones diferentes para la covarianza y usando que $\langle \vec{r}_i \rangle=0$, resulta en $\langle \vec{r}_i \cdot \vec{r}_j \rangle =\delta_{ij}l^2$. Este resultado se puede utilizar para determinar el RMS:
$$\textrm{RMS}=\sqrt { \langle R^2 \rangle } = \sqrt { \langle \vec{R} \cdot \vec{R} \rangle } =\sqrt { \big\langle \sum_{i=1}^N \vec{r}_i \cdot \sum_{j=1}^N \vec{r}_j \big\rangle } =\sqrt { \sum_{i=1}^N \sum_{j=1}^N \langle \vec{r}_i \cdot \vec{r}_j \rangle } =\sqrt { \sum_{i=1}^N \sum_{j=1}^N l^2 \delta_{ij} + 0^2}= $$ $$=\sqrt { \sum_{i=1}^N l^2}=\sqrt { N l^2}=l\sqrt { N }$$
Sea $Z_i$ la coordenada $i$-ésima del vector de distancia de extremo a extremo $\vec{R}$ después de $N$ pasos, y sea $X_i$ e $Y_i$ el número de pasos tomados en la $i$-ésima dimensión en la dirección positiva y negativa respectivamente. Entonces, el conjunto de variables aleatorias $\{X_i, Y_i\}_{i=1}^d$ sigue una distribución multinomial con parámetros $N$ y $\displaystyle p_i=\frac{N}{2d}$. Para valores suficientemente grandes de $N$, $\{X_i, Y_i\}_{i=1}^d$ son aproximadamente variables aleatorias de Poisson iid (independientes e idénticamente distribuidas) con parámetros $\displaystyle \lambda_i = \frac{N}{2d}$. Para $\lambda > 20$, es decir $N>40d$, $\textrm{Po}(\lambda) \sim \textrm{N}(\lambda, \lambda)$. $ Z_i = l(X_i - Y_i)$ y por lo tanto $\displaystyle Z_i \sim \textrm{N}(l(\lambda - \lambda), l^2(\lambda+\lambda))=\textrm{N}(0, 2l\lambda)=\textrm{N}\left(0, \frac{l^2N}{d}\right)$.
$\displaystyle \langle R \rangle = \langle \sqrt{R^2} \rangle = \left\langle \sqrt{ \sum_{i=1}^d Z_i^2} \right\rangle$. La raíz cuadrada de una suma de $k$ variables aleatorias distribuidas independientemente como $\textrm{N}(0, 1)$ está distribuida según la distribución chi, $\chi_k$. Por lo tanto, $\displaystyle \sqrt{ \sum_{i=1}^d \frac{dZ_i^2}{l^2N}}$ está aproximadamente distribuida con $\chi_d$ para valores grandes de $N$. El valor esperado de una variable aleatoria distribuida como $\chi_k$ es $\displaystyle \sqrt{2} \frac{ \Gamma \left(\frac{k+1}{2}\right) }{\Gamma \left( \frac{k}{2}\right)}$.
Por lo tanto $\displaystyle \langle R \rangle =\left\langle\sqrt{ \sum_{i=1}^d Z_i^2}\right\rangle =\left\langle l \sqrt{\frac{N}{d}} \sqrt{ \sum_{i=1}^d \frac{dZ_i^2}{l^2N} }\right\rangle = l \sqrt{\frac{2N}{d} }\frac{ \Gamma \left(\frac{d+1}{2}\right) }{\Gamma \left( \frac{d}{2}\right)}$.