Veamos $k$ independiente de vectores aleatorios $x_1, x_2, \dots, x_k$ con una distribución uniforme sobre $ \left[0;1 \right]^n $. La distancia (preferiblemente de Manhattan) entre un vector arbitrario $x_a$ y su vecino más cercano entre estos vectores es una variable aleatoria. ¿Cómo podemos estimar su momenta? Especialmente el valor esperado?
Ya que no tengo idea de cómo empezar comencemos con el caso de dos vectores $a$ $b$ en dos dimensiones:
En este caso, uno es el vecino más cercano a la otra, de manera que su distancia es: $$ d \left(a, b\right) = \left | a_1 - b_1 \right | + \left | a_2 - b_2 \right | $$ Donde $a_1, a_2, b_1, b_2 \sim U \left[0;1 \right]$ y son independientes.
En este caso podemos calcular el valor esperado como una integral doble: $$ I := \iint_{\left[0;1 \right)^2}^{} \left | x - y \right | + \left | x - y \right | dxdy $$
Puesto que el integrando es simétrica a lo largo de $x = y$: $$ I = 2 \iint_{\left[0;1 \right)^2}^{} \left | x - y \right | dxdy = 4 \int_{0}^{1} \left ( \int_{0}^{x} x - y dy \right ) dx = 4 \int_{0}^{1} \frac{x^2}{2} dx = \frac{2}{3} $$
No iba a ser tan duro para extender este resultado a $n$ dimensiones. El verdadero desafío es agregar otros vectores de la imagen.
Si tenemos tres vectores $a,b,c$, $b$ $c$ tienen igual probabilidad de ser el más cercano al individuo a $a$. Podemos entonces calcular la distancia esperada como la suma ponderada de los valores esperados condicionales. $$ \frac{1}{2} E \left [ d \left( a, b \right) | b \text{ es más} \right] + \frac{1}{2} E \left [ d \left( a, c \right) | c \text{ es más} \right] $$ Tanto en $E \left [ d \left( a, b \right) | b \text{ is closer} \right]$ $E \left [ d \left( a, c \right) | c \text{ is closer} \right]$ puede ser calculada como integrales en 6 dimensiones de alguna manera.