Vamos a escribir P:= \mu (para obtener más probabilística de la notación) y vamos a mostrar que el \lim_{n \to \infty} P(U_{\epsilon}) = 1.
Lema 1: Para todos los \epsilon>0 existe alguna \delta>0 que si (x^1,...,x^k) \in \prod_1^k S^n \sum_{i<j} |\langle x^i,x^j \rangle|< \delta implica d(x, \mathcal O)<\epsilon.
Prueba: Esta es una consecuencia de las bacterias Gram-Schmidt orthogonalization proceso. En concreto, se definen u^1:=x^1,u^2:=x^2-\frac{\langle x^2,u^1\rangle}{|u^1|^2} u^1,u^3=x^3 - \frac{\langle x^3,u^2\rangle}{|u^2|^2} u^2- \frac{\langle x^3, u^1 \rangle}{|u^1|^2} u^1, y así sucesivamente. A continuación, vamos a e^i:=u^i/|u^i|, por lo que el e^i forma un ortonormales conjunto que se construye a partir de la original x^i mediante fórmulas que solo depende de los valores de la interna de los productos de \langle x^i,x^j \rangle. Por un cuidadoso seguimiento y el uso de la inducción, uno puede mostrar que |x^j - u^j| (y por lo tanto |x^j-e^j|) puede hacerse arbitrariamente pequeña, haciendo que el |\langle x^i,x^j \rangle| muy pequeño. \Box
Lema 2: Si U,V son independientes y distribuidos de manera uniforme en S^{n-1} P(|\langle U, V \rangle|>\epsilon) \leq \frac{1}{n\epsilon^2}
Prueba: Por el condicionamiento de a V y el uso de la independencia podemos escribir P(|\langle U, V \rangle|>\epsilon) = \Bbb E\bigg[ P\big(|\langle U, V \rangle|>\epsilon \;\big| \;V\big)\bigg] = \int_{S^n} P(|\langle U, v \rangle|>\epsilon)\;\sigma(dv) = P(|\langle U, e_1 \rangle|>\epsilon) where \sigma is the uniform measure on S^n, and e_1=(1,0,...,0). The final equality follows by rotational invariance of \sigma. Writing U=(U_1,...,U_n) we see that the U_j are identically distributed and \sum U_j^2=1. Thus 1 = E[\sum U_j^2] = nE[U_1^2], so that E[U_1^2]=1/n. Consequently, P(|\langle U, e_1 \rangle|>\epsilon) = P(|U_1|>\epsilon) \leq \frac{E[U_1^2]}{\epsilon^2} = \frac{1}{n\epsilon^2} At the end we have used Chebyshev's inequality with the second moment. \Caja
La prueba de la reclamación original: Mediante la combinación de los dos lemas, vemos que P(U_{\epsilon}^c) = P\big( d(\{X^1,...,X^k\}, \mathcal O)>\epsilon\big) \leq P \bigg( \sum_{i<j} |\langle X^i,X^j \rangle |> \delta \bigg) \leq \sum_{i<j} P\bigg(|\langle X^i,X^j \rangle| > \frac{\delta}{k(k-1)}\bigg) \leq\frac{k^3(k-1)^3}{n \delta^2} \stackrel{n\to \infty}{\longrightarrow} 0
Observaciones: es esencial que la k es fijo aquí (aunque la última línea muestra que k es permitido a depender de n, mientras que crece lentamente suficiente). También tenga en cuenta que sólo se utiliza pares de la independencia en este argumento (completo mutua independencia de que no era necesario).