De hecho, existe un lema profundo sobre la reducción de dimensiones, el lema de Johnson-Lindenstrauss, que afirma que dado un conjunto $A = \{a_1,\dots,a_n \}$ un mapa $f : \mathbb{R}^D \rightarrow \mathbb{R}^d$ es un $\epsilon$ -si para cada par $a,a^{'} \in A$ tenemos $$ ( 1 - \epsilon) || a - a^{'} ||^2 \leq || f(a) - f(a^{'}) ||^2 \leq ( 1 + \epsilon) || a - a^{'} ||^2 $$ y el lema de Johnson-Lindenstrauss afirma que existe un $\epsilon$ -isometría siempre que $d \geq k \epsilon^{-2} \log ( n )$ donde $k$ es una constante absoluta. Se puede realizar dicho mapa con una matriz de entradas gaussianas i.i.d.
Edición: oh, lo siento, no fui lo suficientemente claro sobre cómo creo que se relaciona con la pregunta (tal vez estoy equivocado) para la reducción de la dimensión (al menos en un contexto en el que sólo la distancia entre los puntos es importante, como la agrupación, por ejemplo), calcularía cuánto mi mapeo (PCA aquí, creo) está cambiando la distancia entre los puntos y comparar el límite superior de esa distorsión con el límite dado por JL, por ejemplo, si usted va a la dimensión 2, lo compararía con $\sqrt(\frac{\log(n)}{2})$ si tengo n puntos (por supuesto aquí 2 es demasiado bajo para obtener un límite no trivial). Me da una forma de afirmar que mi algoritmo tiene el mejor comportamiento posible (aunque normalmente supongo que se piensa lo contrario estableciendo primero un $\epsilon$ y conseguir un $d$ ). Otra cosa que me da el resultado es una manera de construir el mejor algoritmo para la reducción de la dimensión que es utilizar una matriz cuyas entradas son variables aleatorias normales como mi "proyección".