Entiendo lo que es la "maldición de la dimensionalidad", y he hecho algunos problemas de optimización de alta dimensión y conozco el desafío de las posibilidades exponenciales.
Sin embargo, dudo que la "maldición de la dimensionalidad" exista en la mayoría de los datos del mundo real (bueno, dejemos de lado las imágenes o los vídeos por un momento, estoy pensando en datos como los datos demográficos de los clientes y el comportamiento de compra).
Podemos recoger datos con miles de características, pero es menos probable, incluso imposible, que las características puedan abarcar completamente un espacio con miles de dimensiones. Por eso son tan populares las técnicas de reducción de dimensiones.
En otras palabras, es muy probable que los datos no contengan el nivel exponencial de información, es decir, que muchas características estén altamente correlacionadas y que muchas características satisfagan las reglas 80-20 (muchas instancias tienen el mismo valor).
En tal caso, creo que métodos como el KNN seguirán funcionando razonablemente bien. (En la mayoría de los libros la "maldición de la dimensionalidad" dice que la dimensión > 10 podría ser problemática. En sus demostraciones utilizan una distribución uniforme en todas las dimensiones, donde la entropía es realmente alta. Dudo que en el mundo real esto ocurra).
Mi experiencia personal con datos reales es que la "maldición de la dimensionalidad" no afecta demasiado al método de plantillas (como KNN) y en la mayoría de los casos, las dimensiones ~100 seguirían funcionando.
¿Es esto cierto para otras personas? (He trabajado con datos reales en diferentes industrias durante 5 años, y nunca he observado que "todos los pares de distancia tengan valores similares" como se describe en el libro).