Estoy utilizando LLE para hacer la reducción de la dimensionalidad no lineal. A mi entender, en el paso 3, el problema de eigendecomposición es con respecto a la matriz M que tiene la dimensión NxN (N es el número de puntos en el conjunto de entrenamiento). Y los vectores propios son la incrustación de baja dimensión para el punto de entrenamiento. Sin embargo, puede haber hasta N eigenvectores que la incrustación puede incluso estar en un espacio de mayor dimensión (N>m, m es la dimensión original de los ejemplos de entrenamiento).
¿Por qué es así?
Y si quiero encontrar la preimagen de la incrustación de baja dimensión o el error de aproximación para el punto de datos (la parte de información que se pierde cuando los datos son representados por la incrustación de baja dimensión), ¿hay algún algoritmo disponible?
Gracias.