Sí, comprimido de detección puede ser utilizado para la minería de datos cuando los datos son escasos. Por ejemplo, ver Calderbank et al. Comprimido De Aprendizaje.
La intuición es que si los datos son escasos, a continuación, uno perfectamente puede reconstruir los datos de w.h.p de su aleatoriamente proyectado representación, siempre que la proyección de la dimensión, $k$, satisface $k \in \mathcal{O}(\|\Phi(x)\|_0 \text{log}\ d)$ donde $d$ es la dimensión de datos, y $\|\Phi(x)\|_0$ es el número de no-cero entradas en la escasa representación de los datos. De ello se sigue que w.h.p ninguna información se pierde por llevar a cabo el azar de proyección.
Sin embargo, uno se puede hacer mucho mejor. Por ejemplo, la clasificación es considerablemente más simple la tarea de señal perfecta reconstrucción y así uno puede dar garantías al azar proyectado clasificadores sin dispersión requisito en los datos y que sólo requieren que la proyección de la dimensión es logarítmica en el número de clases. Por ejemplo, vea nuestra KDD de papel a partir de 2010: Durrant y Kaban. Comprimido El Análisis Discriminante Lineal De Fisher.
También no es necesario para los datos dispersos con el fin de llevar a cabo la regresión en la aleatoriamente proyectada de dominio, por ejemplo, ver este NIPS de papel en 2009: Mailard y Munos. Comprimido De Regresión De Mínimos Cuadrados
Existe una considerable literatura sobre el aprendizaje de máquina con aleatoriamente los datos proyectados y en comprimidos de aprendizaje. Persiguiendo a las referencias en los papeles que he citado anteriormente, debe darle un buen comienzo si quieres ver más allá.