En una máquina de aprendizaje supuesto, me enteré de que uno de uso común de la PCA (Principal Component Analysis) es la velocidad de otros algoritmos de aprendizaje automático. Por ejemplo, imagine que usted es el entrenamiento de un modelo de regresión logística. Si usted tiene un conjunto de entrenamiento, $(x^{(i)},y^{(i)})$ para i de 1 a n y resulta que la dimensión de su vector x es muy grande (digamos que una de las dimensiones), usted puede usar el PCA para obtener una dimensión menor (digamos k dimensiones) característica del vector z. Entonces usted puede entrenar a su modelo de regresión logística en el conjunto de entrenamiento $(z^{(i)},y^{(i)})$ para i de 1 a n. La formación de este modelo será más rápido porque su función vectorial tiene menos dimensiones.
Sin embargo, no entiendo por qué no se puede reducir la dimensión de su función de vector de k dimensiones simplemente eligiendo k de sus características al azar y eliminando el resto.
La z de los vectores de combinaciones lineales de su una característica de los vectores. Desde la z de los vectores están confinados a una k-dimensional de la superficie, se puede escribir la a-k eliminado los valores de la característica como una función lineal de las k resto de los valores de la característica, y por lo tanto todos los de la z puede estar formado por la combinación lineal de k tu cuenta. Así que ¿no debería un modelo formado por un conjunto de entrenamiento con eliminada de las funciones tienen el mismo poder como un modelo formado por un conjunto de entrenamiento, cuya dimensión se redujo por la PCA? No sólo dependen del tipo de modelo y si se basa en algún tipo de combinación lineal?