Creo que usted debe buscar en Línea el Aprendizaje de métodos. El tipo perceptrón y el kernel de tipo perceptrón son muy fáciles de codificar y trabajar muy bien en la práctica, y hay toda una serie de otros métodos en línea. Tenga en cuenta que cualquier método de aprendizaje se puede convertir en un lote algoritmo de aprendizaje, en cuyo caso se asemejan estocásticos métodos de gradiente de la pendiente.
Si usted está usando Matlab hay realmente una buena caja de herramientas llamado DOGMA por Francesco Orabona, que contiene un conjunto de algoritmos de aprendizaje en línea, y usted puede evaluar un par de métodos diferentes de usar que. La he usado en algunos de mis investigaciones y encontró que es muy útil (nota de que según recuerdo se espera que los datos [características x ejemplos] por lo que podría tener para su incorporación).
Como otros han mencionado, es posible que desee intentar la reducción de dimensionalidad. PCA podría no ser una buena opción aquí, como usted tiene que calcular la matriz de covarianza que será muy costoso. Se puede intentar buscar en el Azar de las Proyecciones. La teoría es duro, pero el principio es muy simple. Se basa en el Johnson-Lindenstrauss Lema si usted está interesado, pero la idea básica es que si aleatoriamente proyecto para un menor espacio tridimensional, a continuación, $\ell_2$ distancias entre los puntos se conservan hasta algunos $\epsilon$. Si usted está usando un kernel RBF, a continuación, $\ell_2$ distancias son todos los que están interesados en!