Estoy usando la función svm
del paquete e1071
en R
para generar un modelo de máquina de vectores de soporte. Tengo un conjunto de datos muy grande y, por el momento, mientras estoy en modo exploratorio, quiero simplemente leer pequeñas porciones de los datos que pueden ser modeladas en mi máquina única.
Después de obtener los resultados del modelo, me gustaría leer más datos y generar otro modelo de SVM, etc. hasta que todos los datos estén modelados, lo que generará alrededor de 50 modelos diferentes. Luego me gustaría fusionar todos estos modelos / resultados juntos de alguna manera para obtener un gran modelo que se aproxime a lo que lograría si pudiera ajustar todos los datos a la vez.
Sé que hay múltiples formas de hacer esto, teóricamente. Pero, manteniéndome en el modelado SVM, ¿cuáles son mis opciones en R
? (Quiero seguir utilizando el paquete e1071
porque tiene algunas cosas que no vi en los otros)
Si importa, mis datos no son genómicos y tienen un alto peso (lo que significa que estoy modelando V/F, y generalmente encuentro un F, pero los datos del conjunto de características no son dispersos).
A continuación se muestra un "pseudocódigo" de lo que estoy proponiendo / esperando, en caso de que eso ayude a aclarar las cosas:
require(e1071)
modelSet = NULL
for (i in c(1:50) ) { ## imagine que hay 50 archivos
dF <- read.csv(paste("file",i,"csv", sep=".") )
modelSet[[i]] <- svm(myOutput ~ ., data= dF, probability= TRUE)
}
## Ahora me gustaría encontrar una forma de fusionar todos los 50 modelos de "modelSet" juntos
## para hacer un modelo compuesto derivado de los 50 archivos de datos.
¡Gracias!
Mike